Cómo revivir Wikipedia en la era ChatGPT | Tecnología

Cómo revivir Wikipedia en la era ChatGPT |  Tecnología

En Wikipedia siempre ha habido el riesgo de que aparezcan artículos falsos. Sólo un ejemplo: durante un tiempo, la página que contenía la biografía de un presentador de radio de Irlanda del Norte indicaba que tenía una promesa de baile de ruptura y que su camino en el baile urbano se vio truncado por una lesión en la columna. Pero todo esto fue puro troleo. Otras veces, a cambio, existen otras multas promocionales o por desinformación. El portal ya tiene una larga tradición en abordar este tipo de problemas. Una comunidad comprometida de 265.000 voluntarios activos lo ha controlado hasta ahora. Pero la explosión de textos generados por la inteligencia artificial plantea nuevos desafíos.

Con más de 16.000 millones de visitas al mes, el prestigio de Wikipedia está las 24 horas. Por lo tanto, este es un lugar ideal para difundir información errónea o eliminar mensajes de marketing, de empresas o particulares. Y con la inteligencia artificial (IA) podrás generar textos creíbles a discreción, de forma sencilla y sin esfuerzo.

Gracias al lanzamiento de ChatGPT, el portal ha ampliado su equipo dedicado al aprendizaje automático. El cofundador de Wikipedia, Jimmy Wales, dijo que la IA es “una oportunidad y una bendición”. Y en su última campaña de recaudación de fondos, una de las afirmaciones fue eliminada de la hoja de la plataforma en la era de la inteligencia artificial.

Miguel Ángel García, socio de Wikimedia España y ex miembro de la junta directiva, reconoce que se ha enterado de textos sospechosos que se han generado con IA. “Hemos notado que hay nuevos editores que quieren agregar contenido. Y agrego contenido muy extenso y muy desarrollado, que es algo raro. Porque cuando seas un voluntario que trabaja interpreta los artículos poco a poco. Pasar de párrafo en párrafo”.

García conoce bien a estos clientes. Colaboró ​​con Wikipedia en 2006, cuando estaba en el instituto. Corrija cualquier error ortográfico o realice cambios gramaticales obvios. Creó su primer artículo porque tenía un trabajo en el pueblo de sus padres, Campaspera, cerca de Valladolid. No tenía ninguna información sobre este puesto en el portal, así que recibí tu texto con una foto de él mismo.

“Desde que existe la inteligencia artificial, cada vez hay más voluntarios que te dedican un texto gigante, aparentemente bien estructurado y bien desarrollado. Pero después de leerlo y descubrir las redundancias que una persona es capaz de detectar muchas veces en textos elaborados con inteligencia artificial”, recurre a García en coletillas y de alguna manera le presenta la información, con introducciones y conclusiones enviadas.

Este tipo de texto corre el riesgo de perderse en un océano de más de 62 millones de artículos en más de 300 idiomas. Chris Albon, director de aprendizaje automático de la Fundación Wikimedia, que controla Wikipedia, informa que los voluntarios han estado utilizando herramientas de inteligencia artificial desde 2002, en cualquier cosa redundante. La tecnología no es real. Y la clave para controlar los textos inapropiados reside precisamente en la comunidad de voluntarios, que moderan el contenido. No te limites a escribir textos, también edítalos y discrimina cuáles pueden no ser válidos.

“En esta nueva era de la inteligencia artificial, el poder de este modelo de moderación de contenidos impulsado por humanos es más relevante. El modelo de Wikipedia, basado en el debate, el consenso y las reglas restrictivas de la ciudad (de las fuentes) ha demostrado ser resistente para mantener la calidad del contenido durante las últimas décadas”, dice Albon. Todo el texto debe estar referenciado con fuentes secundarias que enlacen a páginas de otros sitios web.

Surgieron sospechas cuando se inició ChatGPT

Si un artículo no tiene fuentes, la comunidad de voluntarios lo nota y toma medidas. “En la mayoría de los casos, los artículos se eliminan instantáneamente, porque con un clic puedes detectar que el texto no tiene ni tarta ni cabeza. En caso contrario, se acostumbra marcarlo para que finalice automáticamente en un plazo máximo de 30 días si el autor no es capaz de acreditar con explicaciones lo escrito”, explica García.

El socio español de Wikimedia sabe que cuando fue quirúrgico ChatGPT creó una pequeña cantidad de textos generados por IA que se muestran en el portal. Pero ahora la tendencia se ha estabilizado gracias a los esfuerzos comunitarios. Por su parte, Albon afirma que es necesario aprender a vivir con estas herramientas. “El enfoque de Wikipedia en la IA siempre significa que las personas editan, mejoran y auditan el trabajo que realiza la IA. Los voluntarios crean la política para el uso responsable de las herramientas de IA en Wikipedia y monitorean su correcta aplicación”, reflexiona. El portal no penaliza el uso de inteligencia artificial en los textos, ya que estos no se adaptan a la calidad que exige su política.

Lo mejor que pude encontrar para Wikipedia, según García, fue fuera de ella. Sí, la plataforma está equipada con fuentes secundarias. “Veo un problema de tamaño mediano relacionado con posibles textos generados por IA que se convierten en fuentes aparentemente de cuento de hadas en el mundo real. Cada vez salen más publicaciones periódicas digitales que publican casi cualquier cosa. Hay que señalar que hay gente que quiere referirse a los textos con estos pseudomédiums”, señala.

La solución, como casi todo en la plataforma, está en los editores. Si los voluntarios detectan que un sitio no es confiable, la comunidad puede decidir incluirlo en la lista negra. Tuvo éxito en un medio tan escuchado como el tabloide. correo electrónico diario. Durante algunos años su uso como fuente estuvo prohibido debido a que el sensacionalista británico había publicado repetidas informaciones sin contrarrestarlas.

El baile de Wikipedia con los chats de IA

Existe otra preocupación con respecto al futuro de Wikipedia en esta era de inteligencia artificial. En un escenario hipotético donde los chatbots, como ChatGPT o Google Gemini, después de consultar a los usuarios con un currículum, ¿quién visitará los artículos de Wikipedia? Y de nuevo, ¿quién lo cambiará?

“Si hay una desconexión entre dónde se genera el conocimiento, como en Wikipedia, y dónde se consume, como en ChatGPT, corremos el riesgo de perder una generación de voluntarios”, afirma Albon.

Conecta los sitios que los conocen chatbots de IA, que extraen y lo replican, también tiene un interés general. “Sin una atribución clara y una referencia a la fuente original de la que se obtuvo la información, las aplicaciones de IA ahora son capaces de introducir un nivel de desinformación sin precedentes en el mundo. Los usuarios no podrán distinguir fácilmente entre información precisa y alucinaciones. Pensamos mucho en esto y creemos que la solución es la atribución”, comenta el director de aprendizaje automático de Wikimedia.

La combinación es irónica. Porque ya sabes, aplicaciones como ChatGPT o Google Gemini se basan en sistemas que han sido entrenados con contenido de Wikipedia. Así, parte del conocimiento adquirido por los grandes modelos de lenguaje (LLM, por sus siglas en inglés) proviene de miles y miles de artículos detallados editados por personas voluntarias.

puedes seguir EL PAÍS Tecnología él Facebook Y X o escribe aquí para recibirnos boletín semanal.


By Francis Gonzalez

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like