Google, Meta y OpenAI anuncian métodos para identificar contenidos creados con inteligencia artificial | Tecnología

Google, Meta y OpenAI anuncian métodos para identificar contenidos creados con inteligencia artificial |  Tecnología
Google, Meta y OpenAI anuncian métodos para identificar contenidos creados con inteligencia artificial |  Tecnología

Google, Meta y OpenAI se han anunciado en los últimos días para facilitar la identificación de imágenes o archivos que produjeron o grabaron con inteligencia artificial (IA). Estas iniciativas marcan el temor de que la difusión indiscriminada de mensajes falsos afecte los resultados electorales o tenga otras consecuencias inesperadas. Las tres empresas ya habían anunciado que tendrían que impedir el uso de IA en los procesos electorales de 2024.

Después de años de convertir millas en millones para mejorar la capacidad de la inteligencia artificial generativa, las tres plataformas se han sumado a la Coalición para la Autenticidad de Procedimientos y Contenidos (C2PA, por sus siglas en inglés), que propone un certificado estándar y encuentra a buena parte de la industria digital. un medio de comunicación como la BBC o Los New York Times a los mostradores y a los fabricantes de cámaras. Las empresas admiten en sus comunicados que ahora no disponen de una solución única, ni eficaz en todos los casos, para identificar el contenido generado por IA.

Las iniciativas varían entre marcas visibles en sus imágenes y mensajes simulados en metadatos de archivos o píxeles que han sido generados artificialmente. Con su equipo también en fase beta, SynthID, Google también ha encontrado una manera de identificar el audio.

El estándar C2PA para introducir información de metadatos de imágenes tiene numerosas dificultades técnicas, identificadas en detalle por los desarrolladores. Su propio OpenAI, que utilizará C2PA en Dall-3 (su generador de imágenes), advierte en su comunicado de que no es necesario confiar demasiado en sus capacidades: “Los metadatos como C2PA no son una solución migratoria para abordar cuestiones de procedencia. Puede eliminar fácilmente cualquier forma accidental o intencional. Una imagen que carezca de estos metadatos puede haber sido generada o no con ChatGPT o con nuestra API”, informará la empresa que creó el chatbot que popularizó la inteligencia artificial generativa.

Las empresas no tienen lugares claros para la plena introducción de sus tratamientos. Este 2024 es un año lleno de citas electorales en países importantes, y la influencia del contenido generado por IA puede ser explosiva. La necesidad de protegerse preventivamente es vital. “Estamos desarrollando esta capacidad y en los próximos meses nos esforzaremos en aplicar etiquetas en todos los idiomas que permitan cada aplicación”, señala Nick Clegg, presidente de Asuntos Públicos de Meta, en su comunicado.

Meta promete no solo etiquetar visualmente las imágenes que generan tus herramientas de IA, sino también detectar e identificar aquellas que están en tus redes: Instagram, Facebook y Threads, siempre que sea posible. «Podemos etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock mientras ponemos nuestros aviones en movimiento para agregar metadatos a las imágenes creadas por nuestras herramientas», dice Clegg.

Google aplicará sus métodos a YouTube. Si bien estos enfoques dicen que representan lo último en lo que es técnicamente posible ahora, la compañía cree que su método creado con SynthID puede guardar cambios voluntarios para ocultarlo, como “agregar filtros, cambiar el color y guardar con varios esquemas de compresión con pérdida, que son el más utilizado para archivos JPEG”.

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *