“¿Es mejor tener un reloj Parado que no funciona en absoluto u otro que solo ves un minuto cada día?”. Esta adivinación aparece en la obra del matemático Lewis Carroll cuando el Sombrerero Loco toma el té con Alicia en la Tierra de Maravillas. También es una de las preguntas que Vanesa Guerrero (Guadalcanal, Sevilla, 25 años) hizo en ChatGPT de dos formas distintas. Primero, la inteligencia artificial (IA) eligió el reloj que abría un minuto cada día, pero al reformular la pregunta, el equipo cambió de opinión.
Esta escena literaria sirvió de ejemplo para que Guerrero explicara cómo ChatGPT recibía una respuesta o todo lo contrario dependiendo de cómo estuviera formulada la pregunta. Lo mismo ocurre con los modelos matemáticos tal como funcionan. “Con mi investigación intento desarrollar herramientas, algoritmos, metodologías, modelos, ecuaciones que te permitan, a través de unos datos, tomar decisiones informadas, interpretables, coherentes y no discriminatorias”, explica. Guerrero fue una de las ganadoras de los premios L’Oréal-UNESCO For Women in Science por su trabajo sobre la equidad algorítmica en datos funcionales. Es doctor en matemáticas por la Universidad de Sevilla y catedrático de estadística en la Universidad Carlos III de Madrid.
Guerrero buscó sus algoritmos para “tomar buenas decisiones” a partir de datos funcionales, como el salario de una persona o su presión arterial. La forma de hacerlo es definir primero qué significa equidad en un contexto y luego escribir la fórmula matemática, ver cómo resolverla y cómo aplicarla, según el informe. A lo largo del día, Guerrero se pone en contacto con profesionales de otras industrias, como empresas de seguridad o bancos, para dar forma a sus ejecuciones y resolver diferentes problemas. El abandono de las dificultades en el mundo algorítmico es muy amplio: “Muy a menudo lo más complicado es el uso del propio lenguaje, poder comprender qué necesidades existen, incluso dentro de las propias matemáticas”, admite.
ecuaciones correctas
¿Puedes acertar totalmente con los algoritmos? Guerrero dice que está trabajando en ello, pero explica que los sesgos son inherentes a los datos. “La IA está reproduciendo lo que hay en los datos. Va a evolucionar, tal como evoluciona la sociedad. Así como ahora hablamos en un lenguaje más inclusivo, algo impensable hace 20 años, lo mismo está sucediendo con este tipo de herramientas basadas en IA”. Al igual que en el estado de los modelos de IA, Guerrero advierte que la selección de datos es crucial para que “sean representativos de lo que se quiere estudiar”.
En los casos en los que ChatGPT ha dado resultados seleccionados por género, como predecir un arresto, Guerrero ofrece a los creadores una compensación con los datos: “Si quieres que tu algoritmo o tu modelo sean precisos al predecir una infermedad, pero también (es preciso ) entre los grupos sensibles que tienes, como hombres y mujeres, necesitas equilibrar el error total de predicción con el error de los grupos”. Digamos cómo comportarse con el algoritmo en un grupo concreto, de forma global, y corregir los errores encontrados entre los “grupos sensibles”. Además, Guerrero también valora la igualdad de género en los equipos tecnológicos: “Un día de hoy hay más hombres que mujeres. Contamos con un equipo de hombres, mujeres y personas de distintas religiones. Todos tenían algo vívido después de regresar a su trabajo”.
No comprobar las respuestas de la inteligencia artificial también supone un riesgo para el conocimiento general. Las nuevas generaciones “se van a educar aprendiendo lo que ha desarrollado ChatGPT”, afirma Guerrero. Dos profesores de Tecnología de A Coruña reconocían a EL PAÍS en diciembre del año pasado que ChatGPT “es una herramienta valiosa” que se puede utilizar en las aulas “como guía o como consultor”. Los profesores quedaron incapaces porque los alumnos tenían buenas preguntas para obtener los mejores resultados del equipo. Guerrero, como docente, apuesta por el uso del hardware, pero se centra en la arquitectura algorítmica: “Hacer una buena investigación y desarrollar modelos y métodos que tengan la corrección (de ellos) hasta que se puedan encontrar de forma natural”.
Cajas negras normales
Otra forma de abordar los problemas de la IA es mediante la gobernanza ética de los sistemas. El pasado martes, la Unión Europea aprobó definitivamente la ley de inteligencia artificial, que se aplicará progresivamente hasta 2026. La norma establece distintas obligaciones a las aplicaciones de IA en las funciones de sus usos. Crear imágenes o noticias falsas y no distinguir entre lo real y lo que no lo es, como nombres profundo, son algunas de sus consecuencias. “No hay nada que se pueda hacer para frenar la evolución de esta tecnología y mucho menos hay que valorar los problemas y periódicamente para no tener ningún efecto negativo en la sociedad”, Matiz.
Guerrero define como “cajas negras” los modelos de inteligencia artificial creados por grandes tecnologías, como OpenAI o Google. Estos dispositivos se caracterizan por su gran conservación y su opacidad. “No sé qué te hace vulnerable, ¿por qué digo esto? Quizás esté usando mis datos privados. Que todas estas herramientas estén en manos de grandes empresas tecnológicas privadas también es un riesgo”. Guerrero crea en la “ciencia abierta”, y en el código abierto, para que todo lo que quiera conocer, aportar y desarrollar esta metodología, esté disponible. Y sostiene al respecto: “Hay una mala regulación para que nadie pueda hacer lo que quiera sin pasar por ningún control”, afirma Guerrero.
“¿Es mejor un reloj que diga la hora exacta una vez cada dos años o un reloj que sea puntual dos veces al día?” En esta ocasión ChatGPT eligió el reloj de pulsera, y aun así puede parecer que un reloj que cruza un minuto al día es mejor que uno extropeado, el reloj se retrasa de la hora exacta una vez cada dos años, mientras que el reloj lo hace dos veces al día. día.
Puedes seguir en EL PAÍS Tecnología es Facebook Sí X o escribe aquí para recibirnos boletín periódico.
Regístrate para seguir leyendo
lee sin limites
_