¿Máquinas con ética? Cómo enseñar moral a los administradores para traducir la ética en números | Tecnología

Hay tres elementos básicos en la fórmula matemática para enseñar un código de ética a las máquinas. Y no hace mucha diferencia con el cóctel ético que manejamos a las personas. Acción, valor y norma conforman esta tríada con la que los investigadores hacen malabarismos para establecer limitaciones que controlen el comportamiento de las inteligencias artificiales.

Para las personas, el valor equivale a una especie de norma social comúnmente aceptada: sabemos que mencionar es una acción moralmente reprobable. Y las normas ayudan a formalizar la idea de valor en un código legal. “Las normas están prohibidas, como si estuviera prohibido fumar en espacios cerrados, pero el valor también te ayuda a promover buenas acciones, como ser donante o ser querido”, explica Maite López-Sánchez, investigadora de IA y profesora de la Universidad de Barcelona. , que trabaja en sistemas para introducir principios éticos en los sistemas de inteligencia artificial.

Las personas aprendemos esta marca, que sirve para delimitar nuestro comportamiento, durante el proceso de socialización. Pero en las máquinas es necesario traducir todos los números y funciones matemáticas. El objetivo final es proporcionar orden de acciones. “Al final, las máquinas están muy integradas en la sociedad y en ocasiones toman decisiones que nos afectan a nosotros y a las personas. Sería deseable que estas decisiones estudieran alineadas con lo que entendemos que es correcto, que se integraran bien socialmente”, afirma el investigador.

López-Sánchez subrayó lo más básico para explicar la necesidad de tener coches con ética: “Puedo tener un coche autónomo y, si se le da el objetivo de llevarme al trabajo, el coche tendrá la vía más eficiente o más rápida. Tenemos muy claro que quiero hacer mi trabajo, pero no quiero molestar a nadie. No fue moralmente correcto». Pero el caso de estudio va mucho más allá de los supuestos extremos. “Hay muchos aspectos a tener en cuenta para liderar correctamente. No se trata sólo de no saltarse las normas, sino de hacer las cosas bien, como ceder el ritmo a una turba, mantener la distancia de seguridad o no ser agresivo con la bocina”, afirma el investigador.

La ética en la inteligencia artificial también tiene que ver con el trato igualitario. “Si es un sistema de decisión para garantizar la seguridad médica, lo que nos gustaría es que fuera un algoritmo que no la retenga, que trate igual a todas las personas que lo evalúen”, afirma López-Sánchez.

En los últimos años he pasado al escenario de sus algoritmos de todo tipo. Un sistema desarrollado por Amazon que seleccionaba a los candidatos favorecía los currículums de los hombres por encima de los de las mujeres. Hizo esto porque entrenó con la mayoría de los planes de estudio masculinos y no tenía forma de corregir esta desviación. Otro algoritmo, en este caso utilizado por el sistema sanitario de Estados Unidos, penalizaba a los negros que estaban por delante de los blancos en la igualdad de gravedad clínica, de modo que se designaba un alcalde que ponía en riesgo a los blancos y, por tanto, si daba prioridad a los atención médica.

Además, los sistemas autónomos manejan cuestiones relacionadas con la propiedad intelectual o el uso de datos privados. Una fórmula para evitar estas carencias es establecer autolimitaciones en el diseño del algoritmo. Ana Cuevas, catedrática del área de Lógica y Filosofía de la Ciencia de la Universidad de Salamanca, defiende este enfoque proactivo: “No hay que esperar a que las cosas sucedan para analizar los riesgos que pueden tener, sino a partir de la asunción de los anteriores para crear una «En un sistema de inteligencia artificial debemos pensar qué tipo de sistema queremos crear para evitar ciertos resultados indeseables».

La ética en el lenguaje de las máquinas

Introducir un corpus ético en las máquinas es un trabajo relativamente nuevo. La comunidad científica lo ha abrazado en todo desde el punto de vista teórico, pero no es tan común bajar al barro para concretar valores en cifras y enseñanzas morales en la ingeniería. En el grupo de investigación de Sánchez-López, WAI, de la Universidad de Barcelona, ​​se exploró este campo de forma experimental.

Estos investigadores incorporan los conceptos de valor y agencia al diseño de sistemas. “Tenemos una función matemática que nos dice que para un determinado valor, una determinada acción de la máquina se considera positiva o negativa”, afirma López-Sánchez. Así, en el ejemplo del coche autónomo, una conducción suave en una carretera con curvas se considerará positiva con respecto al valor de seguridad. Incluso si se observa desde el prisma del valor de la amabilidad con los demás conductores, el vehículo puede decidir aumentar la velocidad si se nota que alcanza el ritmo de otros coches.

En este caso concreto se crea un conflicto entre valores que se resolverá con ponderación. En primer lugar, se establecen preferencias que indican qué valores prevalecen. Todo el paquete incluye fórmulas elaboradas, que también deben contener la variable norma. “Existe otra función que establece que una norma promueve un valor”, apunta el investigador. «También tenemos funciones que considerar como norma para evaluar la acción y también cómo evaluar el valor de esta acción». Es un sistema complejo donde la retroalimentación es clave.

Cuando López-Sánchez habla de si hacer referencia directamente al aprendizaje automático. Una de las formas que hay que aprender es por referencia, como las personas, que actuamos bien porque si nos premian y evitamos hacerlo mal porque nos castigan. Este mecanismo también se encuentra en la inteligencia artificial.

“Las recompensas son numerosas. Las recompensas nos las dan con números positivos y los castigos nos los dan con números negativos”, explica el investigador de WAI. “Las máquinas tienen como objetivo conseguir el mayor número de puntos. Entonces el coche va a intentar llegar a los dos números positivos cuando hace las cosas bien. Y, si está en mal estado, el castigo y los puntos de quito, intentará no hacerlo”. Cómo enseñar a los niños, centrarse en los objetivos educativos.

Pero hay muchas sugerencias para la resolución. Para empezar, algo tan sencillo como decidir qué valores queremos introducir en las máquinas. “La ética se desarrolla de maneras muy diferentes. En algunos casos tenderemos a hacer cálculos útiles, para minimizar riesgos o daños”, apunta el profesor Cuevas. “Otras veces tenemos que utilizar los códigos éticos más estrictos para establecer que no se puede mencionar un sistema. Todo sistema debe incorporar ciertos valores y por ello debe tener escucha comunitaria y social.»

En el laboratorio de López-Sánchez trabajan en estudios sociológicos para encontrar valores comunes entre personas y entre diferentes culturas. Al mismo tiempo se hizo referencia a documentos internacionales, como la Declaración Universal de Derechos Humanos de la ONU. Aunque hay aspectos que son más difíciles de conseguir a nivel global. Como cree Cuevas: “Las limitaciones de las máquinas tenderán a ser frontales. La Unión Europea, por ejemplo, tiene su propia manera de hacer las cosas y Estados Unidos tiene otra”, subraya, en referencia al distinto marco regulatorio que existe a cada lado del Atlántico.

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.

Regístrate para seguir leyendo

lee sin limites

_


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *