Las principales empresas de IA aceptan la ley europea, pero dicen que su aplicación no se ve restringida | Tecnología

La directora de AMD, Lisa Su, cuya empresa está incorporada a AI Alliance, muestra uno de los dispositivos que su empresa creó para acelerar la inteligencia artificial, en un acto celebrado en junio en San Francisco.STEPHEN NELLIS (REUTERS)

Las grandes empresas de inteligencia artificial aceptan la normativa europea aprobada en base a la media de este pasado, pero afirman que no pone freno a su desarrollo. Como afirma Pilar Manchón, asesora del comité asesor del Gobierno español y responsable de la estrategia de investigación en inteligencia artificial de Google, «la IA es demasiado importante como para no regularizarla». Las principales empresas responsables de estos desarrollos han estado trabajando en paralelo a la negociación del estándar para asegurar una evolución ética de estas herramientas, de modo que el estándar coincida con sus expectativas generales siempre y cuando, según Christina Montgomery, vicepresidenta y directora de La privacidad y la confianza de IBM “proporcionan barreras de protección para la empresa en el tiempo que promueven la innovación”.

Hoy, la tendencia tecnológica quedó abandonada en manos de la autorregulación de los límites de sus desarrollos. Todos tienen principios éticos, que Manchón resume así: “Haz las cosas bien y asegura que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente pudiera hacer algo que no es para lo que lo usa o para lo que lo diseñó, asegúrese de tomar todas las precauciones necesarias y mitigar los riesgos. Por eso: haz solo el bien, innova, sé atrevido, pero sé responsable”.

Sin embargo, esta fórmula ha resultado absolutamente insuficiente desde el punto de vista de las redes sociales. Según Global Witness, una ONG que investiga y supervisa los derechos humanos desde hace 30 años, “estas empresas prefieren proteger su rentable modelo de negocio mediante una adecuada moderación de contenidos y proteger a los usuarios”.

Para prevenir estas disfunciones con la inteligencia artificial, algunas de las principales empresas e instituciones se adaptan a la normativa y proponen fórmulas propias que garantizan el cumplimiento de los principios incluidos.

En este sentimiento, medio siglo de empresas, entre las que se encuentran IBM, Meta, AMD, Intel o Dell; universidades, como el Imperial College de Londres, Cornell, Boston, Yale y Harvard; y entidades como la NASA o NSF, han formado la Alianza para la Inteligencia Artificial (AI Alliance) para el desarrollo de una IA que cumpla con los estándares: apertura, seguridad y responsabilidad.

“Una mayor colaboración e intercambio de información ayudará a la comunidad a innovar de la manera más rápida e inclusiva, identificando respuestas específicas y mitigándolas antes de lanzar un producto al mundo”, dicen los firmantes. Para él, sus grupos de trabajo establecerán sus propias normas y “se sumarán” a las iniciativas de los gobiernos y otras organizaciones. «Este es un momento crucial para definir el futuro de la IA», afirmó Arvind Krishna, presidente de IBM. «Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable estén ampliamente disponibles», añade Lisa Su, directora ejecutiva y presidenta de AMD.

Podemos ayudarle a garantizar que los beneficios transformadores de AI Manager estén ampliamente disponibles

Lisa Su, directora ejecutiva y presidenta de AMD

De esta forma, los miembros de la alianza, que ya no incluye a OpenAI, el desarrollador de ChapGPT, ni a Google, que acaba de presentar Gemini (un modelo con capacidades que superan a las personas), han iniciado la colaboración entre empresas y con gobiernos, para seguir un mandato común. Como explica Tom Mihaljevic, presidente de la Clínica Cleveland, una de las instituciones médicas más avanzadas en el uso de nuevas tecnologías, “las capacidades de la IA ahora crecen y mejoran constantemente, y es crucial que organizaciones de diferentes campos sean una sola cosa para ayudar. para avanzar y, al mismo tiempo, abordar las preocupaciones en materia de seguridad y protección”.

Bob Shorten, director de la Escuela de Ingeniería Dyson del Imperial College de Londres, también lo defiende: “Creemos que la participación de la comunidad es esencial para que la IA sea confiable, responsable, transparente y auditable”, los principios que definen el estándar europeo.

Esta comunidad incluye gobiernos, industrias, instituciones académicas e investigadores alineados en el desarrollo ético. Pero, como explico, Manuel R. Torres, catedrático de ciencias políticas de la Universidad Pablo de Olavide y miembro de la junta directiva del Real Instituto Elcano. «El problema es la proliferación de tecnología que puede evitar que nos toquen la mano equivocada».

Torres califica al periódico europeo de “potencia regulatoria”, pero advierte: “El conflicto es cómo se desarrolla en otros ámbitos esta tecnología que no tiene ningún tipo de escrúpulo ni limitación en cuanto a la privacidad de los ciudadanos con los datos que alimenta todo como esto”.

Un ejemplo es el caso chino: “No sólo estás en esta carrera tecnológica, sino que no tienes problema alguno en utilizar masivamente los datos que sus ciudadanos dan para poder y perfeccionar estos sistemas. Para muchas personas escrupulosas que queremos estar dentro de los límites que ponemos a nuestros desarrolladores locales, al final, si esto no se hace globalmente, también es peligroso”.

Wu Zhaohui, viceministro de Ciencia y Tecnología de China, afirmó en noviembre pasado, respecto al nivel de seguridad artificial celebrado en el Reino Unido, que el gobierno está «dispuesto a aumentar la colaboración para ayudar a construir una marca de gobernanza internacional».

Pero la legislación, por así decirlo, es insuficiente. A partir de la aprobación de la norma europea, la clave será la «supervisión permanente», añade Cecilia Danesi, académica especializada en IA y derechos digitales, profesora de la Universidad Pontificia de Salamanca y de otras universidades internacionales, divulgadora y autora de El imperio de los algoritmos (Galerna, 2023).

Para Danesi, también parte integral del grupo Mujeres por la Ética de la Inteligencia Artificial (Women4Ethical AI) de la UNESCO, es necesario lo siguiente: “Estos sistemas que son de alto riesgo, que pueden afectar considerablemente los derechos humanos o las cuestiones de seguridad. Asegúrese de que sean evaluados y revisados ​​para garantizar que no violen ningún derecho y que no contengan ningún defecto. Y hay que hacerlo continuamente porque los sistemas, a medida que vas aprendiendo, puedes adquirir los tuyos propios. Y actuar preventivamente para evitar daños y generar sistemas éticos y respetuosos de los derechos humanos.»

En contraste con la regulación del sector en Europa, se muestran 150 directivas de empresas continentales, entre ellas Airbus, Ubisoft, Renault, Heineken, Dassault, TomTom, Peugeot y Carrefour. En junio, nuestros líderes firmaron un documento abierto contra el reglamento de la UE para considerar que la norma influirá «en la competitividad y la sobriedad tecnológica de Europa sin abordar eficazmente los problemas que enfrentamos y afrontamos».

Cibertivismo

ONG y expertos dedicados al ciberactivismo han demostrado que están sorprendidos y defraudados por la ley aprobada hoy. Ella Jakubowska, analista especializada en tecnologías de identificación biométrica en la ONG europea de derechos digitales EDRi, dice: “A pesar de muchas promesas, la ley parece destinada a hacer exactamente lo contrario de lo que pedimos. Ampliará el camino para que los 27 estados miembros de la UE legalicen el reconocimiento facial público in vivo. Esto sentará un precedente de peligro en todo el mundo, legitimará estas tecnologías de vigilancia masiva profundamente invasivas e implicará que pueden hacer excepciones a nuestros derechos humanos”.

Carmela Troncoso, ingeniera de telecomunicaciones especializada en privacidad en la Escuela Politécnica Federal de Lausana (Suiza), dice: “Hay muchas prohibiciones muy prometedoras, pero también muchos agujeros y excepciones que no dejan claro que las prohibiciones de verdad van a proteger la privacidad”. derechos humanos ya que esperamos, por ejemplo, que las fuerzas del orden utilicen el reconocimiento facial en tiempo real para buscar sospechosos. También es triste que España se haya visto privada de algunas de las propuestas más preocupantes de esta ley”, añade Troncoso, creador de la tecnología que la hizo posible. aplicación de seguimiento de la covid, informar Manuel González Pascual..

Puedes seguir en EL PAÍS Tecnología es FacebookX o escribe aquí para recibirnos boletín periódico.

Regístrate para seguir leyendo

lee sin limites

_


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *