LONDRES – Los negociadores de la Unión Europea llegaron a un acuerdo el viernes sobre las primeras reglas integrales de inteligencia artificial del mundo, allanando el camino para la supervisión legal de la tecnología de inteligencia artificial que ha prometido transformar la vida cotidiana y ha generado advertencias sobre peligros existenciales para la humanidad.
Los negociadores del Parlamento Europeo y los 27 países miembros del bloque superaron grandes diferencias sobre puntos controvertidos, incluida la IA generativa y el uso policial de la vigilancia por reconocimiento facial, para firmar un acuerdo político tentativo para la Ley de Inteligencia Artificial.
«¡Trato!» tuiteó el comisario europeo Thierry Breton, poco antes de la medianoche. «La UE se convierte en el primer continente en establecer reglas claras para el uso de la IA».
El resultado se produjo después de maratonianas conversaciones a puerta cerrada esta semana, con una sesión inicial que duró 22 horas antes de que comenzara una segunda ronda el viernes por la mañana.
Los funcionarios estaban bajo presión para asegurar una victoria política para la legislación emblemática. Sin embargo, los grupos de la sociedad civil lo recibieron con frialdad mientras esperan detalles técnicos que deberán resolverse en las próximas semanas. Dijeron que el acuerdo no iba lo suficientemente lejos para proteger a las personas del daño causado por los sistemas de inteligencia artificial.
«El acuerdo político de hoy marca el comienzo de un trabajo técnico importante y necesario sobre detalles cruciales de la Ley de IA, que aún faltan», dijo Daniel Friedlaender, jefe de la oficina europea de la Asociación de la Industria de Computadoras y Comunicaciones, un grupo de lobby de la industria tecnológica.
La UE tomó una temprana iniciativa en la carrera global para diseñar barreras de seguridad para la IA cuando dio a conocer el primer borrador de su reglamento en 2021. Sin embargo, el reciente auge de la IA generativa hizo que los funcionarios europeos se apresuraran a actualizar una propuesta preparada para servir como modelo. por el mundo.
El Parlamento Europeo aún necesitará votar sobre la ley a principios del próximo año, pero una vez cerrado el acuerdo eso es una formalidad, dijo a The Associated Press el viernes por la noche Brando Benifei, un legislador italiano que codirige los esfuerzos de negociación del organismo.
“Es muy, muy bueno”, dijo por mensaje de texto luego de que le preguntaran si incluía todo lo que quería. «Obviamente tuvimos que aceptar algunos compromisos, pero en general muy bien». La eventual ley no entraría plenamente en vigor hasta 2025 como muy pronto y amenaza con duras sanciones financieras por violaciones de hasta 35 millones de euros (38 millones de dólares) o el 7% de la facturación global de una empresa.
Los sistemas de IA generativa como ChatGPT de OpenAI han irrumpido en la conciencia mundial, deslumbrando a los usuarios con la capacidad de producir textos, fotografías y canciones similares a los humanos, pero generando temores sobre los riesgos que la tecnología en rápido desarrollo representa para los empleos, la privacidad y la protección de los derechos de autor e incluso para la vida humana. sí mismo.
Ahora, Estados Unidos, Reino Unido, China y coaliciones globales como el Grupo de las 7 principales democracias se han sumado con sus propias propuestas para regular la IA, aunque todavía están alcanzando a Europa.
Las normas sólidas y completas de la UE “pueden ser un poderoso ejemplo para muchos gobiernos que estén considerando regularlas”, dijo Anu Bradford, profesora de la Facultad de Derecho de Columbia y experta en derecho de la UE y regulación digital. Otros países “quizás no copien todas las disposiciones, pero probablemente emulen muchos aspectos de ellas”.
Las empresas de IA sujetas a las normas de la UE probablemente también extenderán algunas de esas obligaciones fuera del continente, afirmó. «Después de todo, no es eficiente volver a entrenar modelos separados para diferentes mercados», dijo.
La Ley de IA se diseñó originalmente para mitigar los peligros de funciones específicas de la IA en función de su nivel de riesgo, desde bajo hasta inaceptable. Pero los legisladores presionaron para expandirlo a los modelos básicos, los sistemas avanzados que sustentan los servicios de inteligencia artificial de propósito general como ChatGPT y el chatbot Bard de Google.
Los modelos de fundaciones parecían destinados a ser uno de los mayores puntos conflictivos para Europa. Sin embargo, los negociadores lograron llegar a un compromiso tentativo al principio de las conversaciones, a pesar de la oposición encabezada por Francia, que pidió en cambio una autorregulación para ayudar a las empresas europeas locales de IA generativa que compiten con grandes rivales estadounidenses, incluido Microsoft, patrocinador de OpenAI.
También conocidos como grandes modelos de lenguaje, estos sistemas se entrenan con grandes cantidades de trabajos escritos e imágenes extraídas de Internet. Dan a los sistemas de IA generativa la capacidad de crear algo nuevo, a diferencia de la IA tradicional, que procesa datos y completa tareas utilizando reglas predeterminadas.
Las empresas que construyan modelos de cimientos deberán elaborar documentación técnica, cumplir con la ley de derechos de autor de la UE y detallar el contenido utilizado para la capacitación. Los modelos básicos más avanzados que plantean “riesgos sistémicos” enfrentarán un escrutinio adicional, incluida la evaluación y mitigación de esos riesgos, la notificación de incidentes graves, la implementación de medidas de ciberseguridad y la presentación de informes sobre su eficiencia energética.
Los investigadores han advertido que se podrían utilizar poderosos modelos básicos, construidos por un puñado de grandes empresas tecnológicas, para potenciar la desinformación y manipulación en línea, los ciberataques o la creación de armas biológicas.
Los grupos de derechos humanos también advierten que la falta de transparencia sobre los datos utilizados para entrenar los modelos plantea riesgos para la vida diaria porque actúan como estructuras básicas para los desarrolladores de software que crean servicios basados en IA.
Lo que se convirtió en el tema más espinoso fueron los sistemas de vigilancia de reconocimiento facial impulsados por inteligencia artificial, y los negociadores llegaron a un compromiso después de una intensa negociación.
Los legisladores europeos querían una prohibición total del uso público del escaneo facial y otros sistemas de “identificación biométrica remota” debido a preocupaciones de privacidad. Pero los gobiernos de los países miembros lograron negociar exenciones para que las fuerzas del orden pudieran utilizarlas para abordar delitos graves como la explotación sexual infantil o los ataques terroristas.
Los grupos de derechos humanos dijeron que estaban preocupados por las exenciones y otras grandes lagunas en la Ley de IA, incluida la falta de protección de los sistemas de IA utilizados en el control de migración y fronteras, y la opción para que los desarrolladores opten por no clasificar sus sistemas como de alto riesgo.
“Cualesquiera que hayan sido las victorias en estas negociaciones finales, el hecho es que persistirán enormes fallas en este texto final”, dijo Daniel Leufer, analista de políticas senior del grupo de derechos digitales Access Now.
• El reportero técnico Matt O’Brien en Providence, Rhode Island, contribuyó a este informe.