Manténgase informado con actualizaciones gratuitas
Simplemente regístrese en myFT Digest de inteligencia artificial, que se envía directamente a su bandeja de entrada.
El gobierno del Reino Unido se dispone a publicar una serie de pruebas que deben cumplirse para aprobar nuevas leyes sobre inteligencia artificial, mientras continúa resistiéndose a crear un régimen regulatorio más estricto para la tecnología de rápido desarrollo.
Los ministros británicos se están preparando para publicar criterios en las próximas semanas sobre las circunstancias en las que implementarían restricciones a los potentes modelos de IA creados por empresas líderes como OpenAI y Google, según varias personas familiarizadas con la medida inminente.
Entre las “pruebas clave” que desencadenarían una intervención se encuentra si los sistemas implementados por el nuevo Instituto de Seguridad de IA del Reino Unido (un organismo gubernamental compuesto por académicos y expertos en aprendizaje automático) no logran identificar los riesgos relacionados con la tecnología. Otro escenario que podría desencadenar una legislación es si las empresas de IA no cumplen con los compromisos voluntarios para evitar daños.
El enfoque cauteloso del Reino Unido para regular el sector contrasta con las medidas adoptadas en todo el mundo. La UE ha acordado una “Ley de IA” de amplio alcance que crea nuevas obligaciones estrictas para las principales empresas de IA que fabrican tecnologías de “alto riesgo”.
El presidente de Estados Unidos, Joe Biden, emitió una orden ejecutiva para obligar a las empresas de inteligencia artificial a revelar que están abordando amenazas a la seguridad nacional y la privacidad de los consumidores. Mientras tanto, China ha proporcionado orientación detallada sobre el desarrollo de la IA, enfatizando la necesidad de controlar el contenido.
El Reino Unido ha dicho que se abstendrá de crear una legislación específica sobre IA en el corto plazo en favor de un régimen ligero, por temor a que una regulación estricta inhiba el crecimiento de la industria.
Las nuevas pruebas del gobierno se incluirán como parte de su respuesta a una consulta sobre su libro blanco, publicado en marzo, que proponía dividir la responsabilidad de la regulación de la IA entre los reguladores existentes, como Ofcom y la Autoridad de Conducta Financiera.
En noviembre, empresas líderes en IA, incluidas OpenAI, Google DeepMind, Microsoft y Meta, firmaron una serie de compromisos voluntarios sobre la seguridad de sus productos como parte de la Cumbre mundial inaugural sobre seguridad de la IA organizada por el gobierno del Reino Unido.
Las empresas acordaron permitir que el Instituto de Seguridad de IA del Reino Unido evalúe la seguridad de modelos potentes que sustentan productos como ChatGPT antes de su lanzamiento a empresas y consumidores. Se entiende que la evaluación de los modelos está en marcha, pero no está claro cómo se llevarán a cabo o si las empresas de IA proporcionarán un acceso completo.
«Actualmente tenemos suerte porque dependemos de la buena voluntad de ambas partes, y la tenemos, pero siempre podría fracasar», dijo un funcionario del gobierno. «Es muy dependiente del carácter y del director ejecutivo».
Sin embargo, algunos expertos en IA han argumentado que la dependencia del Reino Unido del compromiso voluntario carece de fuerza.
«La preocupación es que el gobierno está creando capacidades para evaluar y monitorear los riesgos de la IA a través del instituto, pero quedando impotente para hacer algo al respecto», dijo Michael Birtwistle, director asociado del organismo de investigación independiente Ada Lovelace Institute.
«Hay mucho en juego en la IA y, sin fuertes incentivos regulatorios, no se puede esperar que las empresas cumplan compromisos voluntarios una vez que sus incentivos de mercado se mueven en una dirección diferente», añadió.
La respuesta del gobierno a su libro blanco inicial sobre IA incluirá una estipulación de que, para continuar con la presentación de legislación, sería necesario que haya evidencia de que tal medida mitigaría los riesgos de la IA sin sofocar la innovación, según una persona familiarizada con su contenido.
La misma persona añadió que otra razón por la que el gobierno podría impulsar nuevas leyes era si enfrentara resistencia de las empresas de inteligencia artificial sobre futuras actualizaciones de sus acuerdos voluntarios, como solicitar acceso al código o adoptar nuevos requisitos de prueba.
El gobierno del Reino Unido dijo que “no especularía sobre lo que podría o no incluirse” en su respuesta a la consulta del libro blanco, pero agregó que estaba “trabajando estrechamente con los reguladores para asegurarnos de que tengamos las barreras necesarias, muchas de las cuales Hemos comenzado a tomar medidas proactivas en línea con nuestro marco propuesto”.