Manténgase informado con actualizaciones gratuitas
Simplemente regístrese en myFT Digest de inteligencia artificial, que se envía directamente a su bandeja de entrada.
En la película Her, un escritor solitario llamado Theodore Twombley se enamora de la voz incorpórea de Samantha, una asistente digital interpretada por la actriz Scarlett Johansson. «No puedo creer que esté teniendo esta conversación con mi computadora», le dice Twombley a Samantha. «Usted no es. Estás teniendo esta conversación conmigo”, susurra Samantha.
La genialidad del guión de Spike Jonze es su exploración de las zonas fronterizas entre lo artificial y lo real. Pero la película de ciencia ficción, estrenada en 2013, ha adquirido resonancia irónica hoy después de que OpenAI lanzara su último chatbot de inteligencia artificial multimodal GPT-4o, que aparentemente imita la voz de Johansson.
Johansson dijo que había rechazado las solicitudes de OpenAI para usar su voz y agregó que estaba «conmocionada y enojada» al descubrir que la compañía había implementado una «inquietantemente similar» a la suya. Pidió una mayor transparencia y una legislación adecuada para garantizar la protección de los derechos individuales. OpenAI detuvo el uso de la voz, que luego explicó que pertenecía a otro actor anónimo.
El incidente podría haber parecido a los funcionarios que asistieron a la última Cumbre de Seguridad de IA en Seúl esta semana como una divertida rabieta de una celebridad. Pero la disputa coincide con tres preocupaciones más generales sobre la IA generativa: el robo de identidad, la corrosión de la propiedad intelectual y la erosión de la confianza. ¿Pueden las empresas de IA implementar la tecnología de manera responsable? Es inquietante que incluso algunos de los que anteriormente estaban a cargo de garantizar la seguridad se estén haciendo esa pregunta.
La semana pasada, Jan Leike dimitió como jefe del equipo de seguridad de OpenAI tras la marcha de Ilya Sutskever, uno de los cofundadores y científico jefe de la empresa. En X, Leike afirmó que la seguridad en la empresa había pasado a un segundo plano frente a los “productos brillantes”. Sostuvo que OpenAI debería dedicar mucho más ancho de banda a la seguridad, la confidencialidad, la alineación humana y el impacto social. “Es bastante difícil solucionar estos problemas y me preocupa que no estemos en el camino correcto para llegar allí”, publicó.
En sus propios comentarios de despedida, Sutskever dijo que confiaba en que OpenAI crearía una IA que fuera «segura y beneficiosa». Sin embargo, Sutskever fue uno de los miembros de la junta directiva que el año pasado intentó destituir al director ejecutivo de la empresa, Sam Altman. Después de que Altman fuera reinstalado tras una revuelta del personal, Sutskever dijo que lamentaba su participación en el golpe. Pero su propia salida eliminará otro contrapeso a Altman.
Sin embargo, no es sólo OpenAI el que ha tropezado en el despliegue de tecnología de IA. Google ha tenido sus propios problemas con la IA generativa cuando su chatbot Gemini generó imágenes ahistóricas de soldados de asalto nazis negros y asiáticos. Ambas empresas dicen que los pasos en falso son inevitables al lanzar nuevas tecnologías y responden rápidamente a sus errores.
Aun así, inspiraría mayor confianza si las principales empresas de IA fueran más transparentes. Les queda un largo camino por recorrer, como lo muestra el Índice de Transparencia del Modelo de Fundación, publicado esta semana por la Universidad de Stanford. El índice, que analiza a 10 desarrolladores de modelos líderes en 100 indicadores que incluyen acceso a datos, confiabilidad del modelo, políticas de uso e impactos posteriores, destaca cómo las grandes empresas han estado tomando medidas para mejorar la transparencia durante los últimos seis meses, pero algunos modelos siguen siendo «extremadamente opacos». .
“Lo que estos modelos permitan y prohíban definirá nuestra cultura. Es importante examinarlos”, me dice Percy Liang, director del Centro de Investigación sobre Modelos de Cimentaciones de Stanford. Lo que más le preocupa es la concentración del poder empresarial. «¿Qué sucede cuando hay unas pocas organizaciones que controlan el contenido y el comportamiento de los futuros sistemas de IA?»
Estas preocupaciones pueden alimentar demandas de una mayor intervención regulatoria, como la Ley de IA de la UE, que recibió la aprobación del Consejo Europeo este mes. Más de una cuarta parte de las legislaturas estatales de EE. UU. también están considerando proyectos de ley para regular la IA. Pero algunos en la industria temen que la regulación sólo pueda fortalecer el control de las grandes empresas de IA.
“Las voces en la sala son las Big Tech. Pueden afianzar su poder a través de la regulación”, me dice Martín Casado, socio inversor de la firma de capital riesgo Andreessen Horowitz. Los formuladores de políticas deben prestar mucha más atención a las pequeñas tecnologías, las decenas de empresas emergentes que utilizan modelos de inteligencia artificial de código abierto para competir contra los actores más grandes.
En la cumbre de Seúl de esta semana, diez países y la UE acordaron establecer una red internacional de institutos de seguridad para monitorear el desempeño de los modelos fronterizos de IA, lo cual es bienvenido. Pero ahora deberían escuchar a Johansson y profundizar mucho más en las poderosas estructuras corporativas que implementan estos modelos.
john.thornhill@ft.com