Reciba actualizaciones gratuitas de inteligencia artificial
Le enviaremos un correo electrónico de myFT Daily Digest con las últimas noticias sobre inteligencia artificial todas las mañanas.
El escritor es fundador de Sifted, un sitio respaldado por FT sobre empresas emergentes europeas.
Cuando Alan Turing trabajó en Bletchley Park durante la Segunda Guerra Mundial, ayudó a resolver un enigma diabólico: descifrar el código Enigma “irrompible” de la Alemania nazi. El mes que viene, el gobierno británico organizará una conferencia internacional en la misma casa de campo de Buckinghamshire para explorar un problema igualmente alucinante: minimizar los riesgos potencialmente catastróficos de la inteligencia artificial. Sin embargo, incluso un matemático tan ingenioso como Turing se vería puesto a prueba por ese desafío.
Mientras que el dispositivo electromecánico que construyó Turing sólo podía realizar bien una función de descifrado de códigos, los modelos de IA de vanguardia de hoy se están acercando a las computadoras «universales» que él sólo podía imaginar, capaces de realizar muchas más funciones. El dilema es que la misma tecnología que puede impulsar la productividad económica y la investigación científica también puede intensificar la guerra cibernética y el bioterrorismo.
Como ha quedado claro en el feroz debate público que ha estallado desde el lanzamiento de OpenAI de su chatbot ChatGPT en noviembre pasado, el espectro de preocupaciones suscitadas por la IA se está expandiendo rápidamente.
Por un lado, los defensores de la “seguridad” extrapolan los avances recientes en la tecnología de inteligencia artificial y se centran en los riesgos extremos. Una carta abierta firmada a principios de este año por docenas de los principales investigadores de IA del mundo (incluidos los directores ejecutivos de OpenAI, Anthropic y Google DeepMind, que están desarrollando los modelos más potentes) incluso declaró: “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como pandemias y guerra nuclear”.
En el otro extremo, los defensores de la “ética” están agitados por las preocupaciones actuales del sesgo algorítmico, la discriminación, la desinformación, los derechos de autor, los derechos de los trabajadores y la concentración del poder corporativo. Algunos investigadores, como Emily Bender, profesora de la Universidad de Washington, sostienen que el debate sobre los riesgos existenciales de la IA es una fantasía de ciencia ficción diseñada para distraer la atención de las preocupaciones actuales.
Varios grupos de la sociedad civil y empresas tecnológicas más pequeñas, que se sienten excluidas de los procedimientos oficiales de Bletchley Park, están organizando eventos paralelos para discutir los temas que creen que se están ignorando.
Matt Clifford, el inversor británico en tecnología que está ayudando a establecer la agenda de la cumbre sobre seguridad de la IA, acepta que sólo abordará un conjunto de preocupaciones. Pero sostiene que otros foros e instituciones ya están lidiando con muchas otras cuestiones. “Hemos elegido un enfoque limitado, no porque no nos importen todas las demás cosas, sino porque es la parte que parece urgente, importante y descuidada”, me dice.
En particular, dice que la conferencia explorará las posibilidades y peligros de los modelos fronterizos de próxima generación, que probablemente se lanzarán dentro de los próximos 18 meses. Incluso los creadores de estos modelos luchan por predecir sus capacidades. Pero están seguros de que serán significativamente más potentes que los actuales y, por defecto, estarán disponibles para muchos millones de personas.
Como destacó Dario Amodei, director ejecutivo de Anthropic, en un escalofriante testimonio ante el Congreso de Estados Unidos en julio, el desarrollo de modelos de IA más potentes podría revolucionar el descubrimiento científico, pero también “ampliaría enormemente el conjunto de personas que pueden causar estragos”. Sin barreras de seguridad adecuadas, podría haber un riesgo sustancial de un «ataque biológico a gran escala», afirmó.
Aunque la industria se resiste, es difícil escapar a la conclusión de que el principio de precaución debe aplicarse ahora a los modelos de IA de vanguardia, dada la incognoscibilidad de sus capacidades y la velocidad a la que se están desarrollando. Ésa es la opinión de Yoshua Bengio, un investigador pionero en IA y ganador del premio Turing de informática, que asiste a la conferencia de Bletchley Park.
Bengio sugiere que los modelos de IA de vanguardia podrían regularse de la misma manera que la Administración de Alimentos y Medicamentos de EE. UU. controla la liberación de medicamentos para detener la venta de curas basura. Eso puede ralentizar el ritmo de la innovación y costar más dinero a las empresas de tecnología, pero «ese es el precio de la seguridad y no deberíamos dudar en hacerlo», dice en una entrevista para la próxima serie de podcasts Tech Tonic del Financial Times.
Es encomiable que el gobierno británico esté iniciando una conversación global sobre la seguridad de la IA y esté creando él mismo una capacidad estatal experta para lidiar con modelos fronterizos. Pero Bletchley Park significará poco a menos que conduzca a una acción coordinada significativa. Y en un mundo distraído por tantos peligros, eso requerirá un Turing político, más que tecnológico, para descifrar el código.
Read More: Necesitamos un Alan Turing político para diseñar salvaguardias para la IA