Los mejores investigadores y directores ejecutivos de IA advierten contra el «riesgo de extinción» en una declaración de 22 palabras

Un grupo de importantes investigadores, ingenieros y directores ejecutivos de IA ha emitido una nueva advertencia sobre la amenaza existencial que creen que la IA representa para la humanidad.

La declaración de 22 palabras, recortada para que sea lo más aceptable posible, dice lo siguiente: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».

Esta declaración, publicada por una organización sin fines de lucro con sede en San Francisco, el Center for AI Safety, ha sido firmada conjuntamente por figuras como el director ejecutivo de Google DeepMind, Demis Hassabis, y el director ejecutivo de OpenAI, Sam Altman, así como Geoffrey Hinton y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 (a veces denominado el «Premio Nobel de la informática») por su trabajo en IA. Al momento de escribir este artículo, el tercer ganador del año, Yann LeCun, ahora científico jefe de inteligencia artificial en la empresa matriz de Facebook, Meta, no ha firmado.

La declaración es la última intervención de alto perfil en el complicado y controvertido debate sobre la seguridad de la IA. A principios de este año, una carta abierta firmada por algunas de las mismas personas que respaldaban la advertencia de 22 palabras pedía una «pausa» de seis meses en el desarrollo de IA. La carta fue criticada en múltiples niveles. Algunos expertos pensaron que exageró el riesgo que representa la IA, mientras que otros estuvieron de acuerdo con el riesgo pero no con el remedio sugerido en la carta.

Dan Hendrycks, director ejecutivo del Center for AI Safety, dijo Los New York Times que la brevedad de la declaración de hoy, que no sugiere ninguna forma potencial de mitigar la amenaza que representa la IA, tenía la intención de evitar tal desacuerdo. “No queríamos presionar por un menú muy grande de 30 posibles intervenciones”, dijo Hendrycks. “Cuando eso sucede, diluye el mensaje”.

“Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de doomers”.

Hendrycks describió el mensaje como una «salida del armario» para las figuras de la industria preocupadas por el riesgo de la IA. “Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de doomers”, dijo Hendrycks. Los tiempos. “Pero, de hecho, muchas personas en privado expresarían su preocupación por estas cosas”.

Los contornos generales de este debate son familiares, pero los detalles a menudo son interminables, basados ​​en escenarios hipotéticos en los que los sistemas de IA aumentan rápidamente sus capacidades y ya no funcionan de manera segura. Muchos expertos señalan mejoras rápidas en sistemas como modelos de lenguaje grandes como evidencia de futuras ganancias proyectadas en inteligencia. Dicen que una vez que los sistemas de IA alcanzan un cierto nivel de sofisticación, puede volverse imposible controlar sus acciones.

Otros dudan de estas predicciones. Señalan la incapacidad de los sistemas de inteligencia artificial para manejar incluso tareas relativamente mundanas como, por ejemplo, conducir un automóvil. A pesar de años de esfuerzo y miles de millones de inversiones en esta área de investigación, los automóviles completamente autónomos aún están lejos de ser una realidad. Si la IA no puede manejar ni siquiera este desafío, dicen los escépticos, ¿qué posibilidades tiene la tecnología de igualar todos los demás logros humanos en los próximos años?

Mientras tanto, tanto los defensores del riesgo de la IA como los escépticos están de acuerdo en que, incluso sin mejoras en sus capacidades, los sistemas de IA presentan una serie de amenazas en la actualidad, desde su uso que permite la vigilancia masiva, hasta la activación de algoritmos defectuosos de «vigilancia predictiva» y la facilitación de la seguridad. creación de información errónea y desinformación.

Salir de la versión móvil