El creador de ChatGPT y más de 300 expertos advierten que la inteligencia artificial «plantea un riesgo de extinción»

Un grupo de científicos y líderes de la industria en el inteligencia artificial (IA) firmó una preocupante declaración conjunta el martes: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como pandemias y guerra nuclear”.

La declaración lleva la firma de personalidades como Demis Hassabis, director ejecutivo de Google DeepMindDario Amodei de Anthropic y el fundador de OpenAI, Sam Altman, entre otros.

También lleva la firma de pesos pesados ​​del ámbito científico: Geoffrey Hinton -quien fue apodado el «padrino» de la IA y pasó parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores que ganaron el Premio Turing 2018 (el Premio Nobel de Ciencias de la Computación) por sus contribuciones a la IA.

El texto fue publicado en el sitio del Center for IA Safety, una organización sin fines de lucro de San Francisco. Tiene una sola frase y no explica mucho: no admite por qué habría un «Peligro de extinción» asociados a la inteligencia artificial o por qué hacen una comparación con pandemias y guerras nucleares.

Geoffrey Hinton, pionero en inteligencia artificial, dejó Google a principios de este mes para advertir sobre «los peligros» de la tecnología. archivo de foto

La declaración se da en un año en el que el inteligencia artificial generativa está experimentando un crecimiento exponencial: desde que se popularizó ChatGPT para crear textos y Midjourney o Stable Diffusion para imágenes, todo gigantes tecnológicos comenzaron a desarrollar sus sistemas en esta dirección, como hizo Google con Bard o Microsoft con Copilot, ambos asistentes de IA para brindar experiencias más accesibles a sus usuarios.

Sin embargo, es la segunda vez este año que AI ha sido desafiada pública y categóricamente. En marzo de este año, Elon Musk y más de mil expertos firmaron una orden para detener la investigación sobre IA tan poderosas como GPT-4 durante seis meses, advirtiendo de «grandes riesgos para la humanidad».

Después de la carta, Musk insistió en que la IA podría «causar la destrucción de la civilización». Posteriormente, Bill Gates, fundador de Microsoft, anticipó la desaparición de los docentes. Y Warren Buffett, inversor legendario – y amigo de Gates – también comparó la inteligencia artificial a un bomba atómica.

En el caso de esta nueva declaración conjunta, la diferencia es que explica muy poco y arriesga un escenario catastrófico sin fundamentarlo.

¿Qué es el “riesgo existencial” y qué tan real es?

foto AFP

Este tipo de enfoque responde a lo que en el campo se denomina “riesgo existencial” de inteligencia artificial.

“La idea de riesgo existencial tiene que ver con un concepto mal fundado, lo que implica que una inteligencia superior a la humana podría tomar la decisión de extinguir a la humanidad. Un poco va a lo largo de las líneas de la película Terminator y el show de Skynetque toma conciencia de sí mismo y decide volverse contra los humanos», explica a Clarín Javier Blanco, Doctor en Ciencias de la Computación por la Universidad de Eindhoven, Países Bajos.

«Estas tecnologías como redes neuronales antagónicas y aprendizaje automático no tienen ninguna posibilidad de constituir algo así: es una tecnología muy elemental, basada en patrones estadísticos que se reconocen. Los sistemas de generación como ChatGPT son iguales pero complementarios -sistemas generativos basados ​​en clasificaciones-, no corras ningún riesgo de un tipo de inteligencia que podría ser una amenaza existencial para la humanidad», añade.

Las redes neuronales antagónicas generan nuevos conjuntos de datos mediante la oposición de diferentes algoritmos. Él aprendizaje automáticoo aprendizaje automático, es una rama de la inteligencia artificial que programa técnicas que hacen las computadoras «aprenden»: mejoran su rendimiento con el uso (algo muy evidente en ChatGPT, por ejemplo).

La idea del exterminio de la humanidad sigue siendo una quimera para Blanco: «Que esto sea un riesgo a largo plazo es tan probable como que un asteroide gigante caiga y destruya la Tierra: que alguna tecnología pueda dar lugar a entidades cognitivas híbridas o artificiales y que estén interesados ​​en destruir a la raza humana es una posibilidad completamente remota”, añade.

Ahora, para el experto y también docente de la Facultad de Matemáticas, Astronomía, Física y Computación de la UNC (Córdoba), sí hay riesgos concretos con estas tecnologías, que nada tienen que ver con lo existencial.

“Hay riesgos laborales, Pérdidas de empleo. De lidiar con ciertas evoluciones que hacen mucho más factible fingir y engañar (noticias falsas, desinformación): eso es un hecho y es uno de los problemas. Todo esto tiene unas consecuencias que hoy son difíciles de medir, pero que ya impactan en el ámbito social: ahí hay una auténtica preocupación”, advierte.

También señala en lo que se refiere a la concentración de estas tecnologías en un pequeño puñado de empresas: «Es importante poder distinguir las preocupaciones genuinas y las posibles soluciones -que no necesariamente coinciden con lo que buscan las corporaciones- de preocupaciones especulativas e improbable en muchos de los futuros más cercanos».

«También, en efecto, a diferencia de una pandemia o una guerra nuclearEl desarrollo de IA no está en la esfera pública, cualquier grupo puede estar haciendo grandes innovaciones en IA fuera del escrutinio de estados u otras organizaciones», dice.

Así, el escenario bajo el cual se desarrollan las tecnologías de inteligencia artificial es incierto. «Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan con creces los riesgosdijo Altman en su declaración ante el Congreso.

Publicaciones como la de este martes no parecen sustentar su perspectiva, en lo que corona una paradójica estrategia: quienes están desarrollando las más poderosas herramientas de inteligencia artificial son quienes firman una declaración que advierte del posible exterminio de la humanidad.

mira también

Salir de la versión móvil