El jefe de inteligencia artificial de Meta dijo que los grandes modelos de lenguaje que impulsan los productos de IA generativa como ChatGPT nunca lograrían la capacidad de razonar y planificar como los humanos, y se centró en cambio en un enfoque alternativo radical para crear «superinteligencia» en las máquinas.
Yann LeCun, científico jefe de inteligencia artificial del gigante de las redes sociales propietario de Facebook e Instagram, dijo que los LLM tenían “una comprensión muy limitada de la lógica. . . no comprenden el mundo físico, no tienen memoria persistente, no pueden razonar en ninguna definición razonable del término y no pueden planificar. . . jerárquicamente”.
En una entrevista con el Financial Times, se opuso a confiar en los LLM avanzados en la búsqueda de crear inteligencia a nivel humano, ya que estos modelos solo pueden responder preguntas con precisión si han recibido los datos de capacitación correctos y, por lo tanto, son «intrínsecamente inseguros». ”.
En cambio, está trabajando para desarrollar una generación completamente nueva de sistemas de inteligencia artificial que espera que impulsen máquinas con inteligencia a nivel humano, aunque dijo que esta visión podría tardar 10 años en lograrse.
Meta ha estado invirtiendo miles de millones de dólares en el desarrollo de sus propios LLM a medida que la IA generativa se ha disparado, con el objetivo de alcanzar a los grupos tecnológicos rivales, incluidos OpenAI, respaldado por Microsoft, y Google de Alphabet.
LeCun dirige un equipo de aproximadamente 500 personas en el laboratorio de Investigación Fundamental de IA (Fair) de Meta. Están trabajando para crear una IA que pueda desarrollar el sentido común y aprender cómo funciona el mundo de manera similar a la de los humanos, en un enfoque conocido como «modelado del mundo».
La visión experimental del jefe de Meta AI es una apuesta potencialmente arriesgada y costosa para el grupo de redes sociales en un momento en que los inversores están ansiosos por ver retornos rápidos de las inversiones en IA.
El mes pasado, Meta perdió casi 200.000 millones de dólares en valor cuando el director ejecutivo, Mark Zuckerberg, prometió aumentar el gasto y convertir al grupo de redes sociales en “la principal empresa de inteligencia artificial del mundo”, asustando a los inversores de Wall Street preocupados por el aumento de los costos con poco potencial de ingresos inmediatos.
«Estamos en un punto en el que creemos que estamos en la cúspide de quizás los sistemas de inteligencia artificial de próxima generación», dijo LeCun.
Los comentarios de LeCun se producen mientras Meta y sus rivales avanzan con LLM cada vez más mejorados. Figuras como el jefe de OpenAI, Sam Altman, creen que proporcionan un paso vital hacia la creación de inteligencia artificial general (AGI), el punto en el que las máquinas tienen mayores capacidades cognitivas que los humanos.
OpenAI lanzó la semana pasada su nuevo modelo GPT-4o, más rápido, y Google presentó un nuevo agente de inteligencia artificial “multimodal” que puede responder consultas en tiempo real a través de video, audio y texto llamado Proyecto Astra, impulsado por una versión mejorada de su modelo Gemini.
Meta también lanzó su nuevo modelo Llama 3 el mes pasado. El jefe de asuntos globales de la compañía, Sir Nick Clegg, dijo que su último LLM había «capacidades enormemente mejoradas como el razonamiento»: la capacidad de aplicar la lógica a las consultas. Por ejemplo, el sistema supondría que una persona que sufre dolor de cabeza, dolor de garganta y secreción nasal está resfriada, pero también podría reconocer que las alergias podrían estar causando los síntomas.
Sin embargo, LeCun dijo que esta evolución de los LLM fue superficial y limitada, ya que los modelos aprenden solo cuando los ingenieros humanos intervienen para entrenarlos con esa información, en lugar de que la IA llegue a una conclusión orgánicamente como las personas.
«Ciertamente, a la mayoría de la gente le parece un razonamiento, pero sobre todo se trata de explotar el conocimiento acumulado a partir de muchos datos de entrenamiento», dijo LeCun, pero añadió: «[LLMs] son muy útiles a pesar de sus limitaciones”.
Google DeepMind también ha pasado varios años buscando métodos alternativos para construir AGI, incluidos métodos como el aprendizaje por refuerzo, donde los agentes de IA aprenden de su entorno en un entorno virtual similar a un juego.
En un evento en Londres el martes, el jefe de DeepMind, Sir Demis Hassabis, dijo que lo que faltaba en los modelos de lenguaje era que «no entendían el contexto espacial en el que te encuentras». . . lo que al final limita su utilidad”.
Meta creó su laboratorio Fair en 2013 para ser pionero en la investigación de la IA y contrató a académicos líderes en el espacio.
Sin embargo, a principios de 2023, Meta creó un nuevo equipo GenAI, encabezado por el director de producto Chris Cox. Captó furtivamente a muchos investigadores e ingenieros de inteligencia artificial de Fair, dirigió el trabajo en Llama 3 y lo integró en productos, como sus nuevos asistentes de inteligencia artificial y herramientas de generación de imágenes.
La creación del equipo GenAI se produjo cuando algunos expertos argumentaron que una cultura académica dentro del laboratorio de Fair era en parte culpable de la llegada tardía de Meta al auge de la IA generativa. Zuckerberg ha impulsado más aplicaciones comerciales de la IA bajo la presión de los inversores.
Recomendado
Sin embargo, LeCun sigue siendo uno de los principales asesores de Zuckerberg, según personas cercanas a la empresa, debido a su trayectoria y reputación como uno de los padres fundadores de la IA, ganando un premio Turing por su trabajo en redes neuronales.
«Hemos reenfocado a Fair hacia el objetivo a largo plazo de la IA a nivel humano, esencialmente porque GenAI ahora se centra en aquello hacia lo que tenemos un camino claro», dijo LeCun.
“[Achieving AGI] No es un problema de diseño de producto, ni siquiera es un problema de desarrollo tecnológico, es en gran medida un problema científico”, añadió.
LeCun publicó por primera vez un artículo sobre su visión del modelado mundial en 2022 y desde entonces Meta ha publicado dos modelos de investigación basados en este enfoque.
Hoy, dijo, Fair estaba probando diferentes ideas para lograr inteligencia a nivel humano porque «hay mucha incertidumbre y exploración en esto, [so] No podemos decir cuál tendrá éxito o terminará siendo elegido”.
Entre ellos, el equipo de LeCun está alimentando a los sistemas con horas de vídeo y omitiendo deliberadamente fotogramas, para luego hacer que la IA prediga lo que sucederá a continuación. Esto es para imitar cómo los niños aprenden observando pasivamente el mundo que los rodea.
También dijo que Fair estaba explorando la construcción de “un sistema de codificación de texto universal” que permitiría a un sistema procesar representaciones abstractas de conocimiento en texto, que luego se pueden aplicar a video y audio.
Algunos expertos dudan de que la visión de LeCun sea viable.
Aron Culotta, profesor asociado de informática en la Universidad de Tulane, dijo que el sentido común había sido durante mucho tiempo “una espina clavada en la IA” y que era un desafío enseñar la causalidad a los modelos, dejándolos “susceptibles a estos fallos inesperados”.
Un ex empleado de Meta AI describió el impulso del modelado mundial como “una tontería vaga” y agregó: “Se siente como si se estuviera plantando mucha bandera”.
Otro empleado actual dijo que Fair aún tenía que demostrar su valía como un verdadero rival de grupos de investigación como DeepMind.
A largo plazo, LeCun cree que la tecnología impulsará agentes de IA con los que los usuarios podrán interactuar a través de tecnología portátil, incluidas gafas de realidad aumentada o «inteligentes» y «pulseras» de electromiografía (EMG).
“[For AI agents] Para ser realmente útiles, necesitan tener algo parecido a la inteligencia a nivel humano”, dijo.
Información adicional de Madhumita Murgia en Londres