El jefe de IA de Meta, Yann LeCun, habla sobre AGI, código abierto y riesgos de IA

METROEl científico jefe de IA de eta, Yann LeCun, recibió otro galardón para añadir a su larga lista de premios el domingo, cuando fue reconocido con un premio TIME100 Impact Award por sus contribuciones al mundo de la inteligencia artificial.

Antes de la ceremonia de premiación en Dubai, LeCun se sentó con TIME para discutir las barreras para lograr la «inteligencia general artificial» (AGI), los méritos del enfoque de código abierto de Meta y lo que él considera la afirmación «absurda» de que la IA podría suponen un riesgo existencial para la raza humana.

TIME habló con LeCun el 26 de enero. Esta conversación ha sido condensada y editada para mayor claridad.

Muchas personas en el mundo de la tecnología hoy creen que entrenar modelos de lenguajes grandes (LLM) con más potencia informática y más datos conducirá a la inteligencia artificial general. ¿Estás de acuerdo?

Es sorprendente como [LLMs] funciona, si los entrenas a escala, pero es muy limitado. Hoy vemos que esos sistemas alucinan, no entienden realmente el mundo real. Requieren enormes cantidades de datos para alcanzar un nivel de inteligencia que al final no es tan bueno. Y realmente no pueden razonar. No pueden planificar nada más que las cosas en las que han sido entrenados. Así que no son un camino hacia lo que la gente llama «AGI». Odio el término. Son útiles, no hay duda. Pero no son un camino hacia la inteligencia a nivel humano.

Mencionaste que odias el acrónimo «AGI». Es un término que Mark Zuckerberg utilizó en enero, cuando anunció que Meta está girando hacia la construcción de inteligencia artificial general como uno de sus objetivos centrales como organización.

Hay muchos malentendidos ahí. Entonces la misión de FAIR [Meta’s Fundamental AI Research team] es la inteligencia a nivel humano. Este barco ha zarpado, es una batalla que he perdido, pero no me gusta llamarlo AGI porque la inteligencia humana no es general en absoluto. Hay características que tienen los seres inteligentes que ningún sistema de IA tiene hoy en día, como comprender el mundo físico; planificar una secuencia de acciones para alcanzar una meta; razonar de maneras que pueden llevarle mucho tiempo. Los humanos, los animales, tenemos una parte especial de nuestro cerebro que utilizamos como memoria de trabajo. Los LLM no tienen eso.

Un bebé aprende cómo funciona el mundo en los primeros meses de vida. No sabemos cómo hacer esto. [with AI]. Una vez que tengamos técnicas para aprender “modelos del mundo” simplemente observando el mundo pasar, y combinemos esto con técnicas de planificación, y tal vez combinemos esto con sistemas de memoria a corto plazo, entonces podríamos tener un camino hacia, no la inteligencia general, pero sí digamos inteligencia a nivel de gato. Antes de llegar al nivel humano, tendremos que pasar por formas más simples de inteligencia. Y todavía estamos muy lejos de eso.

Leer más: La IA aprende a hablar como un bebé

En cierto modo, esa metáfora tiene sentido, porque un gato puede mirar el mundo y aprender cosas que un LLM de última generación simplemente no puede. Pero claro, toda la historia resumida del conocimiento humano no está al alcance de un gato. ¿Hasta qué punto es limitada esa metáfora?

Así que aquí tienes un cálculo muy sencillo. Un modelo de lenguaje grande se entrena con todo el texto disponible en la Internet pública, más o menos. Normalmente, son 10 billones de tokens. Cada token tiene aproximadamente dos bytes. Entonces eso es dos por 10 elevado a [power of] 13 bytes para datos de entrenamiento. Y dices: Dios mío, eso es increíble. A un ser humano le tomará 170.000 años leer esto. Es simplemente una cantidad increíble de datos. Pero luego hablas con psicólogos del desarrollo y lo que te dicen es que un niño de 4 años ha estado despierto durante 16.000 horas en su vida. Y luego puedes intentar cuantificar cuánta información llegó a su corteza visual en el espacio de cuatro años. Y el nervio óptico es de unos 20 megabytes por segundo. Entonces, 20 megabytes por segundo, multiplicados por 60.000 horas, multiplicados por 3.600 segundos por hora. Y eso es 10 elevado a [power of] 15 bytes, que es 50 veces más que 170.000 años de texto.

Correcto, pero el texto codifica toda la historia del conocimiento humano, mientras que la información visual que recibe un niño de 4 años sólo codifica información básica en 3D sobre el mundo, el lenguaje básico y cosas así.

Pero lo que dices está mal. La gran mayoría del conocimiento humano no se expresa en texto. Está en la parte subconsciente de tu mente, que aprendiste en el primer año de vida antes de que pudieras hablar. La mayor parte del conocimiento realmente tiene que ver con nuestra experiencia del mundo y cómo funciona. Eso es lo que llamamos sentido común. Los LLM no tienen eso porque no tienen acceso a él. Y por eso pueden cometer errores realmente estúpidos. De ahí vienen las alucinaciones. Cosas que damos por sentado resultan extremadamente complicadas de reproducir para las computadoras. Entonces, la AGI, o IA a nivel humano, no está a la vuelta de la esquina, sino que requerirá algunos cambios de percepción bastante profundos.

Hablemos de código abierto. Usted ha sido un gran defensor de la investigación abierta en su carrera, y Meta ha adoptado una política de apertura efectiva de sus modelos de lenguajes grandes más poderosos, más recientemente. Llama 2. Esta estrategia diferencia a Meta de Google y Microsoft, que no liberan los llamados pesos de sus sistemas más potentes. ¿Crees que el enfoque de Meta seguirá siendo apropiado a medida que sus IA se vuelvan cada vez más poderosas, acercándose incluso a la inteligencia del nivel humano?

La respuesta de primer orden es sí. Y la razón es que, en el futuro, la interacción de todos con el mundo digital, y el mundo del conocimiento en general, estará mediada por sistemas de inteligencia artificial. Básicamente desempeñarán el papel de asistentes humanos que estarán con nosotros en todo momento. No vamos a utilizar motores de búsqueda. Simplemente haremos preguntas a nuestros asistentes y eso nos ayudará en nuestra vida diaria. Así que toda nuestra dieta informativa estará mediada por estos sistemas. Constituirán el depósito de todo el conocimiento humano. Y no se puede tener este tipo de dependencia de un sistema cerrado y propietario, particularmente dada la diversidad de idiomas, culturas, valores y centros de interés en todo el mundo. Es como si dijeras: ¿puede una entidad comercial, en algún lugar de la costa oeste de Estados Unidos, producir Wikipedia? No. Wikipedia es colaborativa porque funciona. Así que será lo mismo para los sistemas de IA: tendrán que ser entrenados, o al menos perfeccionados, con la ayuda de todos en todo el mundo. Y la gente sólo hará esto si puede contribuir a una plataforma abierta ampliamente disponible. No van a hacer esto con un sistema propietario. Así que el futuro tiene que ser de código abierto, al menos, por razones de diversidad cultural, democracia y diversidad. Necesitamos un asistente de IA diverso por la misma razón que necesitamos una prensa diversa.

Una crítica que se escucha con frecuencia es que el código abierto puede permitir que herramientas muy poderosas caigan en manos de personas que las usarían indebidamente. Y que si hay un grado de asimetría entre el poder de ataque y el poder de defensa, entonces eso podría ser muy peligroso para la sociedad en general. ¿Qué te hace estar seguro de que eso no va a suceder?

Se dicen muchas cosas sobre esto que son básicamente pura fantasía. De hecho, hay un informe que acaba de publicar RAND Corporation donde estudiaron, con los sistemas actuales, cuánto más fácil hace [it] ¿Que personas mal intencionadas inventen recetas de armas biológicas? Y la respuesta es: no es así. La razón es que los sistemas actuales en realidad no son tan inteligentes. Están entrenados en datos públicos. Básicamente, no pueden inventar cosas nuevas. Van a regurgitar aproximadamente aquello en lo que fueron entrenados a partir de datos públicos, lo que significa que puedes obtenerlo de Google. La gente ha estado diciendo: «Dios mío, necesitamos regular los LLM porque van a ser muy peligrosos». Esto simplemente no es verdad.

Ahora, los sistemas futuros son una historia diferente. Entonces, tal vez una vez que tengamos un sistema poderoso que sea súper inteligente, ayudarán a la ciencia, ayudarán a la medicina, ayudarán a las empresas, borrarán las barreras culturales al permitir la traducción simultánea. . Entonces hay muchos beneficios. Entonces hay un análisis de riesgo-beneficio, que es: ¿es productivo tratar de mantener la tecnología en secreto, con la esperanza de que los malos no la pongan en sus manos? ¿O, por el contrario, la estrategia es abrirlo lo más posible, para que el progreso sea lo más rápido posible, para que los malos siempre queden atrás? Y yo pertenezco en gran medida a la segunda categoría de pensamiento. Lo que hay que hacer es que la sociedad en general, los buenos, se mantengan adelante progresando. Y luego es mi buena IA contra tu mala IA.

Usted ha calificado de “absurda” la idea de que la IA represente un riesgo existencial para la humanidad. ¿Por qué?

Hay una serie de falacias ahí. La primera falacia es que, como un sistema es inteligente, quiere tomar el control. Eso es completamente falso. Es falso incluso dentro de la especie humana. Los más inteligentes entre nosotros no quieren dominar a los demás. Tenemos ejemplos en la escena política internacional estos días: no son los más inteligentes entre nosotros quienes son los jefes.

Seguro. Pero son las personas con ansias de dominar las que terminan en el poder.

Estoy seguro de que conoces a muchos humanos increíblemente inteligentes que son realmente buenos resolviendo problemas. No tienen ningún deseo de ser el jefe de nadie. Yo soy uno de esos. El deseo de dominar no tiene ninguna correlación con la inteligencia.

Pero está correlacionado con la dominación.

Está bien, pero el impulso que algunos humanos tienen por dominar, o al menos influenciar, ha sido inculcado en nosotros por la evolución, porque somos una especie social con una organización jerárquica. Mira a los orangutanes. No son animales sociales. No tienen este impulso de dominar, porque les resulta completamente inútil.

Por eso los humanos son la especie dominante, no los orangutanes.

La cuestión es que los sistemas de inteligencia artificial, por muy inteligentes que sean, estarán subordinados a nosotros. Nosotros fijamos sus objetivos y ellos no tienen ningún objetivo intrínseco que les incorporemos para dominar. Sería realmente estúpido construir eso. También sería inútil. Nadie lo compraría de todos modos.

¿Qué pasa si un humano, que tiene la necesidad de dominar, programa ese objetivo en la IA?

Por otra parte, es mi buena IA contra tu mala IA. Si tienes una IA que se comporta mal, ya sea por mal diseño o deliberadamente, tendrás IA más inteligentes y buenas que las derriben. De la misma manera que tenemos policías o ejércitos.

Pero la policía y los ejércitos tienen el monopolio del uso de la fuerza, algo que no tendrían en un mundo de IA de código abierto.

¿Qué quieres decir? En Estados Unidos puedes comprar un arma en cualquier lugar. Incluso en la mayor parte de Estados Unidos, la policía tiene el monopolio legal del uso de la fuerza. Pero mucha gente tiene acceso a armas increíblemente poderosas.

¿Y eso va bien?

Creo que es un peligro mucho mayor para la vida de los residentes de la masa continental de América del Norte que la IA. Pero no, quiero decir, podemos imaginar todo tipo de escenarios de catástrofe. Hay millones de formas de crear IA que serían malas, peligrosas e inútiles. Pero la pregunta no es si hay maneras de que esto pueda salir mal. La pregunta es si hay alguna manera de que todo salga bien.

Va a ser un proceso largo y arduo diseñar sistemas que sean cada vez más potentes con barandillas de seguridad para que sean confiables, seguros y útiles. No va a suceder en un día. No es que un día vamos a construir una computadora gigantesca y la encendemos, y al minuto siguiente vamos a conquistar el mundo. Ése es el escenario absurdo.

Una última pregunta. ¿Qué debemos esperar de Llama 3?

Bueno, lo más probable es que tenga un mejor rendimiento. Video multimodalidad y cosas así. Pero todavía se está entrenando.

Continuar leyendo: El jefe de IA de Meta, Yann LeCun, habla sobre AGI, código abierto y riesgos de IA

Salir de la versión móvil