Los expertos se preguntan si alguna vez podrá hacer que la IA sea similar a la humana

David Silver, líder del grupo de investigación de aprendizaje por refuerzo en DeepMind, recibió un ranking profesional honorario de “noveno dan” para AlphaGo.

JUNG YEON-JE | AFP | imágenes falsas

Los informáticos se preguntan si DeepMind, la empresa británica propiedad de Alphabet que es ampliamente considerada como uno de los laboratorios de inteligencia artificial más importantes del mundo, podrá alguna vez fabricar máquinas con el tipo de inteligencia “general” que se ve en humanos y animales.

En su búsqueda de inteligencia artificial general, que a veces se denomina IA a nivel humano, DeepMind está centrando una parte de sus esfuerzos en un enfoque llamado “aprendizaje por refuerzo”.

Esto implica programar una IA para que realice ciertas acciones con el fin de maximizar sus posibilidades de obtener una recompensa en una situación determinada. En otras palabras, el algoritmo “aprende” a completar una tarea buscando estas recompensas preprogramadas. La técnica se ha utilizado con éxito para entrenar a los modelos de IA sobre cómo jugar (y sobresalir en) juegos como el Go y el ajedrez. Pero siguen siendo relativamente tontos o “estrechos”. La famosa IA AlphaGo de DeepMind no puede dibujar un stickman o diferenciar entre un gato y un conejo, por ejemplo, mientras que un niño de siete años sí.

A pesar de esto, DeepMind, que fue adquirida por Google en 2014 por alrededor de $ 600 millones, cree que los sistemas de inteligencia artificial respaldados por el aprendizaje por refuerzo podrían teóricamente crecer y aprender tanto que rompen la barrera teórica de AGI sin ningún nuevo desarrollo tecnológico.

Los investigadores de la compañía, que ha crecido a alrededor de 1,000 personas bajo la propiedad de Alphabet, argumentaron en un artículo enviado a la revista de Inteligencia Artificial revisada por pares el mes pasado que “La recompensa es suficiente” para llegar a la IA general. El periódico fue informado por primera vez por VentureBeat la semana pasada.

En el artículo, los investigadores afirman que si sigues “recompensando” un algoritmo cada vez que hace algo que tú quieres, que es la esencia del aprendizaje por refuerzo, eventualmente comenzará a mostrar signos de inteligencia general.

Deberías leer:   Adrien Grenier sobre bitcoin, minería y su impacto ambiental

“La recompensa es suficiente para impulsar el comportamiento que exhibe habilidades estudiadas en inteligencia natural y artificial, incluido el conocimiento, el aprendizaje, la percepción, la inteligencia social, el lenguaje, la generalización y la imitación”, escriben los autores.

“Sugerimos que los agentes que aprenden a través de la experiencia de prueba y error para maximizar la recompensa podrían aprender el comportamiento que exhibe la mayoría, si no todas, de estas habilidades y, por lo tanto, los poderosos agentes de aprendizaje por refuerzo podrían constituir una solución para la inteligencia artificial general”.

Sin embargo, no todo el mundo está convencido.

Samim Winiger, un investigador de IA en Berlín, dijo a CNBC que la visión de “la recompensa es suficiente” de DeepMind es una “posición filosófica un tanto marginal, presentada engañosamente como ciencia dura”.

Dijo que el camino hacia la IA general es complejo y que la comunidad científica es consciente de que existen innumerables desafíos e incógnitas conocidas que “inculcan legítimamente un sentido de humildad” en la mayoría de los investigadores en el campo y les impiden hacer “declaraciones grandiosas y totalitarias”. como “RL es la respuesta final, todo lo que necesita es una recompensa”.

DeepMind le dijo a CNBC que si bien el aprendizaje por refuerzo ha estado detrás de algunos de sus avances de investigación más conocidos, la técnica de inteligencia artificial representa solo una fracción de la investigación general que lleva a cabo. La compañía dijo que cree que es importante entender las cosas a un nivel más fundamental, por lo que persigue otras áreas como la “inteligencia artificial simbólica” y la “formación basada en la población”.

“De una manera algo típica de DeepMind, optaron por hacer declaraciones audaces que capten la atención a toda costa, en lugar de un enfoque más matizado”, dijo Winiger. “Esto se parece más a la política que a la ciencia”.

Stephen Merity, investigador independiente de inteligencia artificial, le dijo a CNBC que hay “una diferencia entre la teoría y la práctica”. También señaló que “una pila de dinamita es suficiente para llevarla a la luna, pero no es realmente práctico”.

Deberías leer:   El nuevo teléfono inteligente Nokia XR20 puede recibir una paliza

En última instancia, no hay pruebas de ninguna manera para decir si el aprendizaje por refuerzo conducirá alguna vez a AGI.

Rodolfo Rosini, un inversor tecnológico y emprendedor con un enfoque en la inteligencia artificial, dijo a CNBC: “La verdad es que nadie lo sabe y que el principal producto de DeepMind sigue siendo relaciones públicas y no innovación técnica o productos”.

El empresario William Tunstall-Pedoe, que vendió su aplicación similar a Siri Evi a Amazon, le dijo a CNBC que incluso si los investigadores están en lo cierto “eso no significa que llegaremos pronto, ni significa que no haya una mejor, forma más rápida de llegar allí “.

El artículo “La recompensa es suficiente” de DeepMind fue escrito en coautoría por los pesos pesados ​​de DeepMind Richard Sutton y David Silver, quienes conocieron al director ejecutivo de DeepMind, Demis Hassabis, en la Universidad de Cambridge en la década de 1990.

“El problema clave con la tesis planteada por ‘La recompensa es suficiente’ no es que esté equivocada, sino más bien que no puede estar equivocada y, por lo tanto, no satisface el famoso criterio de Karl Popper de que todas las hipótesis científicas son falsables”, dijo un senior. Investigador de inteligencia artificial en una gran empresa de tecnología de EE. UU., Que deseaba permanecer en el anonimato debido a la naturaleza delicada de la discusión.

“Debido a que Silver et al. Están hablando de generalidades, y la noción de recompensa está adecuadamente subespecificada, siempre se pueden seleccionar los casos en los que se satisface la hipótesis, o la noción de recompensa se puede cambiar de modo que se satisfaga”, dice la fuente. adicional.

“Como tal, el veredicto desafortunado aquí no es que estos miembros prominentes de nuestra comunidad de investigación se hayan equivocado de alguna manera, sino que lo que está escrito es trivial. ¿Qué se aprende de este documento, al final? consecuencias procesables de reconocer la verdad inalienable de esta hipótesis, ¿fue suficiente este artículo? “

¿Qué es AGI?

Si bien a menudo se hace referencia a AGI como el santo grial de la comunidad de IA, no hay consenso sobre lo que realmente es AGI. Una definición es la capacidad de un agente inteligente para comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano.

Deberías leer:   Swvl de inicio de viajes compartidos se acerca a un acuerdo para salir a bolsa con SPAC dirigido por mujeres

Pero no todo el mundo está de acuerdo con eso y algunos se preguntan si alguna vez existirá AGI. Otros están aterrorizados por sus impactos potenciales y si AGI construiría sus propias formas de IA, incluso más poderosas, o las llamadas superinteligencias.

Ian Hogarth, un emprendedor convertido en inversor ángel, le dijo a CNBC que espera que el aprendizaje reforzado no sea suficiente para alcanzar AGI. “Cuanto más se puedan ampliar las técnicas existentes para alcanzar el AGI, menos tiempo tendremos para preparar los esfuerzos de seguridad de la IA y menores serán las posibilidades de que las cosas vayan bien para nuestra especie”, dijo.

Winiger sostiene que hoy no estamos más cerca de AGI que hace varias décadas. “Lo único que ha cambiado fundamentalmente desde la década de 1950/60 es que la ciencia ficción es ahora una herramienta válida para que las corporaciones gigantes confundan y engañen al público, a los periodistas y a los accionistas”, dijo.

Alimentado con cientos de millones de dólares de Alphabet cada año, DeepMind está compitiendo con empresas como Facebook y OpenAI para contratar a las personas más brillantes en el campo mientras busca desarrollar AGI. “Esta invención podría ayudar a la sociedad a encontrar respuestas a algunos de los desafíos científicos más urgentes y fundamentales del mundo”, escribe DeepMind en su sitio web.

La directora de operaciones de DeepMind, Lila Ibrahim, dijo el lunes que tratar de “descubrir cómo hacer operativa la visión” ha sido el mayor desafío desde que se unió a la compañía en abril de 2018.