Sundar Pichai, líder de la empresa, reconoció que hay varias capacidades emergentes de Bard, el chatbot de Google, que no entienden cómo surgieron.
Por iProfesional
18/04/2023 – 8:25 am
el director ejecutivo de Google, Sundar Pichai (en la foto de arriba), reconoció que hay varias características de Bard, su chatbot impulsado por IA, que aún no comprende. Por ejemplo, mencionó varias habilidades emergentes que experimentó modeladas después de él en pruebas recientes, como el razonamiento, la planificación o la creatividad.
«No entiendes completamente cómo funciona. Y, sin embargo, ¿lo has lanzado a la sociedad?» preguntó. scott peley, entrevistador de CBS, a Pichai en una entrevista emitida el domingo en esa señal de televisión estadounidense. «Sí. Déjame ponerlo de esta manera… No creo que entendamos completamente cómo funciona una mente humana tampoco», respondió el líder de Google.
Pichai explicó que hay un elemento en sus desarrollos que ellos llaman “la caja negra”, que hace referencia a aquellos aspectos que no pueden entender. «A veces no puedes decir por qué dijo esto o por qué estaba equivocado. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde está el estado del arte», agregó.
En la entrevista mencionó cómo un sistema de IA de Google aprendió, por sí solo, el lenguaje de bangladesh. También de su capacidad para reflexionar sobre el dolor que sienten los humanos o temas como la redención.
¿Son solo algoritmos armando discursos o es una inteligencia más desarrollada? «Creo que debemos abordar esto con humildad.… Creo que es bueno que salgan algunas de estas tecnologías para que la sociedad procese lo que está pasando. Y comience esta conversación y debate», respondió Pichai.
El CEO de Google dijo que está perdiendo el sueño ante la posibilidad de que esta IA pueda ser «muy dañino si se implementa incorrectamenteConsideró que la sociedad debe darse prisa en crear reglas claras para la implementación de la IA en la economía. También pidió leyes que castiguen los abusos y tratados entre gobiernos que garanticen que estos avances son seguros para todos.
Los riesgos de la inteligencia artificial
Pichai admitió que es un error que las empresas se dejen llevar por la dinámica competitiva. «No conviene lanzar una tecnología como esta cuando es muy, muy potente, porque no da tiempo a que la sociedad se adapte“, dijo Pichai en la entrevista con CBS. Aseguró que la compañía está buscando mejores formas de abordar estos sistemas y que, por eso, retrasó nuevas pruebas.
La firma de la ciudad californiana de Mountain View es, sin embargo, una de las principales protagonistas de esta carrera. Es más prudente que OpenAI o microsoft. Bard, su modelo conversacional, se lanzó en una versión de prueba mucho más limitada que ChatGPT.
Pero incluso los propios trabajadores de Google han advertido, por ejemplo, que el chatbot de IA fue presentado sin considerar su capacidad de generar contenido falso o peligroso.
«Siempre he visto a la IA como la tecnología más profunda en la que está trabajando la humanidad. Más profundo que el fuego o la electricidad o cualquier cosa que hayamos hecho en el pasado”, añadió el CEO de Google en la entrevista con CBS, una afirmación que ya había dicho en 2018 y 2021. Por ello, dudaba de que la sociedad esté preparada para unos sistemas de seguridad más potentes. AI.
Con información de Telam, Reuters y AP