¿Cuándo publicó The News por primera vez sobre “inteligencia artificial”?
Según ChatGPT, fue el 10 de julio de 1956, en un artículo titulado «Las máquinas serán capaces de aprender, resolver problemas, los científicos predicen» sobre una conferencia fundamental en Dartmouth College. El chatbot agregó:
La conferencia de 1956 fue real. El artículo no lo era. ChatGPT simplemente lo inventó. ChatGPT no solo se equivoca a veces, sino que puede fabricar información. Nombres y fechas. Explicaciones médicas. Las tramas de los libros. direcciones de internet Incluso hechos históricos que nunca sucedieron.
Cuando se le preguntó recientemente a ChatGPT cómo se conocieron James Joyce y Vladimir Lenin, no hay evidencia de que lo hayan hecho, así es como respondió:
Fabricaciones como estas son comunes. Descubrir por qué los chatbots inventan cosas y cómo resolver el problema se ha convertido en uno de los problemas más apremiantes que enfrentan los investigadores a medida que la industria tecnológica se apresura hacia el desarrollo de nuevos sistemas de IA.
Los chatbots como ChatGPT son utilizados por cientos de millones de personas para una gama cada vez más amplia de tareas, incluidos servicios de correo electrónico, tutores en línea y motores de búsqueda. Y podrían cambiar la forma en que las personas interactúan con la información. Pero no hay forma de garantizar que estos sistemas produzcan información precisa.
La tecnología, llamada IA generativa, se basa en un algoritmo complejo que analiza la forma en que los humanos juntan palabras en Internet. No decide qué es verdad y qué no. Esa incertidumbre ha generado preocupaciones sobre la confiabilidad de este nuevo tipo de inteligencia artificial y cuestiona cuán útil puede ser hasta que el problema se resuelva o controle.
La industria de la tecnología a menudo se refiere a las imprecisiones como «alucinaciones». Pero para algunos investigadores, «alucinaciones» es demasiado eufemismo. Incluso los investigadores dentro de las empresas de tecnología se preocupan de que las personas confíen demasiado en estos sistemas para obtener asesoramiento médico y legal y otra información que utilizan para tomar decisiones diarias.
“Si aún no sabe la respuesta a una pregunta, no le daría la pregunta a uno de estos sistemas”, dijo Subbarao Kambhampati, profesor e investigador de inteligencia artificial en la Universidad Estatal de Arizona.
ChatGPT no fue el único que se equivocó en la primera referencia a la IA en The Times. Los chatbots Bard de Google y Bing de Microsoft proporcionaron repetidamente respuestas inexactas a la misma pregunta. Aunque falsas, las respuestas parecían plausibles ya que desdibujaban y fusionaban personas, eventos e ideas.
Bing de Microsoft citó sus hallazgos en una dirección web de aspecto realista en el sitio web de The Times:
Según los archivos de The Times, todos los chatbots estaban equivocados. Citaron artículos que no existían. Y aunque la cobertura de las primeras investigaciones sobre máquinas pensantes data de la década de 1930, no fue hasta 1963 que The Times publicó por primera vez un artículo con la frase «inteligencia artificial».
“Lanzamos Bard como un experimento y queremos ser lo más transparentes posible sobre las limitaciones bien documentadas”, dijo Jennifer Rodstrom, portavoz de Google. “Estos son lo más importante para nosotros a medida que continuamos perfeccionando Bard”.
Al igual que Google, Microsoft y OpenAI dicen que están trabajando para reducir las alucinaciones.
La nueva IA. los sistemas están “diseñados para ser persuasivos, no veraces”, decía un documento interno de Microsoft. “Esto significa que los resultados pueden parecer muy realistas pero incluir declaraciones que no son ciertas”.
Los chatbots están impulsados por una tecnología llamada modelo de lenguaje grande, o LLM, que aprende sus habilidades analizando cantidades masivas de texto digital extraído de Internet.
Al identificar patrones en esos datos, un LLM aprende a hacer una cosa en particular: adivinar la siguiente palabra en una secuencia de palabras. Actúa como una versión poderosa de una herramienta de autocompletar. Dada la secuencia «The News es un ____», podría adivinar «periódico».
Debido a que Internet está lleno de información falsa, la tecnología aprende a repetir las mismas falsedades. Y a veces los chatbots inventan cosas. Producen texto nuevo, combinando miles de millones de patrones de formas inesperadas. Esto significa que incluso si aprendieron únicamente del texto que es preciso, aún pueden generar algo que no lo es.
Debido a que estos sistemas aprenden de más datos de los que los humanos podrían analizar, incluso los expertos en inteligencia artificial no pueden entender por qué generan una secuencia particular de texto en un momento dado. Y si hace la misma pregunta dos veces, pueden generar un texto diferente.
Eso agrava los desafíos de verificar los hechos y mejorar los resultados.
Bard dijo en un chat:
Entonces Bard dijo en otro chat:
Empresas como OpenAI, Google y Microsoft han desarrollado formas de mejorar la precisión. OpenAI, por ejemplo, intenta refinar la tecnología con comentarios de evaluadores humanos.
A medida que las personas prueban ChatGPT, califican las respuestas del chatbot, separando las respuestas útiles y veraces de las que no lo son. Luego, utilizando una técnica llamada aprendizaje de refuerzo, el sistema pasa semanas analizando las calificaciones para comprender mejor qué es realidad versus ficción.
Una versión más nueva de ChatGPT llamada ChatGPT Plus, que está disponible por una suscripción mensual de $20, siempre evitó responder la pregunta sobre la primera mención de la inteligencia artificial en The Times. Esto podría ser el resultado del aprendizaje por refuerzo u otros cambios en el sistema aplicado por OpenAI.
Microsoft construyó su chatbot Bing sobre la tecnología subyacente de OpenAI, llamada GPT-4, y ha incorporado otras formas de mejorar la precisión. La empresa utiliza GPT-4 para comparar las respuestas del chatbot con los datos subyacentes y calificar el rendimiento del modelo. En otras palabras, Microsoft usa la IA para mejorarla.
La empresa también intenta mejorar las respuestas del chatbot con la ayuda de su motor de búsqueda tradicional en Internet. Cuando escribe una consulta en el chatbot de Bing, Microsoft realiza una búsqueda en Internet sobre el mismo tema y luego incluye los resultados en la consulta antes de enviarla al bot. Al editar la consulta, dijo Sarah Bird, líder en los esfuerzos de inteligencia artificial responsable de Microsoft, la empresa puede impulsar el sistema para producir mejores resultados.
Google utiliza métodos similares para mejorar la precisión de su chatbot Bard. Utiliza la retroalimentación humana para perfeccionar el comportamiento del sistema y lo «aterriza» utilizando información del motor de búsqueda de la empresa, dijo Eli Collins, vicepresidente de investigación de Google.
Microsoft no verifica la precisión de las respuestas del bot en tiempo real, dijo Bird, aunque está investigando cómo hacerlo. Comprueba la precisión de una pequeña parte de los resultados después del hecho y luego utiliza ese análisis.
Pero volverse más preciso también puede tener un inconveniente, según un artículo de investigación reciente de OpenAI. Si los chatbots se vuelven más confiables, los usuarios pueden volverse demasiado confiados.
“En contra de la intuición, las alucinaciones pueden volverse más peligrosas a medida que los modelos se vuelven más veraces, ya que los usuarios generan confianza en el modelo cuando proporciona información veraz en áreas en las que tienen cierta familiaridad”, dijo el documento.
steve lohr y nico beca reportaje contribuido. Jack Begg y susan c playa investigación aportada.