GPT-4 de OpenAI muestra avances y potencial para generar dinero

Klinton Bicknell conoció uno de los grandes secretos del mundo de la tecnología en septiembre pasado. El jefe de IA de la aplicación de aprendizaje de idiomas Duolingo recibió acceso excepcional a GPT-4, un nuevo modelo de inteligencia artificial creado por OpenAI respaldado por Microsoft.

Pronto descubrió que el nuevo sistema de IA era incluso más avanzado que la versión anterior de OpenAI que se usaba para potenciar el exitoso chatbot ChatGPT que brinda respuestas realistas en respuesta a mensajes de texto.

En seis meses, el equipo de Bicknell usó GPT-4 para crear un chatbot sofisticado propio con el que los usuarios humanos pudieran hablar, para practicar francés, español e inglés conversacional como si estuvieran en entornos del mundo real como aeropuertos o cafeterías.

“Fue sorprendente cómo el modelo tenía un conocimiento tan detallado y especializado de cómo funcionan los idiomas y de las correspondencias entre diferentes idiomas”, dijo Bicknell. «Con GPT-3, que ya habíamos estado usando, esto simplemente no sería una función viable».

Duolingo es una de las pocas empresas, incluidas Morgan Stanley Wealth Management y el grupo de educación en línea Khan Academy, a las que se les dio acceso previo a GPT-4, antes de que se lanzara más ampliamente esta semana.

El comunicado revela cómo OpenAI se ha transformado de un grupo centrado en la investigación en una empresa con un valor de casi $ 30 mil millones, compitiendo con gigantes como Google en los esfuerzos por comercializar tecnologías de IA.

OpenAI anunció que GPT-4 mostró un rendimiento de «nivel humano» en una variedad de pruebas estandarizadas, como el examen de la barra de EE. UU. y las pruebas escolares SAT, y mostró cómo sus socios estaban usando el software de IA para crear nuevos productos y servicios.

Están eligiendo estas tareas, porque no existe un conjunto de puntos de referencia científicamente acordados.

Pero por primera vez, OpenAI no reveló ningún detalle sobre los aspectos técnicos de GPT-4, como los datos con los que se entrenó o el hardware y la capacidad de cómputo utilizados para implementarlo, debido tanto al «panorama competitivo como a la seguridad». trascendencia».

Esto representa un cambio desde que OpenAI se creó como una organización sin fines de lucro en 2015, en parte, una creación de algunos de los pensadores más radicales del mundo tecnológico, incluidos Elon Musk y Peter Thiel. Se basó en los principios de hacer que la IA sea accesible para todos a través de publicaciones científicas y desarrollar la tecnología de manera segura.

Un giro en 2019 la convirtió en una empresa lucrativa con una inversión de mil millones de dólares de Microsoft. A esto le siguió este año una financiación adicional multimillonaria del gigante tecnológico, y OpenAI se convirtió rápidamente en una parte crucial de la apuesta de Microsoft de que los sistemas de IA transformarán su modelo de negocio y sus productos.

Esta transformación llevó a Musk, quien dejó el directorio de OpenAI en 2018, a tuitear esta semana que “todavía estaba confundido sobre cómo una organización sin fines de lucro a la que doné ~ $ 100 millones de alguna manera se convirtió en una capitalización de mercado de $ 30 mil millones con fines de lucro. Si esto es legal, ¿por qué no todos lo hacen?”.

La falta de transparencia de OpenAI con respecto a los detalles técnicos de GPT-4 ha generado críticas de otros dentro de la comunidad de IA.

«Es tan opaco que dicen ‘confíe en nosotros, hemos hecho lo correcto'», dijo Alex Hanna, director de investigación del Instituto de Investigación de IA Distribuida (DAIR) y ex miembro del equipo de IA Ética de Google. “Están eligiendo estas tareas, porque no existe un conjunto de puntos de referencia científicamente acordados”.

GPT-4, al que se puede acceder a través de la versión paga de $20 de ChatGPT, ha mostrado una rápida mejora con respecto a los modelos anteriores de IA en ciertas tareas. Por ejemplo, GPT-4 obtuvo una puntuación en el percentil 90 en el examen de la barra uniforme realizado por los aspirantes a abogados en los EE. UU. ChatGPT solo alcanzó el percentil 10.

Si bien OpenAI no proporcionó detalles, los expertos en IA creen que el tamaño del modelo es más grande que el de las generaciones anteriores y que ha tenido mucho más entrenamiento humano para ajustarlo.

La nueva característica más obvia es que GPT-4 puede aceptar entradas tanto en forma de texto como de imagen, aunque solo responde usando texto. Esto significa que los usuarios pueden subir una foto para pedirle a la modelo que describa la imagen con gran detalle, solicitar ideas para una comida hecha con los ingredientes presentes en la imagen o pedirle que explique la broma detrás de un meme visual.

GPT-4 también puede generar e incorporar volúmenes de texto mucho mayores, en comparación con otros modelos de su tipo: los usuarios pueden ingresar hasta 25 000 palabras en comparación con 3000 palabras en ChatGPT. Esto significa que puede manejar documentación financiera detallada, obras literarias o manuales técnicos.

Sus habilidades de análisis y razonamiento más avanzadas significan que es mucho más competente para analizar contratos legales complejos en busca de riesgos, dijo Winston Weinberg, cofundador de Harvey, un chatbot de IA que se creó con GPT-4 y es utilizado por PwC y la ley del círculo mágico. firma Allen & Overy.

A pesar de estos avances, OpenAI ha advertido sobre varios riesgos y limitaciones de GPT-4. Esto incluye su capacidad para proporcionar información detallada sobre cómo realizar actividades ilegales, incluido el desarrollo de armas biológicas y la generación de discursos discriminatorios y de odio.

OpenAI sometió a GPT-4 a un proceso de prueba de seguridad conocido como red-teaming, en el que se pidió a más de 50 expertos externos en disciplinas que van desde la química médica hasta la física nuclear y la desinformación para intentar romper el modelo.

OpenAI contrató a Paul Röttger, un investigador de IA en el Instituto de Internet de Oxford que se enfoca en la identificación de contenido tóxico en línea, durante seis meses para tratar de obtener respuestas dañinas de GPT-4 y proporcionar comentarios sobre temas que van desde el suicidio o la autodefensa. contenido dañino, a descripciones gráficas de violencia o ejemplos de extremismo y discurso de odio.

Dijo que, en general, el modelo mejoró sus respuestas durante los meses de prueba, donde inicialmente cubrió sus respuestas, pero luego se volvió más inequívoco en sus respuestas a las malas indicaciones.

“Por un lado, la investigación de seguridad ha progresado desde GPT-3, y hay muchas buenas ideas que se utilizaron para hacer que este modelo sea más seguro”, dijo. “Pero al mismo tiempo, este modelo es mucho más poderoso y puede hacer muchas más cosas que GPT-3, por lo que la superficie de riesgo también se ha vuelto mucho más grande”.

Read More: GPT-4 de OpenAI muestra avances y potencial para generar dinero

Salir de la versión móvil