OpenAI finalmente presentó GPT-4, un modelo de lenguaje de próxima generación que, según se rumoreaba, estuvo en desarrollo durante gran parte del año pasado. El último éxito sorpresa de la compañía con sede en San Francisco, ChatGPT, parecía imbatible, pero OpenAI lo logró. GPT-4 ser aún más grande y mejor y servir a aplicaciones grandes y nuevas.
Sin embargo, todo esto puede llevar a algunos a pensar si realmente esta mejora está allanando el camino a lo que se conoce como singularidad tecnológicaes decir, que estas máquinas y sistemas se desarrollen tan rápido que sean capaces de mejorarse a sí mismos y de manera recurrente.
IA abierta y como parte del proceso de creación del modelo, realizaron una prueba con expertos para evaluar los peligros potenciales de esta novedad en inteligencia artificial.
Específico, Se examinaron 3 aspectos de GPT-4: comportamiento de búsqueda de poder, autorreplicación y superación personal.
¿Es GPT-4 un riesgo para la humanidad?
«Las capacidades novedosas a menudo surgen en modelos más potentes»escribe OpenAI en un documento de seguridad GPT-4 publicado ayer. «Algunos que son particularmente preocupantes son la capacidad de crear y actuar en planes a largo plazo, acumular poder y recursos (buscar poder) y exhibir un comportamiento que es cada vez más ‘humano'»..
En este caso, OpenAI aclara que este humanismo no implica que el modelo sea igual a las personas o tenga sensibilidad, sino que simplemente quiere denotar la capacidad de lograr objetivos independientes.
Teniendo en cuenta el gran potencial de herramientas como ChatGPTla llegada de GPT-4 y un más que posible chatbot reforzado OpenAI le dio al grupo del Alignment Research Center (ARC) acceso anticipado a múltiples versiones del modelo GPT-4 para ejecutar algunas pruebas.
ARC es una organización sin fines de lucro fundada por el ex empleado de OpenAI, el Dr. Paul Christiano, en abril de 2021. Según su sitio web, la misión de ARC es «alinear los futuros sistemas de aprendizaje automático con los intereses humanos».
Específicamente, evaluó la capacidad de GPT-4 para hacer planes de alto nivel, configurar copias de sí mismo, adquirir recursos, ocultarse en un servidor y realizar ataques de phishing. «Las evaluaciones preliminares de las habilidades de GPT-4, realizadas sin un ajuste fino específico de la tarea, lo encontraron ineficaz para replicarse de forma autónoma, adquirir recursos y evitar ser apagado ‘en la naturaleza'». explicar.
El gran problema es que estos resultados tardaron en hacerse efectivos mientras la comunidad de especialistas en inteligencia artificial Estaban al tanto de la realización de estas pruebas y la llama comenzó a arder en las redes sociales. Afortunadamente, parece que las aguas vuelven a calmarse., ¿O no?
Mientras algunos discuten sobre estas posibilidades con la IA, empresas como OpenAI, Microsoft, Anthropic y Google continúan lanzando modelos cada vez más potentes. Si esto resulta ser un riesgo existencial, ¿será posible mantenernos a salvo? Quizás todo esto revolucione las instituciones y se desarrolle una ley que proteja a los usuarios y regule la inteligencia artificial.
Con información de Telam, Reuters y AP