¿Qué significa el despido de Sam Altman (y su rápida reincorporación) para el futuro de la IA?

NUEVA YORK — Ha sido una gran semana para OpenAI, creador de ChatGPT, y cofundador Sam Altman.

Altman, quien ayudó a iniciar OpenAI como un laboratorio de investigación sin fines de lucro en 2015, fue destituido como director ejecutivo el viernes en una salida repentina y en su mayor parte inexplicable que sorprendió a la industria. Y aunque su título de director ejecutivo fue rápidamente restablecido apenas unos días después, todavía quedan muchas preguntas en el aire.

Si recién te estás poniendo al día con la saga OpenAI y lo que está en juego para el espacio de la inteligencia artificial en su conjunto, has venido al lugar correcto. Aquí hay un resumen de lo que necesita saber.

Altman es cofundador de OpenAI, la empresa con sede en San Francisco detrás de ChatGPT (sí, el chatbot que aparentemente está en todas partes hoy en día, desde escuelas hasta atención médica).

La explosión de ChatGPT desde su llegada hace un año impulsó a Altman al centro de atención de la rápida comercialización de la IA generativa, que puede producir imágenes novedosas, pasajes de texto y otros medios. Y cuando se convirtió en la voz más buscada de Silicon Valley sobre la promesa y los peligros potenciales de esta tecnología, Altman ayudó a transformar OpenAI en una startup de renombre mundial.

Pero su posición en OpenAI sufrió algunos giros difíciles en el torbellino de la semana pasada. Altman fue despedido como director ejecutivo el viernes y, días después, volvió al trabajo con una nueva junta directiva.

En ese tiempo, Microsoft, que ha invertido miles de millones de dólares en OpenAI y tiene derechos sobre su tecnología existente, ayudó a impulsar el regreso de Altman, contratándolo rápidamente, así como a otro cofundador y ex presidente de OpenAI, Greg Brockman, quien renunció en protesta después de la destitución del director general. Mientras tanto, cientos de empleados de OpenAI amenazaron con dimitir.

Tanto Altman como Brockman celebraron su regreso a la compañía en publicaciones en X, la plataforma anteriormente conocida como Twitter, la madrugada del miércoles.

Hay muchas cosas que aún se desconocen sobre el derrocamiento inicial de Altman. El anuncio del viernes decía que «no fue consistentemente sincero en sus comunicaciones» con la entonces junta directiva, que se negó a proporcionar detalles más específicos.

Independientemente, la noticia conmocionó a todo el mundo de la IA y, debido a que OpenAI y Altman son actores líderes en este espacio, puede generar preocupaciones sobre la confianza en torno a una tecnología floreciente sobre la que muchas personas todavía tienen preguntas.

«El episodio de OpenAI muestra cuán frágil es el ecosistema de la IA en este momento, incluido el abordaje de los riesgos de la IA», dijo Johann Laux, experto del Oxford Internet Institute que se centra en la supervisión humana de la inteligencia artificial.

La agitación también acentuó las diferencias entre Altman y los miembros de la junta anterior de la compañía, quienes han expresado varios puntos de vista sobre los riesgos de seguridad que plantea la IA a medida que avanza la tecnología.

Varios expertos añaden que este drama pone de relieve cómo deberían ser los gobiernos, y no las grandes empresas de tecnología, los que deberían tomar las decisiones en materia de regulación de la IA, en particular para tecnologías de rápida evolución como la IA generativa.

“Los acontecimientos de los últimos días no sólo han puesto en peligro el intento de OpenAI de introducir un gobierno corporativo más ético en la gestión de su empresa, sino que también muestran que el gobierno corporativo por sí solo, incluso cuando sea bien intencionado, puede terminar fácilmente canibalizado por otras corporaciones. dinámicas e intereses”, dijo Enza Iannopollo, analista principal de Forrester.

La lección, dijo Iannopollo, es que las empresas no pueden por sí solas ofrecer el nivel de seguridad y confianza en la IA que la sociedad necesita. “Las reglas y barreras de seguridad, diseñadas con las empresas y aplicadas con rigor por los reguladores, son cruciales si queremos beneficiarnos de la IA”, añadió.

A diferencia de la IA tradicional, que procesa datos y completa tareas utilizando reglas predeterminadas, la IA generativa (incluidos los chatbots como ChatGPT) puede crear algo nuevo.

Las empresas tecnológicas siguen liderando el panorama en lo que respecta a la gestión de la IA y sus riesgos, mientras los gobiernos de todo el mundo trabajan para ponerse al día.

En la Unión Europea, los negociadores están dando los toques finales a lo que se espera sean las primeras regulaciones integrales sobre IA del mundo. Pero, según se informa, se han estancado sobre si incluir y cómo incluir los productos de IA más polémicos y revolucionarios, los modelos comercializados en lenguaje grande que sustentan los sistemas de IA generativa, incluido ChatGPT.

Los chatbots apenas se mencionaron cuando Bruselas presentó por primera vez su proyecto de ley inicial en 2021, que se centró en la IA con usos específicos. Pero los funcionarios se han apresurado a descubrir cómo incorporar estos sistemas, también conocidos como modelos de cimentación, en la versión final.

Mientras tanto, en Estados Unidos, el presidente Joe Biden firmó el mes pasado una ambiciosa orden ejecutiva que busca equilibrar las necesidades de las empresas de tecnología de punta con la seguridad nacional y los derechos de los consumidores.

La orden, que probablemente necesitará ser reforzada por la acción del Congreso, es un paso inicial destinado a garantizar que la IA sea confiable y útil, en lugar de engañosa y destructiva. Busca orientar cómo se desarrolla la IA para que las empresas puedan obtener ganancias sin poner en peligro la seguridad pública.

Continuar leyendo: ¿Qué significa el despido de Sam Altman (y su rápida reincorporación) para el futuro de la IA?

Salir de la versión móvil