Manténgase informado con actualizaciones gratuitas
Simplemente regístrese en myFT Digest de inteligencia artificial, que se envía directamente a su bandeja de entrada.
El escritor es analista de tecnología.
Durante la semana pasada, la junta directiva de OpenAI pasó por cuatro directores ejecutivos en cinco días. Acusó al director ejecutivo original, Sam Altman, de mentir, pero luego se echó atrás y se negó a decir lo que eso significaba. El noventa por ciento del personal de la organización firmó una carta abierta diciendo que renunciarían si la junta no lo hacía. Silicon Valley estaba al mismo tiempo fascinado y horrorizado. El miércoles, Altman había regresado, dos de los tres miembros externos de la junta habían sido reemplazados y todos podían dormir un poco.
Sería fácil decir que este caos demostró que tanto la junta directiva de OpenAI como su curiosa estructura subdividida sin fines de lucro y con fines de lucro no eran adecuadas para su propósito. También se podría sugerir que los miembros externos de la junta directiva no tenían los antecedentes o la experiencia adecuados para supervisar una empresa de 90.000 millones de dólares que ha estado fijando la agenda para un avance tecnológico de enorme importancia. Probablemente también se podrían decir cosas menos educadas, y todo eso podría ser cierto, pero también sería incompleto.
Hasta donde sabemos (y el hecho mismo de que tenga que decirlo también es un problema), el conflicto subyacente dentro de OpenAI fue uno que mucha gente señaló y, de hecho, se burló durante el año pasado. OpenAI se creó para intentar construir una versión automática de algo parecido a la inteligencia humana (la llamada “AGI”, o inteligencia artificial general). La premisa era que esto era posible en años y no en décadas, y potencialmente muy bueno pero también potencialmente muy peligroso, no sólo para cosas triviales como la democracia o la sociedad, sino para la humanidad misma.
Ésa es la razón de la extraña estructura organizativa: controlar el riesgo. Altman ha estado construyendo esto lo más rápido posible, al mismo tiempo que dice en voz muy alta y con frecuencia que esto es extremadamente peligroso y que los gobiernos deberían involucrarse para controlar cualquier intento de construirlo. Bueno, ¿cuál es?
Muchos en el sector tecnológico piensan que expresar tales preocupaciones es un simple intento de captura regulatoria anticompetitiva. Esto se aplica particularmente a movimientos más amplios contra los modelos de IA de código abierto (vistos en la orden ejecutiva de la Casa Blanca sobre IA el mes pasado): la gente piensa que OpenAI está tratando de lograr que los gobiernos prohíban la competencia.
Puede que sea cierto, pero personalmente creo que las personas que afirman que AGI es cercano y peligroso son sinceras, y eso hace que su deseo de construirlo sea aún más conflictivo. Esa parece ser la mejor explicación de lo que ha sucedido en OpenAI: aquellos que piensan que debemos reducir la velocidad y tener cuidado dieron un golpe de estado contra aquellos que piensan que debemos acelerar y tener cuidado.
Parte del problema y del conflicto cuando se trata de discutir la AGI es que es un concepto abstracto (un experimento mental) sin ningún modelo teórico claro o bien comprendido. Los ingenieros del Programa Apolo sabían qué tan lejos estaba la luna y cuánto empuje tenía el cohete, pero no sabemos qué tan lejos está AGI, ni qué tan cerca están los grandes modelos de lenguaje de OpenAI, ni si pueden llegar allí.
Podrías pasar semanas de tu vida viendo vídeos de científicos del aprendizaje automático discutiendo sobre esto y concluir únicamente que ellos tampoco lo saben. ChatGPT podría escalar hasta Terminator en cinco años, o en cinco décadas, o puede que no. Esto podría ser como mirar un biplano de la década de 1920 y preocuparse de que pueda entrar en órbita. No lo sabemos.
Esto significa que la mayoría de las conversaciones sobre el riesgo de la IA se convierten en búsqueda de metáforas (es “como” armas nucleares, o un meteorito, o incluso el Programa Apolo). O sacan a la luz clases de filosofía de pregrado medio olvidadas (¡la apuesta de Pascal! ¡La cueva de Platón!), o recurren a argumentos de autoridad (¡Geoff Hinton está preocupado! ¡Yann LeCun no!). Al final, esto se reduce a cómo usted, instintivamente, se siente acerca del riesgo. Si no puedes saber qué está cerca o no, ¿es motivo para preocuparte o para no preocuparte? No hay respuesta correcta.
Desafortunadamente para los “doomers”, los acontecimientos de la última semana han acelerado todo. Uno de los miembros de la junta directiva ahora dimitido fue citado diciendo que cerrar OpenAI sería coherente con la misión (más vale prevenir que curar). Pero los cientos de empresas que estaban construyendo sobre las interfaces de programación de aplicaciones de OpenAI están luchando por encontrar alternativas, tanto de sus competidores comerciales como de la creciente ola de proyectos de código abierto que no están controlados por nadie. La IA ahora se moverá más rápido, estará más dispersa y menos controlada. Los golpes fallidos a menudo aceleran lo que estaban tratando de prevenir.
De hecho, una crítica común a los doomers es que su idea de que una poderosa pieza de software y unos pocos ingenieros brillantes pueden transformar el mundo es simplemente otra forma de utopismo tecnológico ingenuo y simplista: no logra comprender la verdadera naturaleza del poder, la complejidad y sistemas humanos. Los perdedores del tablero demostraron exactamente eso: no sabían cómo funciona el poder.
Read More: Los ‘condenadores de la IA’ han perdido esta batalla