Eliezer Yudkowsky cree que la carta firmada por Elon Musk y cientos de referentes “se quedó corta” en sus reclamos.
La semana pasada, Elon Musk, Steve Wozniak y Yuval Harari, entre cientos de otros expertos, firmaron una petición para detener el desarrollo y entrenamiento de nuevas inteligencias artificiales durante seis meses. Ahora un reconocido investigador que advierte que la vida en la Tierra podría estar en riesgo por los avances en esta tecnología.
Esta posición extrema corresponde a Eliezer Yudkowski, un experto en IA, director del Instituto de Investigación de Inteligencia Artificial. También está convencido de que los signatarios del Future of Life Institute (FLI) se quedaron cortos.
Este experto lleva investigando el desarrollo de una IA General y los peligros que conlleva desde 2001 y es considerado uno de los fundadores de este campo de investigación.
Para asentar su posición, acaba de publicar un editorial en Tiempo donde afirma que los signatarios de la FLI «piden muy poco» para resolver la amenaza que se avecina y por lo tanto habrá que recurrir a medidas extremas.
«Esta moratoria de 6 meses sería mejor que nada. Respeto a todos los que han dado un paso adelante [pero] I Me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide muy poco para resolverlo», dijo el experto.
La solicitud consiste en una prórroga hasta procedimientos seguros, nuevas autoridades reguladoras, vigilancia de desarrollos, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política que provocará la IA”.
Yudkowsky indica que la humanidad está en terreno inexplorado cuyos límites aún no se conocen.
“No podemos calcular de antemano qué sucederá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación podría cruzar líneas críticos sin saber.»
Con tintes apocalípticos, anticipa que “tampoco estamos en el camino de estar significativamente más preparados en el corto plazo. Si seguimos así todos moriremosincluidos los niños que no eligieron esto y no hicieron nada malo.
Yudkowsky también habla de no tener ni idea de cómo determinar si los sistemas de IA Ellos son conscientes de sí mismos porque «no sabemos cómo piensan y cómo desarrollan sus respuestas».
IA: posibles soluciones
La propuesta de Yudkowsky es breve en su formulación, aunque contundente en cuanto a su alcance. la única salida es detener totalmente ese entrenamiento de futuras IA.
Su posición es más que clara. «No estamos entrenados para sobrevivir a una súper IA». Para hacer frente a esta amenaza es necesaria una planificación conjunta.
Yudkowsky recuerda que se necesitaron más de 60 años desde el inicio de esta disciplina para llegar a este punto y podrían pasar otros 30 años para lograr la preparación requerida.
Ante tal IA y en la situación actual, la lucha sería inútil. Sería «como si el siglo XI intentara luchar contra el siglo XXI». Por eso propone que: la moratoria de las nuevas IA complejas sea indefinida y mundial, sin excepciones para gobiernos y ejércitos.
Debemos cerrar todos los clústeres de GPU grandes y rastrear y destruir todas las GPU ya vendidas. Una vez más, no hay excepciones para el gobierno y los ejércitos.
SL