Según funcionarios del Departamento de Defensa, los potentes modelos de inteligencia artificial son más fáciles de explotar de lo que la gente cree, y las herramientas generativas no están listas para el horario de máxima audiencia en el ejército.
Un programa de la Agencia de Proyectos de Investigación Avanzada de Defensa superó las limitaciones de seguridad para investigar algoritmos complejos llamados modelos de lenguaje grandes y descubrió que la tecnología resultante planteaba riesgos, según el director del programa, Álvaro Velásquez.
Tales modelos son “mucho más fáciles de atacar que de defender”, dijo en comentarios que arrojaron nueva luz sobre los experimentos de IA del Pentágono en un simposio de la Asociación Industrial de Defensa Nacional en Halloween.
«De hecho, financié un trabajo en el marco de uno de mis programas en DARPA en el que pudimos evitar por completo las barreras de seguridad de estos LLM, y de hecho conseguimos que ChatGPT nos dijera cómo fabricar una bomba, y conseguimos que nos dijera todo tipo de cosas». de cosas desagradables que no debería decirnos, y lo hicimos con principios matemáticos”, dijo.
Velásquez se unió a DARPA el año pasado para investigar la IA. Gestiona programas que examinan modelos y herramientas de IA, incluido uno centrado en técnicas de aprendizaje automático llamado Ingeniería Inversa de Engaños, según el sitio web de DARPA.
La inteligencia artificial es un campo de la ciencia y la ingeniería que utiliza computación avanzada y análisis estadístico para permitir que las máquinas completen tareas que requieren un razonamiento complejo.
La popularidad de las herramientas de inteligencia artificial generativa, que crean texto como si estuviera escrito por un humano, ha crecido rápidamente en el último año a medida que productos como ChatGPT resuelven problemas y generan contenido a pedido de las personas.
Los experimentos del Pentágono con IA generativa son anteriores a la llegada de ChatGPT al mercado, según Kathleen Hicks, subsecretaria de Defensa.
Hicks dijo a los periodistas el jueves que algunos componentes del Pentágono han creado sus propios modelos de IA que están bajo experimentación con supervisión humana.
«La mayoría de los sistemas disponibles comercialmente habilitados por grandes modelos de lenguaje aún no son lo suficientemente maduros técnicamente para cumplir con nuestros principios éticos de IA, que son necesarios para un uso operativo responsable», dijo. “Pero hemos encontrado más de 180 casos en los que estas herramientas de IA generativa podrían agregarnos valor con la supervisión, como ayudar a depurar y desarrollar software más rápido, acelerar el análisis de las evaluaciones de daños en batalla y resumir de manera verificable textos de conjuntos de datos clasificados y de código abierto. «
El Departamento de Defensa dio a conocer el jueves una estrategia formal para adoptar la IA. El plan decía que los competidores de Estados Unidos seguirán apoderándose de la tecnología avanzada de inteligencia artificial a medida que se expanda su uso potencial para la guerra.
La estrategia decía que el departamento desarrollará tecnología emergente de una manera que permita a Estados Unidos proteger sus ventajas del robo y la explotación extranjeros mientras cumple con las leyes aplicables.
La Sra. Hicks dijo a los periodistas que su departamento no busca luchar con la República Popular China mientras las dos naciones se enfrentan en duelo por una ventaja de IA y una superioridad tecnológica.
“Estados Unidos no busca una carrera armamentista de IA con ningún país, incluida la República Popular China, del mismo modo que no buscamos un conflicto”, dijo la Sra. Hicks. «Con la IA y todas nuestras capacidades, sólo buscamos disuadir la agresión y defender a nuestro país, a nuestros aliados y socios, y nuestros intereses».