Los principales desarrolladores de IA, como OpenAI y Anthropic, están enhebrando una delicada aguja para vender software al ejército de los Estados Unidos: hacer que el Pentágono sea más eficiente, sin permitir que su IA mate gente.
Hoy en día, sus herramientas no se utilizan como armas, pero la IA le está dando al Departamento de Defensa una «ventaja significativa» en la identificación, seguimiento y evaluación de amenazas, dijo a Tecno la directora digital y de IA del Pentágono, la Dra. Radha Plumb, en un entrevista telefónica.
«Obviamente estamos aumentando las formas en que podemos acelerar la ejecución de la cadena de destrucción para que nuestros comandantes puedan responder en el momento adecuado para proteger nuestras fuerzas», dijo Plumb.
La “cadena de muerte” se refiere al proceso militar de identificar, rastrear y eliminar amenazas, que involucra un complejo sistema de sensores, plataformas y armas. Según Plumb, la IA generativa está resultando útil durante las fases de planificación y elaboración de estrategias de la cadena de destrucción.
La relación entre el Pentágono y los desarrolladores de IA es relativamente nueva. OpenAI, Anthropic y Meta retrocedieron en sus políticas de uso en 2024 para permitir que las agencias de inteligencia y defensa de EE. UU. utilicen sus sistemas de inteligencia artificial. Sin embargo, todavía no permiten que su IA dañe a los humanos.
«Hemos sido muy claros sobre para qué usaremos y no usaremos sus tecnologías», dijo Plumb, cuando se le preguntó cómo trabaja el Pentágono con los proveedores de modelos de IA.
No obstante, esto inició una ronda de citas rápidas para empresas de inteligencia artificial y contratistas de defensa.
Meta se asoció con Lockheed Martin y Booz Allen, entre otros, para llevar sus modelos Llama AI a las agencias de defensa en noviembre. Ese mismo mes, Anthropic se asoció con Palantir. En diciembre, OpenAI llegó a un acuerdo similar con Anduril. Más silenciosamente, Cohere también ha estado desplegando sus modelos con Palantir.
A medida que la IA generativa demuestre su utilidad en el Pentágono, podría presionar a Silicon Valley para que flexibilice sus políticas de uso de IA y permita más aplicaciones militares.
«Jugar en diferentes escenarios es algo en lo que la IA generativa puede resultar útil», dijo Plumb. “Le permite aprovechar toda la gama de herramientas que nuestros comandantes tienen disponibles, pero también pensar creativamente sobre diferentes opciones de respuesta y posibles compensaciones en un entorno donde existe una amenaza potencial, o una serie de amenazas, que deben ser procesadas. «
No está claro qué tecnología está utilizando el Pentágono para este trabajo; El uso de IA generativa en la cadena de destrucción (incluso en la fase inicial de planificación) parece violar las políticas de uso de varios desarrolladores de modelos líderes. La política de Anthropic, por ejemplo, prohíbe utilizar sus modelos para producir o modificar «sistemas diseñados para causar daño o pérdida de vidas humanas».
En respuesta a nuestras preguntas, Anthropic señaló a Tecno la reciente entrevista de su CEO Dario Amodei con el Financial Times, donde defendió su trabajo militar:
La posición de que nunca deberíamos usar la IA en entornos de defensa e inteligencia no tiene sentido para mí. La posición de que deberíamos utilizarlas para fabricar cualquier cosa que queramos (incluso armas apocalípticas) es obviamente igual de loca. Estamos intentando buscar un punto medio, hacer las cosas con responsabilidad.
OpenAI, Meta y Cohere no respondieron a la solicitud de comentarios de Tecno.
Vida y muerte y armas de IA.
En los últimos meses, ha estallado un debate sobre tecnología de defensa en torno a si realmente se debería permitir que las armas de inteligencia artificial tomen decisiones de vida o muerte. Algunos argumentan que el ejército estadounidense ya tiene armas que lo hacen.
El director ejecutivo de Anduril, Palmer Luckey, señaló recientemente en X que el ejército estadounidense tiene una larga historia de compra y uso de sistemas de armas autónomos, como una torreta CIWS.
“El Departamento de Defensa lleva décadas comprando y utilizando sistemas de armas autónomos. Su uso (¡y exportación!) está bien comprendido, estrictamente definido y regulado explícitamente por reglas que no son en absoluto voluntarias”, dijo Luckey.
Pero cuando Tecno preguntó si el Pentágono compra y opera armas que sean completamente autónomas (es decir, sin humanos en el circuito), Plumb rechazó la idea por principio.
«No, es la respuesta corta», dijo Plumb. «Por una cuestión de confiabilidad y ética, siempre tendremos humanos involucrados en la decisión de emplear la fuerza, y eso incluye nuestros sistemas de armas».
La palabra “autonomía” es un tanto ambigua y ha provocado debates en toda la industria tecnológica sobre cuándo los sistemas automatizados –como los agentes codificadores de IA, los vehículos autónomos o las armas automáticas– se vuelven verdaderamente independientes.
Plumb dijo que la idea de que los sistemas automatizados toman decisiones de vida o muerte de forma independiente era «demasiado binaria» y que la realidad era menos «de ciencia ficción». Más bien, sugirió que el uso de sistemas de inteligencia artificial por parte del Pentágono es en realidad una colaboración entre humanos y máquinas, donde los líderes superiores toman decisiones activas durante todo el proceso.
«La gente tiende a pensar en esto como si hubiera robots en alguna parte, y luego el gonculador [a fictional autonomous machine] escupe una hoja de papel y los humanos simplemente marcan una casilla”, dijo Plumb. «No es así como funciona el trabajo en equipo entre humanos y máquinas, y esa no es una forma eficaz de utilizar este tipo de sistemas de IA».
Seguridad de la IA en el Pentágono
Las asociaciones militares no siempre han sido bien recibidas por los empleados de Silicon Valley. El año pasado, decenas de empleados de Amazon y Google fueron despedidos y arrestados después de protestar por los contratos militares de sus empresas con Israel, acuerdos en la nube que se enmarcaban bajo el nombre en clave «Proyecto Nimbus».
Comparativamente, ha habido una respuesta bastante silenciosa por parte de la comunidad de IA. Algunos investigadores de IA, como Evan Hubinger de Anthropic, dicen que el uso de IA en los militares es inevitable y que es fundamental trabajar directamente con los militares para garantizar que lo hagan bien.
«Si se toman en serio los riesgos catastróficos de la IA, el gobierno de los EE. UU. es un actor extremadamente importante con el que interactuar, y tratar de simplemente impedir que el gobierno de los EE. UU. utilice la IA no es una estrategia viable», dijo Hubinger en una publicación de noviembre en el sitio web en línea. foro Menos incorrecto. «No basta con centrarse únicamente en los riesgos catastróficos, también hay que evitar cualquier forma en que el gobierno pueda hacer un mal uso de sus modelos».
Continuar leyendo: El Pentágono dice que la IA está acelerando su «cadena de muerte»








