El mundo habría sido un lugar mucho más oscuro si la Alemania nazi hubiera vencido a los EE. UU. para construir la primera bomba atómica del mundo. Afortunadamente, el odio contraproducente del régimen de Adolf Hitler saboteó sus propios esfuerzos. Una ley de 1933 que despidió a los “funcionarios públicos de ascendencia no aria” despojó a una cuarta parte de los físicos de Alemania de sus puestos universitarios. Como señaló el historiador Richard Rhodes, 11 de esos 1.600 académicos ya habían ganado, o ganarían, el Premio Nobel. Los refugiados científicos de la Europa nazi fueron más tarde fundamentales para el proyecto de la bomba atómica de Manhattan en los EE. UU.
El angustioso examen de conciencia de los científicos sobre la construcción de armas nucleares resuena con fuerza hoy en día a medida que los investigadores desarrollan sistemas de inteligencia artificial que los militares adoptan cada vez más. A pesar de que están entusiasmados con los usos pacíficos de la IA, los investigadores saben que es una tecnología de propósito general de doble uso que puede tener aplicaciones altamente destructivas. La coalición Stop Killer Robots, con más de 180 organizaciones no gubernamentales miembros de 66 países, está haciendo una fuerte campaña para prohibir los llamados sistemas letales de armas autónomas, impulsados por IA.
La guerra en Ucrania ha aumentado la urgencia del debate. A principios de este mes, Rusia anunció que había creado un departamento especial para desarrollar armas habilitadas para IA. Agregó que su experiencia en Ucrania ayudaría a que sus armas sean “más eficientes e inteligentes”. Las fuerzas rusas ya han desplegado el robot autónomo de limpieza de minas Uran-6, así como el dron suicida no tripulado KUB-BLA, que según su fabricante utiliza IA para identificar objetivos (aunque los expertos cuestionan estas afirmaciones).
El presidente de Rusia, Vladimir Putin, ha hablado sobre las “colosales oportunidades” de AI. “Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”, ha dicho. Sin embargo, los esfuerzos del Kremlin para desarrollar armas habilitadas para IA seguramente se verán obstaculizados por el reciente éxodo de 300.000 rusos, muchos del sector tecnológico, y el bajo desempeño de sus fuerzas convencionales.
La iniciativa rusa siguió al anuncio del Pentágono el año pasado de que estaba intensificando los esfuerzos para lograr la superioridad de la IA. El Departamento de Defensa de EE. UU. estaba “trabajando para crear una ventaja militar competitiva adoptando y aprovechando la IA”, dijo Kathleen Hicks, subsecretaria de defensa. China también ha estado desarrollando IA para usos económicos y militares con el claro objetivo de superar a los EE. UU., en lo que se ha denominado la carrera armamentista de la IA.
Si bien gran parte del debate sobre el uso de armas nucleares ha sido relativamente claro y limitado durante décadas, no importa cuán aterrador sea, la discusión sobre la IA es mucho más confusa y caleidoscópica. Hasta la fecha, solo nueve estados nacionales han desarrollado armas nucleares. Solo se han utilizado dos bombas atómicas en la guerra moderna, en Hiroshima y Nagasaki en 1945. Su terrible poder destructivo las ha convertido en armas de último recurso.
La IA, por otro lado, es menos visible, más difusa y más impredecible debido a su menor umbral de uso, como ha escrito el veterano estratega Henry Kissinger. Quizás se vea mejor como un multiplicador de fuerza que se puede usar para mejorar las capacidades de los drones, las armas cibernéticas, las baterías antiaéreas o las tropas de combate. Algunos estrategas temen que las democracias occidentales puedan estar en desventaja frente a los regímenes autoritarios debido a las mayores restricciones éticas. En 2018, más de 3000 empleados de Google firmaron una carta en la que decían que la empresa «no debería estar en el negocio de la guerra» y pedían (con éxito) que se retirara del Proyecto Maven del Pentágono, diseñado para aplicar la IA en el campo de batalla.
El Pentágono ahora enfatiza la importancia de desarrollar sistemas de IA «responsables», regidos por valores, controles y leyes democráticos. La guerra en Ucrania también puede estar influyendo en la opinión pública, especialmente en Europa. “Los jóvenes se preocupan por el cambio climático. Y ahora les importa vivir en sociedades abiertas”, me dice Torsten Reil, cofundador de Helsing, una empresa emergente alemana que utiliza IA para integrar datos del campo de batalla. “Si queremos vivir en una sociedad abierta, debemos ser capaces de disuadir, defender y hacerlo de manera creíble”.
Para algunos, esto puede parecer un cambio de marca cínico de la industria de la muerte. Pero como aprendieron los físicos durante la Segunda Guerra Mundial, es difícil ser moralmente puro cuando se deben tomar decisiones terribles en el mundo real. Para su gran crédito, muchos investigadores de IA están presionando hoy en día por convenciones internacionales significativas para restringir a los robots asesinos que de otro modo serían incontrolables. Pero sería imprudente renunciar al uso responsable de la tecnología de IA para defender sociedades democráticas.
john.thornhill@ft.com
Read More: Las democracias deben utilizar la IA para defender sociedades abiertas