Armas letales autónomas, sin prohibición a la vista | El Mundo |

Los drones de la imagen no son para repartir pizza: llevan explosivos. Cuentan con una cámara y sensores, y funcionan con cuatro palas de rotor. Este es el llamado ‘dron kamikaze’, que puede localizar de forma independiente su objetivo y lanzarse contra él. Los algoritmos lo hacen posible. Cuando ataca, el dron se autodestruye, dejando solo desechos electrónicos. Sobre este tipo de armas, unos 80 países están negociando nuevamente este lunes (25.07.2022) en la ONU, en Ginebra.

maquinas que matan gente

Por definición, estas son armas que pueden buscar, seleccionar y atacar de forma independiente a su objetivo. A diferencia de las armas teledirigidas, gestionan la fase final del ataque por su cuenta. Las empresas de armas utilizan los últimos descubrimientos en el campo de la inteligencia artificial (IA) y el aprendizaje automático para hacer esto. Los críticos llaman a estas armas ‘robots asesinos’, mientras que en la sala de conferencias de la ONU se habla de ‘sistemas letales de armas autónomas’, que podrían ser, por ejemplo, drones, vehículos robóticos o submarinos.

El uso de estas armas es controvertido: algunos países piden su prohibición porque un algoritmo nunca debería decidir sobre la vida o la muerte. Otros proponen reglas para su uso, que deberían ser más o menos vinculantes. Un requisito fundamental es que los humanos deben mantener un cierto nivel de control sobre estos sistemas de armas en todo momento.

Rusia podría estar utilizando el llamado ‘dron kamikaze’ en la guerra de Ucrania.

veto de rusia

La comunidad internacional se reúne dos veces al año en Ginebra, desde 2014, para discutir este tema explosivo. Las posiciones están muy divididas. Especialmente EE. UU., Rusia y China se resisten a una prohibición o normas vinculantes, porque temen una desventaja estratégico-militar.

El ataque de Rusia a Ucrania ha complicado aún más las negociaciones: Rusia bloqueó la última reunión en marzo pasado al negarse a aceptar la agenda. «A los rusos no les gustó que les impusieran sanciones. Por eso impidieron que comenzaran las negociaciones», dice a Ousman Noor, de la ONG ‘Campaign to Stop Killer Robots’. Noor ve el principio de consenso vigente en Ginebra como uno de los mayores obstáculos: «Un país puede detener todo el proceso con su veto», dice. Entonces, para los defensores de la prohibición, ya es hora de abandonar el «ineficaz» foro de Ginebra.

«Más mortal que una bomba nuclear»

«Las conversaciones de Ginebra han fracasado», coincide Vanessa Vohs, investigadora de armas autónomas en la Universidad de las Fuerzas Armadas de Alemania. Todavía quedarían muchas preguntas sin respuesta: «Si los sistemas de armas autónomos cometen errores, y posiblemente crímenes de guerra, ¿quién es el responsable? La llamada brecha de responsabilidad es un gran problema», dice el experto en una entrevista con .

Por su parte, Noor explica que “hay indicios de que Rusia está utilizando sistemas de armas autónomos en Ucrania”. Entre ellos se dice que hay drones kamikaze. Su uso en una guerra, según el activista, “podría hacernos ver que necesitamos regular urgentemente estas armas antes de que se vendan en todo el mundo”.

Los expertos en inteligencia artificial han advertido durante mucho tiempo que los pequeños drones armados, en particular, se pueden producir a bajo precio y en grandes cantidades, y que unos pocos estudiantes de informática serían suficientes para programarlos. «Si ya no se necesitan humanos para operar estas armas, se pueden enviar decenas de miles, incluso millones de ellas», insiste el investigador británico de inteligencia artificial Stuart Russell, en una entrevista con . Además, añade, “estamos creando armas que son potencialmente más letales que una bomba nuclear”.

(ct/cp)

Read More: Armas letales autónomas, sin prohibición a la vista | El Mundo |

Salir de la versión móvil