“Una vez se abra esta caja de Pandora, va a ser difícil cerrarla”. Esta máxima cierra el escrito que 117 expertos de 26 países pioneros en robótica y en el desarrollo de la inteligencia artificial mandaron el pasado agosto a la ONU con un propósito: alertar al mundo del peligro potencial que tienen las armas letales autónomas. Entre los promotores de la iniciativa hay empresarios y científicos de la talla de Elon Musk, fundador de Tesla, o Mustafa Suleyman, el emprendedor de DeepMind, adquirida por Google.

Los expertos en la materia han propuesto a Naciones Unidas frenar las armas letales autónomas -como los aviones no tripulados y los tanques y ametralladoras automatizadas-, en el marco de la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI), celebrada este agosto en Melbourne. Todos ellos temen que la creciente autonomía de estas armas letales desemboquen en un nuevo escenario bélico que eleve a otro nivel las consecuencias de los conflictos armados. Y por supuesto el número de víctimas que estos provocan.

“Las armas letales autónomas amenazan con convertirse en la tercera revolución de combate. Una vez desarrolladas, permitirán disputar conflictos armados a una escala mayor que nunca, y en unas escalas de tiempo más rápidas de lo que los humanos pueden comprender”, advierten los expertos en esta carta a la ONU.

Debate ético

El uso automatizado de la fuerza en el campo de batalla hace saltar todas las alarmas. Se puede traducir en lanzamientos de misiles, torpedos, minas y, en definitiva, de toda clase de explosivos. Bombas que pueden caer sobre civiles y que pueden elevar los niveles de violencia a un eslabón superior. El debate ético y moral sobre el uso de una tecnología capaz de matar de forma autónoma plantea la cuestión sobre el control de la misma.

Por ello, según un informe del Instituto Español de Estudios Estratégicos, existe un consenso que define el control que deberían ejercer los humanos frente a estas máquinas y que contempla tres dimensiones: en primer lugar, la rendición de cuentas, que según las leyes de la guerra, si la máquina comete un error y ataca a un objetivo equivocado, se puede dar el caso que no haya un ser humano al que hacer responsable y que, por tanto, no haya rendición de cuentas. En segundo lugar está la cuestión de la responsabilidad moral que tienen los humanos sobre las acciones de las armas autónomas. Por último, hay que tener en cuenta el factor del control sobre las armas autónomas, puesto que dada una situación inesperada, se podría producir un fallo en el sistema que provocara el ataque a un gran número de objetivos equivocados.

Es por esto que las armas autónomas están hoy en día en el punto de mira. Bonnie Docherty, investigadora y profesora de la Universidad de Harvard, ha manifestado su preocupación por los robots de guerra en muchas ocasiones. “Es hora de que los países se muevan más allá de la fase de tertulia y empiecen a buscar una prohibición preventiva”, explica la investigadora en un informe publicado en la facultad de derecho de Harvard. En él también advierte que “los gobiernos deben asegurarse de que los humanos retienen en control sobre a quién atacar con sus armas y cuándo disparar”.

Ventajas militares

Los defensores de esta tecnología destacan el abanico de ventajas militares que tienen los robots de guerra. No actúan por pánico, venganza ni odio racial, amplían el campo de batalla, su tiempo de reacción es menor que el de los humanos, ofrecen una protección mayor a las fuerzas armadas -pueden salvar vidas de los soldados- y pueden ampliar el campo de batalla. La ausencia de pasiones en la máquina es lo que puede hacer más objetivas sus acciones, aunque esta regla no siempre se cumple.

La campaña internacional ‘Stop Killer Robots’ mantiene que “permitir a las máquinas decidir sobre la vida o la muerte cruza una línea moral fundamental. Los robots autónomos no tienen juicio humano ni la capacidad de entender el contexto”. Es por esto que proponen medidas como la suspensión nacional -al menos temporal- de los robots letales, el compromiso con los derechos humanos, transparencia en el desarrollo de los sistemas robóticos aplicados a las armas y la participación activa en el debate internacional sobre la cuestión.

La carrera militar para desarrollar los robots de combate ha generado una movilización precisamente de aquellos que son pioneros en robótica e inteligencia artificial. De hecho, antes de la carta enviada a la ONU para promover un espacio de debate alrededor de las armas autónomas y evitar su proliferación, otros científicos como Stephen Hawking ya escribieron en 2015 un manifiesto en el que se definía la Inteligencia Artificial como la “mayor amenaza existencial de la humanidad”.