Robots programados para matar...
Último aviso
La ONU decide en diciembre si da luz verde a los sistemas de armas autónomos, la nueva y gran apuesta de la industria de la guerra.
Son inmortales porque no están vivos, como Terminator o los androides de Yo, robot, la obra de Isaac Asimov que protagonizó Will Smith en la gran pantalla.
La duda y el miedo no están ni entre sus virtudes ni entre sus defectos.
Resisten más tiempo sobre el campo de batalla que cualquier humano, pueden ver en la noche gracias a sensores térmicos y portan armas capaces de pulverizar un tanque. No necesitan aire ni agua, ni padecen secuelas psicológicas.
Los Sistemas de Armas Autónomos Letales (LAWS, por sus siglas en inglés), coloquialmente conocidos como “robots asesinos”, están a punto de revolucionar el concepto de guerra mientras gobiernos, expertos y activistas se preparan para decidir en diciembre el futuro de estas máquinas de matar.
Los robots autónomos ya son una realidad en la vida cotidiana de muchas personas gracias a los avances en inteligencia artificial y robótica aplicados a la medicina, la educación o el transporte.
Gobiernos y fuerzas de seguridad de medio mundo ya tantean los límites de esta tecnología aplicada al campo de batalla y situaciones de emergencia, como sucedió durante una protesta en Dallas (EEUU) en julio de este año, cuando la policía envió y detonó un robot para acabar con la vida del francotirador que minutos antes había matado a cinco agentes.
Al igual que sucedió con la bomba atómica o, más recientemente, con los drones de combate, los robots autónomos letales podrían abrir otro episodio en la historia de la guerra y desencadenar una nueva carrera armamentística.
Sin embargo, por primera vez en la historia y a diferencia de los aviones de guerra no tripulados, “las armas autónomas seleccionan a sus objetivos sin intervención humana”.
Con esta advertencia comienza la carta firmada por más de 3.000 investigadores, expertos en inteligencia artificial, activistas y líderes sociales y religiosos para pedir la prohibición de una tecnología creada para matar sin la supervisión de un ser humano.
Entre el 12 y el 16 de diciembre, representantes de más de 90 países se reunirán en Ginebra para revisar el Convenio sobre Ciertas Armas Convencionales de la ONU y dar luz verde o prohibir los sistemas de armas autónomos.
En enero de este año ya eran más de 3.000 las personalidades destacadas del mundo de la ciencia,la lucha social y el ámbito privado que habían suscrito esta petición, con perfiles tan diversos como el del filósofo e investigador Noam Chomsky o el cofundador de Apple, Steve Wozniak.
Al mismo tiempo, al otro lado de la trinchera política afloran los defensores de las armas autónomas, una tecnología que generará un negocio multimillonario.
Argumentan que podrán salvar la vida de miles de soldados y supondrán un enorme ahorro para las arcas del Estado.
Los analistas de Goldman Sachs ya recomiendan a sus clientes que inviertan en este prometedor negocio, el segundo con mejores previsiones de crecimiento en la industria robótica, sólo por detrás de los robots autónomos para ordeñar vacas.
Hace menos de una década empezó la fiebre de los drones militares. Hoy al menos 90 países cuentan con ese tipo de tecnología en sus Fuerzas Armadas.
La proliferación de armas autónomas ya ha empezado, aunque de momento sólo seis países admiten públicamente estar desarrollando estos sistemas de guerra: Estados Unidos, Rusia, China, Israel y, a escala menor, Corea del Sur y Reino Unido.
Hasta ahora gobiernos y ejércitos de medio mundo emplean máquinas autómatas principalmente en tareas logísticas como el transporte de alimentos y municiones, o para desactivar explosivos, dejando al criterio humano la decisión de abrir fuego.
La lista de robots militares autónomos es tan amplia que no entra en este reportaje.
Entre los más conocidos están el DRDO Daksh indio, un robot artificiero equipado con rayos X; el robot Atlas de Google, especializado en combatir incendios, o el Goalkeeper alemán, diseñado para interceptar misiles sin necesidad de supervisión humana.
China ya tiene planes de desplegar su robot policía Anbot, inspirado en el famoso R2D2 de La Guerra de las Galaxias, mientras que Estados Unidos pretende sustituir un cuarto de sus tropas por humanoides antes de 2030.
De momento, sus dispositivos autónomos equipados con armamento, como los robot Predator o Reaper, piden la autorización de un humano antes de disparar.
El Ejército israelí es uno de los que más independencia otorga a sus robots asesinos, como el Harpy, un dron autónomo que vuela en círculos para localizar radares enemigos y estrellarse contra ellos.
Los robots autónomos ya están presentes en el día a día de muchos ciudadanos, desde los coches que conducen solos hasta las máquinas de respiración asistida.
Sin embargo, los robots militares autónomos son armas programadas para decidir qué es un objetivo y disparar sobre él, a pesar de que no están capacitados para diferenciar entre un objetivo militar y uno civil.
A nivel internacional, sólo 14 países han pedido la prohibición de los robots militares autónomos –el primero fue Pakistán, donde Estados Unidos lleva años realizando bombardeos mediante drones autónomos–, mientras que la mayoría de los gobiernos sólo se ha mostrado a favor de debatir una regulación en el seno de la ONU.
Gran parte de los detractores de las armas autónomas cree que la ambigüedad de los gobiernos se debe a que los robots militares pueden reducir el coste electoral de perder soldados en la guerra.
España se posicionó por primera vez a finales de 2013, durante la reunión celebrada en Ginebra para revisar el Convenio Sobre Ciertas Armas Convencionales.
Oficialmente, el Gobierno español está a favor de que se debata el futuro de estas armas y reconoce la “preocupación” que estos dispositivos generan a nivel ético y legal, aunque dice estar “abierto a todas las opciones”.
Robots sin ética con licencia para matar
Miles de expertos de distintas áreas y activistas ya se han manifestado en contra del desarrollo y uso de robots de guerra independientes.
El debate tomó fuerza a raíz de una carta del norirlandés Noel Sharkey publicada por el diario británico The Guardian en 2007. En la misiva, este profesor emérito de Inteligencia Artificial y Robótica en la Universidad de Sheffield alertaba sobre los peligros que implica esta tecnología.
“Mis principales preocupaciones recaen sobre la inhabilidad de los sistemas de armas autónomos para respetar la legislación internacional sobre guerra, tales como diferenciar entre objetivos militares y civiles o aplicar la fuerza proporcionalmente”, explica a La Marea el doctor Sharkey, quien añade que, sobre todo, lo que más le preocupa es que se quiebre la seguridad global debido a una carrera armamentística de robots asesinos.
Para este experto, otorgar a una máquina la potestad de matar atenta contra la dignidad humana.
Sharkey es uno de los fundadores del Comité Internacional para el Control de Armas Robot y de la Plataforma para Detener los Robots Asesinos (Campaign to Stop Killer Robots), lanzada en 2013 junto a siete organizaciones no gubernamentales y un amplio número de expertos y activistas de todo el mundo.
Confían en que su lucha para prohibir los sistemas armados autónomos obtenga los frutos que en su día lograron quienes se oponían a las bombas de racimo o las armas láser, hoy prohibidas por la legislación internacional.
“Creo que a medio plazo habrá un tratado de las Naciones Unidas para prohibir su producción y uso”, opina Sharkey en referencia a los robots asesinos.
Las voces que claman por la prohibición de las armas autónomas no han parado de crecer desde entonces y cuentan con el rol activo de personalidades destacadas, como Rigoberta Menchú y el Dalai Lama, ambos galardonados con el Premio Nobel de la Paz, o el científico británico Stephen Hawking. Incluso el mastodóntico fondo soberano de Noruega incluyó en su lista negra de objetivos inversores a las empresas que participan en el desarrollo de robots militares autónomos.
En febrero, el diario The New York Times publicó un informe del Pentágono en el que se reconocía que “estas armas podrían volverse incontrolables en entornos reales debido a fallos en su diseño o la posibilidad de ser pirateados”.
Miriam Struyk trabaja como asesora estratégica en la organización sin ánimo de lucro Pax y es una de las cofundadoras de la Plataforma para Detener a los Robots Asesinos.
El próximo diciembre viajará a Ginebra para participar en la revisión del Convenio sobre Ciertas Armas Convencionales, donde tratará de convencer a los gobiernos de todo el mundo de la necesidad de prohibir los robots militares autónomos.
“Con armas como las bombas de racimo o las minas antipersona actuamos demasiado tarde y eso costó muchas vidas, incluso después de la guerra, por no mencionar la bomba nuclear”, explica Struyk.
Esta experta opina que ninguna vida humana debería depender de un algoritmo y asegura que los robots asesinos no son capaces de actuar respetando los derechos humanos.
“¿Quién será el responsable de las acciones de un robot militar?
¿El fabricante, el programador, el comandante o la máquina misma?”, se pregunta Stuyk desde Holanda. “La tecnología avanza más rápido que la diplomacia”, añade.
Struyk y otros miembros de la Plataforma para Detener a los Robots Asesinos moderan su optimismo de cara a la convención de diciembre. Aseguran que lo más probable es que se decida crear un grupo de expertos de gobierno que allanará el camino para empezar las negociaciones sobre un nuevo tratado que prohíba estas armas.
“Los desarrollos militares a menudo se llevan a cabo a puerta cerrada y el público general solo se da cuenta cuando las armas son usadas. Debemos informar e iniciar un debate público y político sobre la conveniencia de estas armas antes de que sea demasiado tarde”, incide.
* Este reportaje fue publicado en el número 41 de la revista mensual La Marea.
No hay comentarios:
Publicar un comentario