Portada :: Mundo
Aumentar tamaño del texto Disminuir tamaño del texto Partir el texto en columnas Ver como pdf 16-11-2018

Debemos detener las nuevas armas robticas

Pere Brunet
Centre Dels d'Estudis per la Pau


A principios de este mes de octubre, en el Aula Magna de la Facultad de Derecho de la UAB, representantes del International Committee for Robot Arms Control (ICRAC), juntamente con representantes de Fundipau y del Centro Dels, presentaron la Campaa internacional Stop Killer Robots. Esta campaa para detener los robots asesinos se inici en Londres en abril de 2013, respaldada por una agrupacin internacional de entidades que trabaja para prohibir de forma preventiva las armas totalmente autnomas. Debemos tener presente que los avances tecnolgicos que estn realizando en esta direccin algunos estados pueden cambiar drsticamente el concepto de guerra y los escenarios blicos, comportando asimismo importantes desafos a nivel humanitario y legal.

Sin embargo, hace solo un mes, en Ginebra, la sexta reunin de la Convencin sobre Armas Convencionales (CCAC) de la ONU termin sin ningn acuerdo vinculante. Aunque una clara mayora de los estados asistentes propona iniciar negociaciones en 2019 para definir un nuevo tratado que estableciese la prohibicin preventiva del desarrollo y uso de sistemas de armas autnomos letales, Estados Unidos y Rusia rechazaron y vetaron la iniciativa (que apoyaban pases como Austria, Brasil, Chile, Colombia, Irak, Pakistn, Panam, un grupo de estados africanos y el grupo de estados del Movimiento de Pases No Alineados). Los 88 estados participantes, que mayoritariamente estuvieron de acuerdo sobre la necesidad de alguna forma de control humano sobre los sistemas armados y el uso de la fuerza, no acordaron cmo proceder para lograr este objetivo.

En este contexto, querra aportar cuatro reflexiones al debate sobre los sistemas militares robticos y sobre la prohibicin preventiva de las armas autnomas letales.

En primer lugar, se trata de sistemas ticamente reprobables. Porque, incluso en el caso de las armas robticas no autnomas que requieren una persona humana en el circuito de decisin, autores como Medea Benjamin y Markus Wagner consideran que cuando las operaciones militares se realizan a travs del filtro de una cmara de video lejana, desaparece posibilidad del contacto visual con el enemigo, con lo que decrece la percepcin del costo humano del posible ataque. Y, aunque no hay constancia de que los sistemas robticos letales y totalmente autnomos (LAWS) estn siendo utilizados actualmente en acciones militares, ya existen sistemas que detectan y deciden las personas a atacar, aunque ofrecen la posibilidad de que un operador remoto detenga su accin mortfera. El debate tico, en este caso, se centra en los sesgos que las mquinas generan en los procesos humanos de decisin ya que, como bien explica Noel Sharkey, estos sistemas generan el fenmeno conocido como sesgo de automatizacin (automation bias) que hace que los operadores humanos tiendan a aceptar como correctas las soluciones propuestas por los sistemas robticos e informticos, ignorando o dejando de buscar informacin complementaria. Pero, en todo caso, siempre ser ticamente inaceptable que no exista un grado suficiente de control humano en las funciones crticas de cualquier sistema militar armado.

Adems, son armas no precisas, que matan civiles no involucrados. Hay que dejar bien claro que los nuevos sistemas basados en algoritmos masivamente heursticos de aprendizaje a partir de datos incluyen inevitablemente un margen de error, que en el caso de las armas se traduce en muertes de personas inocentes. Cualquier sistema autnomo es solo parcialmente fiable. Este es un hecho bien conocido a nivel de la comunidad cientfica internacional, publicado reiteradamente y accesible universalmente como todos los resultados cientficos, pero que sorprendentemente no se divulga lo suficiente.

En tercer lugar, estas armas son un gran negocio. Un negocio que enriquece a algunas personas mientras destruye y mata otras muchas. Hace das podamos leer, en la versin impresa de un artculo de Ignacio Vidal-Folch sobre la venta de bombas de precisin a Arabia Saudita, que no hay una solucin fcil en este conflicto entre economa y tica. El anlisis de este oxmoron, que equipara principios ticos con beneficio econmico en el caso de las llamadas bombas de precisin (armas que podemos incluir en la categora de sistemas robticos letales) nos desvela la gran hipocresa de los gobiernos estatales, que se llenan la boca de frases humanitarias mientras se venden para garantizar el negocio de su complejo militar-industrial y sus corporaciones financieras. Porque, como proclamaba la ex ministra Cospedal cuando intentaba animar a los inversores, se trata de un negocio muy rentable.

Finalmente, las nuevas armas robticas son opacas. Su uso ha dejado de ser transparente, y raramente aparece en los medios de comunicacin. Pero el nmero de vctimas civiles es realmente alto. Como explica por ejemplo David Hookes, incluso las estimaciones ms conservadoras sugieren que al menos un tercio de las muertes causadas por ataques con drones en Pakistn han sido no combatientes. Y, en palabras de Ben Emmerson en el informe A/HRC/25/59 a la Asamblea General de Naciones Unidas, entre 2009 y 2013 por ejemplo, los Estados Unidos realizaron como mnimo 86 operaciones letales en Yemen con drones dirigidos a distancia y otros medios, que produjeron un total de 500 muertes. En su informe, Ben Emmerson documentaba con detalle un total de 30 ataques que afectaron a personas civiles en distintos pases, y evidenciaba las grandes dificultades que su equipo encontr al investigar estos ataques.

Muchas entidades y campaas como Stop Killer Robots se oponen enrgicamente a permitir el desarrollo de sistemas de armas que, una vez activados, podran seleccionar y atacar objetivos sin intervencin humana. Permitirlo sera abominable, inmoral, contrario al concepto de dignidad humana y a los principios humanitarios, con consecuencias impredecibles para la poblacin civil en todo el mundo. Pero adems, estamos viendo otras seales de esperanza: un gran nmero de cientficos e ingenieros estn diciendo que no, objetando y negndose a trabajar en temas que puedan aplicarse al desarrollo de estas armas, oponindose a la simple idea de programar mquinas para matar seres humanos y considerando que hablar de paz y dilogo no es utpico, porque lo realmente utpico es creer que los problemas del mundo podrn resolverse con el uso de la violencia, como bien afirmaba Vicent Martnez Guzmn.

Fuente: https://blogs.elpais.com/paz-en-construccion/2018/10/debemos-detener-las-nuevas-armas-rob%C3%B3ticas.html



Envía esta noticia
Compartir esta noticia: delicious  digg  meneame twitter