WASHINGTON. Los 'robots asesinos', máquinas capaces de matar sin la intervención humana, solo existen de momento en la ciencia ficción pero el desarrollo de la tecnología para construirlos alarma a los defensores de los derechos humanos.
"La tecnología avanza muy rápido en esa dirección. Estados Unidos, Reino Unido, Israel, Rusia, China y Corea del Sur han desarrollado o desplegado precursores de estas armas", explicó a Efe Bonnie Docherty, investigadora especialista en armamento de Human Rights Watch (HRW).
Docherty es la autora principal de un informe reciente de esa organización y la Universidad de Harvard en el que se pide la prohibición del desarrollo, producción y uso de las armas letales autónomas, conocidas como 'robots asesinos'.
"Aunque los expertos no se ponen de acuerdo en pronosticar cuándo estas armas podían materializarse, sí coinciden en que su desarrollo es factible y probable si no se dan los pasos necesarios para detenerlo", comentó la investigadora.
La tesis detrás de esta urgencia es que la prohibición debe llegar antes de que los gobiernos hayan invertido tanto en tecnología para desarrollar estas armas como para no querer dar marcha atrás.
"Si el desarrollo no se detiene lo antes posible, existe además el riesgo de que versiones preliminares se usen de manera prematura o caigan en manos de grupos armados sin respeto a la ley", argumentó Docherty.
"La comunidad internacional ya consideró importante en el pasado prohibir ciertos tipos de armas de manera preventiva. En 1995 la ONU prohibió las armas que producen ceguera antes de que se comenzaran a usar", añadió.
Máquinas de guerra
A diferencia de los polémicos drones, aviones no tripulados, los 'robots asesinos' no precisan de la intervención humana: pueden seleccionar y atacar objetivos de manera autónoma.
"Estos dos tipos de armas despiertan distintos temores. Pero el uso de los drones demuestra que los ejércitos cada vez confían más en la tecnología autónoma", señaló Docherty.
Uno de los aspectos más controvertidos de las armas autónomas es el debate sobre la moralidad de permitir que una máquina tome la decisión de matar a una persona.
Incluso si el militar supiera que uno de los 'robots asesinos' está a punto de matar a un civil, no podría hacer nada para impedirlo.
Del mismo modo, en el caso de un corte en las comunicaciones, el militar no sabría qué está haciendo la máquina ni, por consiguiente, podría evitar algún tipo de actuación indebida.
El dilema
"En la mayoría de los casos, ni el programador ni el fabricante ni el comandante ni el operador podrían tener responsabilidad legal por los actos indebidos de la máquina", apuntó Docherty.
"Sería injusto y legalmente imposible responsabilizar al comandante si un arma completamente autónoma comete un acto ilegal e imprevisto que él no ha tenido manera de impedir o prever", añadió.
En 2013 la ONU urgió a los estados a aplicar moratorias nacionales que detengan el ensayo, producción, montaje, transferencia, adquisición, despliegue y empleo de 'robots asesinos'.
La semana pasada se reunieron en Ginebra (Suiza) expertos y representantes de sesenta países miembros de la ONU para debatir sobre los límites legales y éticos de las armas autónomas.
"Buscamos simplemente un poco más de claridad sobre qué son estas máquinas y cómo debemos enmarcarlas y/o delimitarlas", explicó el diplomático alemán Michael Biontino, presidente de la reunión.
"Por ahora estamos muy lejos de incluso saber cómo son estas máquinas, qué forma tienen, cómo serán. De hecho, creo entender que estamos lejos de que existan porque es muy difícil programar una máquina que tome tantas decisiones por si sola", añadió.
Fuente: EFE