Israel habría utilizado un sistema de inteligencia artificial para identificar a 37.000 objetivos potenciales vinculados a Hamas, de acuerdo a una investigación publicada en medios israelís, “+972Magazine” y “Local Call”, informa “The Guardian”. La herramienta, que posee una amplia base de datos, ha generado controversia.
Fuentes de inteligencia afirman que, Lavender, como ha sido bautizada la IA, decide prácticamente por sí sola quién es o no enemigo, mientras que los oficiales militares no hacen mayores averiguaciones de tales deducciones, lo que plantea una serie de cuestiones legales y morales en la relación del personal militar y las máquinas.
MIRA: Investigadores japoneses inventan herramienta de inteligencia artificial predice las renuncias de empleados
¿Cómo funciona Lavender?
La herramienta es un sistema probabilístico que fue desarrollado por la división de inteligencia de élite de las Fuerzas de Defensa de Israel, la Unidad 8200, que es comparable a la Agencia de Seguridad Nacional de EE. UU. o GCHQ en el Reino Unido.
Si bien este tipo de sistema se utiliza hace años, siempre fue para seleccionar infraestructura, nunca a personas. De acuerdo a las fuentes citadas, el Ejercito considera dentro de los parámetros aceptables la muerte de centenares de civiles por la de un alto cargo de Hamas o Yihad Islámicas.
¿Cómo detecta Lavender sus objetivos? Los métodos son varios, aunque no están del todo claros, uno de ellos sería por ejemplo el cambio frecuente de teléfono o que el objetivo sea hombre, ya que no hay mujeres de altos rangos en las milicias de los citados grupos.
¿Es legal utilizar este tipo de tecnología en la guerra?
El sistema no deja de ser un modelo probabilístico, y como tal no deja de tener fallos. De acuerdo al informe, después de tomar muestras aleatorias y verificar sus predicciones, se concluyó que Lavender había logrado una tasa de precisión del 90%, cifra que convenció al Ejercito israelí aprobar su uso generalizado como herramienta de recomendación de objetivos.
Esto quiere decir que al menos 10% de los objetivos seleccionados realmente no deberían haberlo estado. Ese margen de error, sumado a las muertes colaterales aceptadas por el ejército, arroja un saldo de miles de palestinos, la mayoría mujeres y niños sin vinculación a la milicia, asesinados por indicación del software.
En operaciones militares anteriores, decidir un objetivo era a menudo un proceso que requería más mano de obra. Múltiples fuentes que describieron a “The Guardian” el desarrollo de objetivos en guerras anteriores dijeron que la decisión de “incriminar” a un individuo, o identificarlo como un objetivo legítimo, sería discutida y luego aprobada por un asesor legal.
Lavender procesa información recogida de los más de 2,3 millones de habitantes en la Franja de Gaza, lo que sería imposible sin una nutrida red de vigilancia digital a la que son sometidos sus habitantes. Con tal información, la IA califica en una escala del 1 al 100 la probabilidad de que estén vinculados a los grupos armados.
Arthur Holland Michel, a quien la ONU ha encargado informes sobre el uso de armas autónomas en conflictos armados, ha dicho: “Lo que es diferente, y ciertamente sin precedentes, en el caso de Lavender en Gaza es la escala y la velocidad a la que se está utilizando el sistema. El número de personas que se ha identificado en tan solo unos meses es asombroso”, subraya.
“Otra diferencia crucial es que el tiempo transcurrido entre la identificación de un objetivo por parte del algoritmo y el ataque contra este parece haber sido a menudo muy corto. Eso indica que no hay demasiada investigación humana en el proceso. Desde un punto de vista jurídico, esto podría ser problemático”, concluye.