Unos 37.000 palestinos, con nombre y apellido, y todos objetivos: esa había sido la conclusión del sistema Lavender, un programa de Inteligencia Artificial que Israel vendría utilizando desde el inicio de la guerra con Hamas, y que ha estado el centro de la polémica por la cantidad de bajas civiles que habría provocado en Gaza.
A principios de este mes, un reportaje publicado por el medio +972 Magazine reveló testimonios de oficiales israelíes que se referían en inquietantes términos a la importancia que la Inteligencia Artificial estaba cobrando en su trabajo, con autorizaciones de asesinato a un “gran número de civiles”.
El sistema Lavender fue diseñado para detectar de manera automática a presuntos militantes de Hamas y la Yihad Islámica Palestina, de tal modo que puedan ser considerados objetivos de bombardeos. Según el reportaje, en las primeras semanas de guerra en Gaza, las Fuerzas de Defensa de Israel (FDI) dependieron casi por completo de este programa, y sus resultados se habrían llegado a tratar como “decisiones humanas”.
Esta confianza ciega de los militares israelíes en el “mecanismo estadístico” aceleró no solo la “aprobación” de objetivos, sino que con ello, la cantidad de muertos. Una de las fuentes, comparando la capacidad humana con la de la IA, aseguro: “Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina decide fríamente. Y eso lo hizo más fácil. Invertía 20 segundos por cada objetivo y hacía docenas de ellos cada día. No tenía ningún valor añadido como humano, a parte de ser un sello de aprobación”.
Decisiones de la IA
El uso de la IA en el Ejército israelí no es nuevo, pero sí la intensidad e importancia de las decisiones que estaría provocando. Ya en 2021, durante una serie de ataques en Gaza, el jefe militar Aviv Kohavi aseguró en Ynet que los sistemas de IA podían generar hasta “100 objetivos diarios”. “Para ponerlo en perspectiva, en el pasado producíamos 50 objetivos en Gaza en un año”, dijo.
Ya con la guerra actual en curso, otro sitio web del Ejército israelí aseguró que otro programa, llamado Gospel, había logrado identifica más de 12 mil objetivos. La versión de un oficial no identificado en la página aseguraba que el sistema iba en pos de “ataques precisos a infraestructura asociada con Hamas, infligiendo gran daño al enemigo y un daño mínimo a quienes no estaban involucrados”.
La investigación de +925 Magazine, en tanto, mostró que la Unidad 8200, que en la inteligencia militar israelí desarrolló Lavender, aseguró que había una tasa de precisión de 90%. Entre los testimonios, uno da cuenta de cómo el Ejército aceleró su proceso de identificación algorítmica de objetivos humanos, y la consecuente aprobación de ataques: “Nos presionaban constantemente: ‘Tráigannos más objetivos’. Realmente nos gritaban. Nos decían: ahora tenemos que joder a Hamas, cueste lo que cueste. Lo que puedan, bombardéenlo”.
El sistema Lavender posee y actualiza una base de datos con decenas de miles de ciudadanos. En esa dirección, los 37 mil palestinos que el programa identificó como “miembros de Hamas” o de la Yihad Islámica Palestina eran considerados “de bajo rango”. A esto se le sumaba Gospel, que se usaba para identificar estructuras como edificios y casas familiares.
Como reacción al reportaje de +972, las IDF negaron que se usara la IA “para identificar objetivos terroristas o para intentar predecir si una persona es terrorista”. Aseguraron, en cambio, que se usa Lavender para “producir capas actualizadas de información sobre los operativos militares de las organizaciones terroristas”. “No se trata de una lista de miembros militares confirmados como aprobados para ser atacados”, aclaró el Ejército israelí.
Sin embargo, la gran cantidad de civiles que han muerto en el conflicto hacen sospechar a los expertos sobre un uso indiscriminado de la IA. De hecho, uno de los testimonios citados por +972 aseguraba que, en un principio, se le habría permitido a los mandos militares israelíes el matar entre 15 y 20 civiles por bombardeo.
Considerando que el Ejército israelí insiste en la mayor precisión que permiten sus programas de Inteligencia Artificial, el jefe del Instituto de Inteligencia Artificial de la Universidad de Nueva Gales del Sur en Australia, Toby Walsh, aseguró a la AFP: “O bien la IA es tan buena como se afirma y al Ejército israelí no le importa el daño colateral, o no lo es”.
“Había una política completamente tolerante con respecto a las bajas provocadas por las operaciones. Una política tan tolerante que, en mi opinión, tenía algo de venganza”, admitió una fuente del reportaje sobre Lavender.
Esta no es la primera vez que una fuerza combatiente usa un sistema de identificación automatizado para la guerra. Ya ocurrió en la Guerra del Golfo, entre 1990 y 1991, cuando el Ejército estadounidense usó algoritmos para mejorar sus sistemas de identificación.
Lo mismo sucedió en Kosovo en 1999, cuando la OTAN usó algoritmos para calcular las posibles bajas civiles de los bombardeos que se proyectaban. En Afganistán también se utilizó este tipo de tecnología, sin ser estrictamente una Inteligencia Artificial, pero en la que una maquina “identifica objetivos”: en ese entonces, fue con la firma de datos Palantir, para proporcionar “análisis de las batallas”.
La historia entre el Ejército de Israel y la IA se remonta a 2021, cuando la unidad 8200 comienza a desarrollar sistemas de objetivos con los nombres de “Alquimista”, “Profundidad de Sabiduría”, “El Evangelio” y “Fábrica de Fuego”. El Evangelio, en específico, sería un sistema basado en IA concebido para “generar objetivos a un ritmo veloz”.
Según el Ejército israelí, “la extracción veloz y automatizada de inteligencia” permite a El Evangelio recomendar objetivos a sus analistas “con la meta de que haya una coincidencia total entre la recomendación de la máquina y la identificación llevada a cabo por una persona”. La base de datos que llevó a los 37 mil palestinos identificados como presuntos militares estuvo principalmente alimentada por El Evangelio.
Richard Moyes, investigador de Article 36, un grupo que lucha por reducir los daños que causan las armas, aseguró que en estos casos los comandantes que reciben la “lista de objetivos” de El Evangelio “no tienen por qué saber con qué criterios se ha redactado esa lista y tampoco pueden preguntar por los objetivos sugeridos o cuestionarlos”.
“Existe el peligro de que los humanos empiecen a depender de estos sistemas y se conviertan en eslabones de un proceso mecanizado sin capacidad de medir bien el riesgo de daño a civiles”, señaló el experto a El Diario.
Una de las fuentes del reportaje de +972 aseguró que El Evangelio terminaba sirviendo como una “fábrica de asesinatos en masa”, donde “lo importante es la cantidad y no la calidad” y habría una persona que “revisa los objetivos antes de cada ataque”, dijo, “pero no puede detenerse mucho tiempo en cada uno de ellos”.