Investigación palestino-israelí

Así es 'Lavanda', el algoritmo de Israel que señaló despiadadamente a 37.000 objetivos en Gaza

El algoritmo decidió en los primeros días de la guerra de Gaza quién moría y cuántos. La inteligencia artificial que usó el ejército israelí llegó a listar 37 mil objetivos, todos hombres. Señalaba sus casas y no le importaba las otras muertes que podían provocar esos ataques.

Ataques despojados de toda posible duda, empatía o atisbo de humanidad sobre zonas conocidamente residenciales sin que importaran las víctimas colaterales. Con ese fin, la unidad 8200 del CNI israelí desarrolló un nuevo programa de Inteligencia Artificial. Apodado ‘Lavender’ —lavanda, conocida como tranquilizante— pero en este caso despiadadamente letal: hasta 37.000 objetivos dijo que había que matar. Y en ello están: unos 33.000 muertos palestinos van ya.

En esa lista generada algorítmicamente sólo hay hombres, supuestos milicianos rasos de bajísimo rango. Cuyos domicilios el algoritmo señaló para "tranquilidad" de los soldados israelíes: "Bombardeamos sus casas sin dudarlo; la máquina los señalaba fríamente y nos lo ponía más fácil", cuenta un oficial de la Inteligencia israelí en una investigación divulgada hoy por el medios israelíes y palestinos (Sicha Mekomit, +972 en su versión en inglés, y Local Call).

"15 o 20 civiles" por cada miliciano muerto

Unos soldados apenas dedicaban 20 segundos a comprobar que los señalados eran eso, hombres. Y otros ejecutaban los bombardeos sin cuestionarse nada más: "Los atacamos sistemáticamente en sus hogares, normalmente de noche y con toda su familia ahí, porque así eran un blanco más fácil", señala otro de ellos. Con bombas ‘tontas’, además, señalan las fuentes militares a esta investigación palestino-israelí. Por eso, se autorizó que "¡15 o 20 civiles!" murieran junto a cada supuesto miliciano. Algo sin precedentes, reconocen. Y, por si fuera poco, el algoritmo lleva un margen de error del 10 %, por lo que puede incriminar "a personas que tienen simplemente una conexión vaga con grupos militantes, o ninguna relación en absoluto".

La argumentación de los mandos es que "confiaban más en ese mecanismo estadístico que en soldados afligidos, dado que todos ahí perdimos a alguien en el ataque de Hamás del 7 de octubre". En guerras anteriores, los militares no autorizaban ningún "daño colateral" salvo que el objetivo fuera un alto funcionario o comandante de Hamás. En la actual ofensiva, según lo publicado hoy, el Ejército contempló en varios casos la masacre de más de 100 civiles.

[[H2:‘Lavanda’ y ‘Evangelio’, IAs asesinas israelíes]]

Esta Lavanda es nueva, pero no la única IA en esta guerra: también ha estado señalando infraestructuras a destruir el llamado Gospel (palabra de Díos). Así —dicen los militares— los objetivos, la devastación, no se acaban.

laSexta/ Noticias/ Internacional