Il conflitto

Israele sfrutta l’AI Levander per centrare gli obiettivi militari su Gaza

di |

Un Report realizzato e pubblicato da un quotidiano di Tel Aviv +972Magazine e Local Call spiega in che modo l’esercito israeliano impiega un sistema di tracciamento ed identificazione di obiettivi militari, basato su intelligenza artificiale, per colpire i miliziani di Hamas nella striscia di Gaza. Ma spesso ci vanno di mezzo anche civili e innocenti.

Il sistema “Levander” basato sull’AI

L’esercito israeliano fa ampio utilizzo dell’intelligenza artificiale militare per individuare e colpire gli obiettivi militari a Gaza, il più delle volte esseri umani. È quanto si legge in un Report realizzato dal quotidiano di Tel Aviv +972Magazine e da Local Call.

Si tratta del sistema denominato “Levander”, programma già impiegato per tracciare ed individuare possibili sospettati di terrorismo e di omicidio tra i palestinesi, oggi anche nelle operazioni militari condotte dal Governo Netanyahu a Gaza.

Durante le prime settimane della guerra Hamas-Israele, scoppiata dopo i brutali attacchi del 7 ottobre 2023, l’esercito israeliano si è affidato quasi interamente a Lavender per identificare target militari nella striscia, afferma il rapporto, citando sei ufficiali dell’intelligence israeliana presumibilmente coinvolti in prima persona nell’uso del programma.

Un margine di errore di oltre il 10%

Secondo il Report, nonostante un margine d’errore superiore al 10%, i militari dell’Idf (le forze di Difesa israeliane) hanno fatto molto affidamento sull’AI per individuare e colpire persone appartenenti alle milizie di Hamas, lavorando spesso su legami piuttosto deboli, “o assenti”, e su cui quindi sarebbe stato il caso di indagare più a fondo.

E anche la mancanza di un’indagine condotta da personale umano per assicurarsi che l’obiettivo avesse davvero legami, magari forti, con gruppi terroristici a Gaza o della jihad islamica, è un ulteriore elemento di accusa verso l’Idf: “il personale destinato a queste operazioni, normalmente, avrebbe dedicato solo “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento“, ha riferito una fonte interna all’intelligence israeliana.

Complessivamente, si legge in un articolo pubblicato su businessinsider.com, il sistema Lavender ha identificato fino a 37.000 palestinesi come sospetti “militanti di Hamas”, case comprese (e si deduce potenzialmente con famiglie all’interno) hanno riferito quattro fonti di intelligence a +972 Magazine e Local Call.

Durante le prime fasi di quest’ultimo conflitto, l’esercito israeliano autorizzò fli ufficiali affinché adottassero le liste di eliminazione prodotte da Lavender, senza alcun obbligo di verificare attentamente il motivo per cui la macchina faceva quelle scelte o di esaminare i dati grezzi forniti dall’intelligence su cui tali scelte si basavano“, si legge nel Report.

Secondo l’Idf un Report “fuorviante

Un portavoce dell’Idf ha comunque negato l’esistenza di una lista di persone da uccidere, aggiungendo che il Report in questione è “fuorviante” e contiene “false informazioni al pubblico”.

Secondo le fonti sentite, il sistema in questione è solo “un database”, il cui scopo è “incrociare dati provenienti da diverse fonti di intelligence, al fine di aggiornare tutte le informazioni in nostro possesso relative ad agenti e militanti di organizzazioni terroristiche”.

Il programma Lavender è spesso utilizzato in coppia con un altro sistema di intelligenza artificiale, “The Gospel”, di cui si è occupata nel novembre 2023 una precedente indagine di +972Magazine e Local Call, ma di cui si trova traccia anche nelle pubblicazioni dell’esercito israeliano .

La differenza fondamentale tra i due sistemi, si legge nel Report, non è da poco e sta nella definizione dell’obiettivo: “The Gospel” individua gli edifici e le strutture in cui operano i miliziani di Hamas e altre organizzazioni nemiche di ISraele, “Lavender”, invece, individua le persone e le inserisce in una lista di annientamento. 

La guerra e l’AI

Oltre alla guerra e l’impiego massiccio di nuove tecnologie, tra cui l’AI, rimane il fattore umano, cioè chi muore, chi rimane ferito o invalido.

Sono trascorsi sei mesi dall’inizio del conflitto, iniziato con il sanguinoso attacco di Hamas ne territori di Israele, che ha causato l’uccisione di circa 1200 israeliani, dicui oltre 300 partecipanti al Festival Supernova nel sud del Paese. In quel giorno terribile furono rapite e prese in ostaggio 253 persone.

Secondo l’esercito israeliano, sono stati uccisi 604 tra soldati, riservisti e agenti di sicurezza e altri 3.193 sono rimasti feriti. I soldati morti durante l’offensiva a Gaza sono 260, 41 uccisi dal fuoco amico.

L’Idf ha fatto sapere poi di aver ucciso oltre 13mila uomini di Hamas e di altri gruppi terroristici. Nella striscia di Gaza, secondo il ministero della Sanità locale, sono morte più di 33.000 persone e oltre 76.000 feriti, in gran parte donne e bambini.