Politica

Lavander l’algoritmo che uccide

Lavander è il nome del programma di Ai intelligenza artificiale che ha guidato e guida i target dell’esercito israeliano dall’inizio del conflitto per quel maledetto 7 ottobre. Il programma è stato elaborato dalla divisione di intelligence d’élite delle forze di difesa israeliane, l’Unità 8200.

Utilizzato sopratutto nella prima fase delle operazioni, Lavander è stato programmato per suggerire gli obbiettivi da eliminare.

L’Unità 8200 ha quindi immesso un’infinità di dati per arrivare a identificare giovani che in un modo o l’altro hanno avuto contatti o possibili contatti con Hamas. 37.000 sono i giovani che il programma artificiale ha identificato come potenzialmente pericolosi.

I 37.000 sono diventati l’obbiettivo da eliminare. 

Ma i 37.000 sono target di basso livello, non conviene sprecare soldi. Così si usano le cosiddette bombe stupide, bombe che tirano giù un intero edificio creando degli enormi danni collaterali. 

“quando si tratta di un militante giovane, non si vuole investire tempo e manodopera in esso” dice uno dei sei ufficiali dell’intelligence israeliana che hanno fornito queste informazioni al giornalista Yuval Abraham. “È molto più facile bombardare la casa di una famiglia”

Un algoritmo decide quindi chi deve morire, una condanna a morte senza giudice, senza processo. Poi, siccome le armi costano, per effettuare la condanna si usano bombe che non centrano chirurgicamente il bersaglio, ma cadono pesanti distruggendo tutto quello che trovano. 

Danni collaterali vengono chiamate le vittime innocenti.