Categorie
Inchieste

Lavender: come l’intelligenza artificiale ha aiutato Israele nell’uccidere innocenti in 20 secondi

Tempo di lettura: 2 minuti. Lavender, un sistema IA usato dall’esercito israeliano a Gaza, solleva questioni etiche cruciali sulle tecnologie in contesti di conflitto.

Tempo di lettura: 2 minuti.

Secondo un’inchiesta congiunta di +972 Magazine e Local Call, l’esercito israeliano avrebbe impiegato l’intelligenza artificiale, attraverso un sistema chiamato Lavender, per selezionare gli obiettivi di bombardamento a Gaza da parte di Israele. Questa pratica avrebbe sacrificato l’accuratezza in favore della velocità, risultando nella morte di migliaia di civili.

Lavender e il dilemma Etico

Sviluppato in seguito agli attacchi di Hamas del 7 ottobre, Lavender avrebbe identificato 37.000 palestinesi a Gaza come presunti “militanti di Hamas”, autorizzandone l’assassinio. Nonostante le smentite ufficiali riguardo l’esistenza di una “lista di eliminazione”, la descrizione di Lavender da parte di Israele come “semplice strumento per analisti nel processo di identificazione degli obiettivi” solleva questioni significative sull’uso dell’IA in contesti militari e le sue implicazioni per il diritto internazionale e le direttive IDF.

Il processo di selezione degli obiettivi

Lavender è stato addestrato utilizzando dati su noti operativi di Hamas e della Jihad Islamica Palestinese, ma anche su individui vagamente affiliati a Hamas, come i dipendenti del Ministero della Sicurezza Interna di Gaza. Il sistema identificava “caratteristiche” associate agli operativi di Hamas, come l’appartenenza a un gruppo WhatsApp con un militante noto o il frequente cambio di indirizzi. Questi dati venivano utilizzati per classificare altri palestinesi in Gaza su una scala da 1 a 100, con quelli che superavano una certa soglia segnati come obiettivi per gli attacchi.

Danni collaterali

Le regole di ingaggio consentivano una significativa tolleranza per le vittime civili, con un rapporto consentito di fino a 15-20 civili per ogni operativo di Hamas di basso livello preso di mira da Lavender. Questa politica ha portato alla tragica perdita di vite innocenti, con famiglie intere spesso eliminate nei loro stessi domicili senza verifica della presenza del bersaglio.

Guerra AI-driven

La controversia intorno a Lavender è emblematica dell’uso crescente di tecnologie di sorveglianza e IA da parte di Israele nei confronti dei palestinesi, sia nella Striscia di Gaza che in Cisgiordania. Questo solleva preoccupazioni significative non solo per i diritti umani ma anche per l’etica dell’impiego dell’IA in scenari di guerra, dove le decisioni algoritmiche possono avere conseguenze fatali e irreversibili.

Decisioni automatizzate e conseguenze

Nelle prime fasi del conflitto, l’esercito ha dato un’approvazione generalizzata all’adozione delle liste di eliminazione di Lavender, senza richiedere di verificare accuratamente le scelte della macchina o esaminare i dati dell’intelligence su cui si basavano. Secondo le fonti, il personale umano fungeva spesso solo da “timbro” per le decisioni della macchina, dedicando circa “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento, solo per assicurarsi che il bersaglio segnato da Lavender fosse maschile.

Obiettivi e danni collaterali

L’esercito israeliano attaccava sistematicamente gli individui segnati mentre si trovavano nelle loro case, di solito di notte mentre erano presenti le loro famiglie intere, piuttosto che durante l’attività militare. Questo ha portato alla morte di migliaia di palestinesi, per lo più donne e bambini o persone non coinvolte nei combattimenti, a causa delle decisioni del programma IA.

Distinzione tra Lavender e ‘The Gospel’

Lavender si aggiunge a un altro sistema IA, “The Gospel“, riguardo al quale sono state rivelate informazioni in un’indagine precedente. Una differenza fondamentale tra i due sistemi sta nella definizione dell’obiettivo: mentre The Gospel segna edifici e strutture da cui si ritiene operino i militanti, Lavender segna le persone – inserendole in una lista di eliminazione.

L’uso di Lavender e sistemi simili solleva interrogativi critici sull’impiego dell’IA in contesti di conflitto, evidenziando la tensione tra l’efficienza operativa e i principi etici fondamentali. Mentre la tecnologia continua a evolversi, il dibattito sull’etica della guerra AI-driven e il rispetto dei diritti umani rimane di cruciale importanza.

Di Livio Varriale

Giornalista e scrittore: le sue specializzazioni sono in Politica, Crimine Informatico, Comunicazione Istituzionale, Cultura e Trasformazione digitale. Autore del saggio sul Dark Web e il futuro della società digitale “La prigione dell’umanità” e di “Cultura digitale”. Appassionato di Osint e autore di diverse ricerche pubblicate da testate Nazionali. Attivista contro l’abuso dei minori, il suo motto è “Coerenza, Costanza, CoScienza”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version