Israele ha davvero usato l’Ia per identificare gli appartenenti ad Hamas?

Secondo alcune indiscrezioni Israele starebbe usando l’intelligenza artificiale per stanare gli appartenenti ad Hamas. “Tutti, compreso me, abbiamo perso qualcuno il 7 ottobre. La macchina lo ha fatto freddamente e ha reso le cose più facili”. Così un funionario dell’intelligence israeliana ha descritto il presunto impatto dell’intelligenza artificiale durante il conflitto con Hamas a Gaza.

Striscia di Gaza
Striscia di Gaza | Ansa – Newsby.it

Durante sei mesi di guerra, i militari israeliani avrebbero infatti impiegato un database alimentato dall’intelligenza artificiale, conosciuto con il nome in codice ‘Lavender’, per identificare ben 37.000 potenziali obiettivi presumibilmente legati all’organizzazione terroristica. Queste informazioni emergono da una fonte anonima citata in un rapporto. Tuttavia, si ammette che gli alti ufficiali israeliani abbiano anche autorizzato l’uccisione di molti civili palestinesi, specialmente nelle prime fasi del conflitto.

Ma le forze di difesa israeliane (IDF) hanno in parte smentito tali accuse. Il racconto fornito offre uno sguardo inedito sulle esperienze dei funzionari dei servizi israeliani nell’utilizzo dell’intelligenza artificiale per identificare gli obiettivi durante la guerra. Questo solleva questioni etiche e morali riguardo al crescente ruolo della tecnologia nelle operazioni militari e alla sua relazione con l’uomo. Un funzionario dell’intelligence coinvolto nell’utilizzo del sistema ‘Lavender’ ha sottolineato la limitata partecipazione umana nel processo di selezione degli obiettivi, che si basava su un approccio principalmente meccanico e statisticamente orientato.

La testimonianza degli ufficiali: “Attestato un numero accettabile di civili uccisi”

La testimonianza di sei ufficiali dell’intelligence, coinvolti nell’impiego dell’intelligenza artificiale per individuare gli obiettivi di Hamas e della Jihad islamica, è stata condivisa con il giornalista Yuval Abraham per un articolo pubblicato su diverse riviste. Secondo quanto emerso in queste interviste ‘Lavender’ sarebbe quindi stato sviluppato dall’Unità 8.200, una divisione d’elite dell’intelligence delle IDF, paragonabile ad agenzie di intelligence di altri paesi occidentali.

Numerose fonti hanno descritto come, per determinate categorie di obiettivi, le forze di difesa israeliane applicassero delle soglie pre-autorizzate per il numero stimato di civili che potevano essere uccisi prima che un attacco fosse autorizzato. Durante le prime settimane di guerra, pare fosse permesso uccidere 15 o 20 civili durante gli attacchi aerei contro militanti di basso rango. Gli attacchi a tali obiettivi venivano effettuati con munizioni non guidate, note come ‘bombe stupide’, causando gravi danni alle abitazioni e causando la morte di numerosi civili.

Le bombe “stupide” e i danni collaterali

Un ufficiale dell’intelligence ha giustificato questa pratica sostenendo che non si vogliono sprecare bombe costose per persone non considerate importanti. Tuttavia, un altro ha rivelato che la domanda principale era se il “danno collaterale” ai civili permettesse comunque l’attacco. E, anche in caso negativo, si passava immediatamente all’obiettivo successivo, in un ciclo senza fine che vedeva continuamente nuovi obiettivi da prendere di mira.

Le forze di difesa israeliane hanno tuttavia smentito, almeno in parte, il rapporto, dichiarando la necessità di valutazioni indipendenti per garantire la legittimità degli obiettivi degli attacchi, in conformità con le direttive e il diritto internazionale. In questo contesto, emerge chiaramente la complessità delle questioni morali, etiche e legali legate all’uso dell’intelligenza artificiale nelle operazioni militari, richiedendo un dibattito approfondito e un’attenzione costante per garantire il rispetto dei diritti umani e delle norme internazionali.

Impostazioni privacy