Laboratorio Gaza, intelligenza artificiale principale arma di distruzione di massa esercito israeliano

Dal blog https://codice-rosso.net/

McSilvan

A partire dagli anni ‘10 del nostro secolo l’intelligenza artificiale (IA) è diventata progressivamente l’arma principale degli eserciti più importanti non senza enormi criticità e contraddizioni. L’impiego della IA da parte delle Forze di Difesa Israeliane (IDF) cavalca pienamente questa evoluzione che sta ridefinendo i paradigmi della guerra moderna. Le IDF hanno reso operativo un sofisticato ecosistema di sistemi di IA, alterando radicalmente la velocità, la scala e la natura stessa delle loro operazioni militari. Questa trasformazione, guidata dalla dottrina strategica “Momentum”, è sostenuta da un complesso militare-industriale per certi versi unico, alimentato da investimenti statali, dal know-how proveniente da unità di intelligence d’élite come l’unità 8200 e da una profonda integrazione con i giganti tecnologici globali soprattutto americani. La portabilità della IA, la sua applicabilità in campi molto differenti, rende gli investimenti in materia particolarmente attrattivi nonostante la complessità finanziaria e operativa del settore. Una portabilità che, tra l’altro, offre ad Israele la possibilità di monitorare i movimenti di protesta a favore della Palestina con strumenti molto simili ai quali sorveglia la popolazione palestinese.

Sebbene questi sistemi offrano un’efficienza operativa senza precedenti, sono afflitti da forti criticità militari, tra cui l’inaffidabilità dei dati di input e il “bias di automazione” negli operatori umani. Come abbiamo visto recentemente, con il boicottaggio di Microsoft a unità 8200 (servizi segreti israeliani), questi sistemi sono anche esposti a mutazioni geopolitiche che ne possono improvvisamente influenzare l’evoluzione La loro applicazione nel conflitto di Gaza ha però industrializzato il processo di targeting, selezione del bersaglio, portando a una drammatica, spettacolare crescita delle morti di civili e delle distruzioni di infrastrutture non militari, sollevando profonde questioni sulla conformità di questa condotta con il diritto internazionale umanitario. Il conflitto definisce Gaza non solo come terreno da conquistare ma anche come laboratorio: è un test a fuoco vivo, vetrina globale per la commercializzazione della IA di guerra, che stabilisce pericolosi precedenti accelerando una corsa globale agli armamenti nel campo delle armi senza controllo umano. Analizziamo qui l’architettura tecnologica, le fondamenta finanziarie, le vulnerabilità strategiche e le profonde conseguenze etiche e politiche del modello di guerra guidato dall’IA delle IDF.

Gaza 2

Sezione 1: l’architettura della guerra algoritmica

1.1 L’Arsenale IA delle IDF

L’efficacia della strategia israeliana si basa su un insieme di piattaforme di IA interconnesse, ciascuna con un ruolo specifico ma complementare all’interno della catena decisionale militare israeliana

Habsora: (“Il Vangelo”): Questo sistema di IA è progettato per generare bersagli infrastrutturali, come edifici e strutture che si presume siano utilizzati da militanti. È stato sviluppato per risolvere il problema dell’esaurimento dei bersagli da parte dell’aeronautica militare israeliana nei conflitti precedenti, aumentando drasticamente il ritmo di produzione dei bersagli da circa 50 all’anno a 100 al giorno. Il sistema elabora enormi quantità di dati provenienti da fonti diverse, tra cui filmati di droni, comunicazioni intercettate e dati di sorveglianza.

Lavender: Si tratta di un database potenziato dall’IA che profila individui, assegnando un punteggio da 1 a 100 in base alla probabilità sospetta di affiliazione con Hamas o con la Jihad palestinese. Finora ha identificato fino a 37.000 palestinesi come potenziali bersagli. L’uso del sistema è stato ampiamente approvato dalle IdF dopo che un controllo a campione ha indicato un tasso di precisione del 90%,.

Fire Factory: Una piattaforma di IA che funge da strumento di pianificazione logistica e operativa. Ottimizza gli attacchi assegnando automaticamente migliaia di bersagli a varie piattaforme (caccia, droni), calcolando i carichi di munizioni ottimali e raccomandando i tempi degli attacchi sulla base di dati storici. Questo sistema lavora in sinergia con Habsora (“Il Vangelo”) per classificare e dare priorità ai bersagli.

“Where’s Daddy?”: Un sistema di tracciamento utilizzato per monitorare gli individui identificati da sistemi come Lavender, specificamente per determinare quando sono entrati nelle loro residenze private, momento in cui un attacco viene spesso attivato. Questa pratica aumenta esponenzialmente il rischio per i civili e le famiglie presenti nell’abitazione.

Sistemi ausiliari di intelligence e sorveglianza: Questo arsenale digitale è completato da piattaforme come Stargate e Starlight per la fusione di dati multi-intelligence (multi-INT) , Red Wolf per il riconoscimento facciale ai posti di blocco , e un modello linguistico di grandi dimensioni (LLM) in fase di sviluppo, addestrato su comunicazioni palestinesi intercettate per funzionare come una sorta di ChatGPT focalizzato sulla sorveglianza. Questi sistemi forniscono i dati grezzi che alimentano i motori di targeting.

La combinazione di queste piattaforme crea un ecosistema profondamente integrato. I sistemi di sorveglianza raccolgono dati su un’intera popolazione, che vengono poi immessi in sistemi di profilazione per identificare individui, le cui posizioni vengono tracciate, e le cui case vengono contrassegnate per la distruzione da un generatore di bersagli, con l’attacco eseguito tramite un ottimizzatore logistico. Questo flusso crea una catena senza soluzione di continuità dalla sorveglianza generalizzata di una popolazione civile all’azione militare letale, dissolvendo il confine tradizionale tra la raccolta di informazioni e le operazioni cinetiche e trasformando la stessa vita quotidiana in una continua fonte di dati per il targeting.

1.2 IA e erosione del controllo umano

Le IDF sostengono che questi sistemi siano semplici “sistemi di supporto decisionale” (DSS in inglese) che operano sotto un “controllo umano significativo”. Tuttavia, le prove disponibili indicano un chiaro scivolamento verso una accelerata automazione decisionale. Le testimonianze di ufficiali della stessa intelligence israeliana rivelano che la revisione umana dei bersagli generati da Lavender era spesso una mera formalità, della durata di circa 20 secondi, sufficiente solo a confermare che il bersaglio fosse di sesso maschile. Questa pratica, descritta come “apporre un timbro” (“rubber-stamping”) sulla decisione della macchina, svuota di significato il concetto di supervisione umana. Lo scopo principale di questi sistemi è accelerare la Kill chain, “catena di uccisione”, intesa come procedura formalizzata di un esercito per colpire un bersaglio, o il ciclo OODA (Osserva, Orienta, Decidi, Agisci) dell’azione militare a un ritmo che supera la capacità cognitiva umana. Questa velocità, un obiettivo primario di progettazione, marginalizza intrinsecamente la deliberazione e il giudizio umano approfonditi. La combinazione di Habsora, Lavender e Fire Factory rappresenta un cambiamento di paradigma dal targeting su misura a un processo industrializzato,  infinitamente più accelerato di una catena di montaggio, per la generazione e l’esecuzione degli attacchi. Qui non si tratta semplicemente di un miglioramento delle capacità esistenti, ma di un cambiamento qualitativo nella natura della guerra. Mentre i conflitti passati erano limitati dalla capacità umana di identificare e verificare i bersagli – l’ex capo delle IDF Aviv Kohavi ha notato che gli analisti potevano produrre 50 bersagli a Gaza in un anno – sistemi come Habsora sono stati creati esplicitamente per superare questo “collo di bottiglia”, producendo 100 bersagli al giorno. Questo processo trasforma il targeting da un’attività meticolosa guidata dall’intelligence a un processo industriale ad alto volume, dove l’obiettivo primario è massimizzare l’output, facendo completamente saltare i principi di precauzione,  proporzionalità e anche di minimo rispetto della popolazione civile.

1.3 La dottrina ‘Momentum’: una strategia di velocità e scala

Questi sistemi di IA non operano in un vuoto strategico, ma sono il fulcro della modernizzazione delle forze armate israeliane. Il Piano Pluriennale “Momentum”, avviato nel 2020, costituisce il fondamento dottrinale di questo cambiamento. Il suo obiettivo è la trasformazione digitale delle IDF, integrando le forze aeree, terrestri, navali e di intelligence in un’architettura digitale comune con  ‘IA come elemento centrale. L’obiettivo strategico è ottenere un vantaggio decisivo sui palestinesi, e non solo, attraverso la velocità e una potenza di fuoco schiacciante, comprimendo i tempi dal sensore all’attuatore (“sensor-to-shooter”) e consentendo la rapida disseminazione di informazioni operative a tutte le unità. L’IA è vista come un “moltiplicatore di forza cruciale”, necessario per affrontare avversari percepiti come sempre più sofisticati. Questa dottrina rappresenta un cambiamento fondamentale nel carattere della guerra, evolvendo verso ciò che alcuni analisti definiscono “guerra intellettualizzata” , in cui l’efficienza algoritmica e la potenza di elaborazione dei dati sono considerate i principali asset militari.

Gaza 3

Sezione 2: Il complesso militare-industriale dell’intelligenza artificiale israeliana

2.1 innovazione sponsorizzata dallo stato

Il governo israeliano coltiva attivamente il proprio settore tecnologico per la difesa attraverso un intervento finanziario diretto. Il Ministero delle finanze e la Direzione per la ricerca e lo sviluppo della difesa (DDR&D) stanno lanciando iniziative per fornire garanzie statali a fondi di venture capital focalizzati sulla tecnologia di guerra. Un piano recente stanzia 200 milioni di NIS (60 milioni di dollari) in garanzie per incentivare gli investimenti in startup di tecnologia militare avanzata e ad alto rischio. Inoltre, la DDR&D ha aumentato drasticamente i suoi investimenti diretti nelle startup, quintuplicando i finanziamenti a circa 168 milioni di dollari in un recente periodo di 11 mesi, collaborando con 86 diverse startup. Ciò dimostra una deliberata strategia statale per sfruttare l’agilità dell’ecosistema delle startup per scopi militari, con l’obiettivo dichiarato di garantire “l’indipendenza tecnologica” e mantenere una “superiorità tecnologica sul campo di battaglia” che sfocia nella distruzione della popolazione palestinese.

2.2 La filiera dell’unità 8200: dall’intelligence militare all’imprenditoria tecnologica

Una caratteristica unica dell’ecosistema israeliano è il ruolo delle unità di intelligence militare d’élite, in particolare l’unità 8200, come incubatore di fatto per le startup tecnologiche. I veterani dell’Unità 8200, responsabile dell’intelligence dei segnali (SIGINT)della decrittazione, sono molto ricercati nel settore tecnologico per le loro competenze tecniche avanzate e la loroesperienza. Molti dei sistemi di IA, tra cui Habsora e l’LLM in fase di sviluppo, sono stati creati all’interno dell’Unità 8200. Esiste una chiara e rapida filiera in cui i tecnologi formati militarmente fondano startup, spesso nei settori della cybersicurezza o dell’IA, attirando ingenti capitali di rischio. Ad esempio, i fondatori di Noma Security, una startup che ha raccolto 100 milioni di dollari, si sono conosciuti nell’unità 8200. Questo crea una relazione simbiotica in cui le esigenze militari guidano l’innovazione e il talento affinato in ambito militare la commercializza, spesso con applicazioni che possono essere rivendute al settore della difesa. Questo modello genera un ciclo che si autoalimenta: le necessità militari stimolano la R&S finanziata dallo stato all’interno di unità d’élite; i veterani di queste unità fondano startup con questa esperienza; queste startup attirano finanziamenti di Venture Capital (il cui rischio è ridotto dallo stato); le loro tecnologie vengono testate nel laboratorio Gaza, guadagnandosi l’etichetta di “testate in battaglia” (“battle-tested”); questa sorta di convalida guida le vendite globali e ulteriori investimenti, che a loro volta finanziano la prossima generazione di tecnologia militare. Si crea così una potente struttura di incentivi in cui il conflitto  è una finanza della distruzione di massa e una “opportunità” economica e tecnologica.

2.3 Il campo di battaglia della Silicon Valley

Il modello di guerra basato sull’IA di Israele dipende in modo critico dall’infrastruttura e dai servizi forniti dalle principali società tecnologiche statunitensi.

Progetto Nimbus: Si tratta di un contratto da 1,2 miliardi di dollari firmato nel 2021 con Google e Amazon Web Services (AWS) per fornire servizi di cloud computing e IA al governo e all’esercito israeliano. Questa infrastruttura è essenziale per archiviare ed elaborare gli enormi set di dati necessari per il targeting basato sull’IA.

Microsoft e OpenAI: Le IDF sono un cliente di alta priorità “S500” per Microsoft. L’uso da parte dell’esercito dei servizi cloud Microsoft Azure e dei modelli di IA avanzati di OpenAI (forniti tramite Azure) è aumentato drasticamente dopo il 7 ottobre, con un picco di utilizzo dell’IA di quasi 200 volte entro marzo 2024. Ciò include l’uso di strumenti di trascrizione e traduzione come il modello Whisper di OpenAI su comunicazioni intercettate. L’uso di Azure da parte dell’unità 8200 è stato recentemente sconfessato da Microsoft, che ha rescisso il contratto, creando un pericolo precedente per Israele.

Altri attori chiave: L’ecosistema include anche Palantir Technologies ,il principale fornitore di sistemi AI all’Ucraina, che ha una “partnership strategica” con Israele per fornire sistemi di IA per “missioni legate alla guerra” , e fornitori di hardware come Cisco e Dell. Questa profonda integrazione delle aziende tecnologiche commerciali statunitensi nelle funzioni operative principali delle IDF offusca le distinzioni tradizionali. I modelli di IA commerciali, non originariamente progettati per la guerra, vengono ora utilizzati per prendere decisioni di vita o di morte. Ciò solleva questioni critiche sulla responsabilità aziendale e sulla complicità in potenziali violazioni del diritto internazionale. Le aziende private diventano elementi essenziali delle operazioni militari di uno stato, ma possono prendere le distanze sostenendo di essere semplici fornitori di servizi. Questo “vuoto di responsabilità” è una caratteristica distintiva della guerra del XXI secolo.

Gaza 4

Sezione 3: Criticità del modello basato sull’IA

3.1 criticità militari e tecniche: la fragilità della certezza algoritmica

Nonostante la il loro livello tecnologico sofisticato, i sistemi di IA possiedono vulnerabilità fondamentali che creano significativi rischi militari.

“Garbage In, Garbage Out”: dati imperfetti e approssimazioni. I sistemi si basano su enormi set di dati derivati dalla sorveglianza di massa, che possono essere imprecisi o incompleti. Human Rights Watch ha riscontrato che gli strumenti utilizzano “dati errati e approssimazioni”. Ad esempio, l’uso della triangolazione delle torri cellulari per determinare la presenza di civili è altamente inaffidabile, specialmente in una zona di guerra con infrastrutture danneggiate e interruzioni di corrente. Ciò può indurre i comandanti a concludere erroneamente che un’area sia priva di civili.

Bias algoritmico ed errore. I modelli di IA sono vulnerabili ai bias presenti nei loro dati di addestramento e possono produrre alti tassi di errore. Il tasso di errore accettato del 10% del sistema Lavender significa che su 37.000 individui presi di mira, fino a 3.700 potrebbero essere stati identificati erroneamente fin dall’inizio. Questi non sono solo “falsi negativi” (mancare un bersaglio), ma “falsi positivi” (identificare erroneamente un civile come combattente), con conseguenze letali.

Bias di automazione: l’anello debole umano. La velocità dell’IA induce un “bias di automazione”, una tendenza cognitiva degli operatori umani a fidarsi eccessivamente e ad accettare acriticamente gli output della macchina, specialmente sotto pressione. La “revisione di 20 secondi” è un esempio da manuale di questo fenomeno, tempo oltre il quale l’essere umano nel ciclo decisionale diventa un punto di controllo procedurale piuttosto che una verifica significativa del giudizio della macchina.

Eccessiva dipendenza strategica. Il fallimento delle difese tecnologicamente avanzate di Israele al confine con Gaza il 7 ottobre 2023 serve da duro monito sui pericoli di un’eccessiva dipendenza dalla tecnologia, che può essere aggirata da tattiche asimmetriche e a bassa tecnologia. La fiducia nella supremazia tecnologica può creare punti ciechi strategici.

L’applicazione di questi sistemi nel laboratorio Gaza rivela un paradosso fondamentale. La promessa dell’IA in guerra è una maggiore precisione, che dovrebbe portare a un minor numero di vittime civili. Tuttavia, l’implementazione israeliana dimostra il contrario: l’IA è stata utilizzata per consentire una maggiore violenza su larga scala. Il potenziale di precisione della tecnologia privilegia la velocità, il volume dei bersagli e un’alta tolleranza per i danni collaterali. La tecnologia non è neutrale; il suo impatto è determinato dai parametri operativi e dal quadro etico stabiliti dai suoi utenti umani. In questo caso, l’efficienza dell’IA è stata sfruttata non per minimizzare i danni, ma per massimizzare la distruzione.

3.2 dipendenza finanziaria e geopolitica

Il modello di guerra ad alta tecnologia di Israele crea oneri finanziari significativi e dipendenze strategiche.

Sostenibilità finanziaria: sebbene Israele abbia un robusto settore tecnologico, non dispone delle risorse finanziarie e dell’infrastruttura di calcolo su larga scala di superpotenze come gli Stati Uniti e la Cina. La guerra ha messo a dura prova i suoi server, costringendo a una maggiore dipendenza da costosi servizi di aziende straniere come Microsoft e AWS. Ciò solleva questioni a lungo termine sulla sostenibilità finanziaria del mantenimento di un vantaggio tecnologico.

Dipendenza dalla tecnologia commerciale straniera: La dipendenza del modello dai fornitori di cloud e IA statunitensi (Microsoft, Google, Amazon) è una vulnerabilità strategica critica. Un cambiamento nella politica aziendale statunitense, come avvenuto per Microsoft, nella regolamentazione governativa (ad esempio, controlli più severi sull’esportazione di servizi di IA) o nella pressione pubblica (ad esempio, proteste dei dipendenti di Google e Microsoft) potrebbe interrompere l’infrastruttura fondamentale della capacità bellica delle IDF. Questo introduce una nuova forma di vulnerabilità strategica radicata nella catena di approvvigionamento tecnologico globalizzata. La capacità bellica di Israele dipende ora in parte dalle decisioni prese nelle sale riunioni della Silicon Valley e dalla stabilità dei loro servizi cloud, una dipendenza strategica inedita nell’era delle industrie della difesa a controllo statale e integrate verticalmente.

Costi reputazionali e legali: La condanna diffusa per l’alto numero di vittime civili, direttamente collegata all’uso di questi sistemi di IA, comporta significativi costi diplomatici e legali. Ciò potrebbe portare a sanzioni, embarghi sulle armi o procedimenti legali internazionali, con un impatto sulle alleanze e sulle relazioni economiche di Israele.

Gaza 5

Sezione 4: Il laboratorio Gaza: la guerra dell’IA in pratica

4.1 l’accelerazione del genocidio: targeting su scala industriale

La campagna post-7 ottobre ha visto l’impiego dei sistemi di IA su una scala senza precedenti. Nei primi 35 giorni di guerra, le IDF hanno attaccato 15.000 bersagli, un ritmo che supera di gran lunga le operazioni precedenti. Ciò è stato reso possibile da sistemi di IA in grado di “assemblare nuovi bersagli più velocemente del ritmo degli attacchi”. I sistemi hanno permesso un cambiamento nella filosofia del targeting. Invece di concentrarsi esclusivamente su comandanti militari di alto livello, Lavender è stato utilizzato per identificare e colpire decine di migliaia di sospetti militanti di basso rango, spesso nelle loro case con le loro famiglie presenti. Questo targeting di massa è stato facilitato da regole di ingaggio più permissive, comprese “soglie di danno collaterale” pre-autorizzate fino a 15-20 civili per ogni operativo di basso rango ucciso, un calcolo spesso effettuato automaticamente dal sistema. Il conflitto a Gaza non è solo un’altra guerra asimmetrica; è la prima dimostrazione su larga scala di un nuovo paradigma militare caratterizzato da un combattimento ad alto ritmo, guidato dall’IA e saturo di dati, che concretizza in una uccisione di massa le teorie sulla “guerra algoritmica” discusse per anni negli ambienti militari.

4.2 Il dibattito sui “Robot Killer” in un contesto reale

Sebbene i sistemi delle IDF non siano armi completamente autonome (LAWS), il loro uso a Gaza porta il dibattito astratto sui “robot killer” in un focus pratico e controverso. L’obiezione etica fondamentale alle LAWS è la delega di decisioni di vita o di morte a macchine che mancano di moralità e giudizio umano. Il caso di Gaza dimostra che anche con un “essere umano nel ciclo” (“human in the loop”), la velocità e la scala del sistema possono rendere la supervisione umana funzionalmente priva di significato, creando uno stato di autonomia de facto.

L’uso di questi sistemi sfida i principi fondamentali del diritto internazionale umanitario (DIU):

Distinzione: Il tasso di errore del 10% dei sistemi e la loro dipendenza da ampi profili probabilistici rischiano intrinsecamente di identificare erroneamente i civili come combattenti.

Proporzionalità: L’applicazione automatica di soglie di danno collaterale senza una valutazione umana caso per caso del vantaggio militare rispetto al danno civile fa saltare questo principio.

Precauzione: L’intero modello è progettato per aggirare il processo di verifica attento e dispendioso in termini di tempo che la precauzione richiede, dando priorità alla velocità sopra ogni altra cosa.

4.3 deumanizzazione digitale e vuoto di responsabilità

Il processo di targeting algoritmico favorisce un senso di distacco e “deumanizzazione digitale”. I bersagli umani sono ridotti a punti dati e a un punteggio numerico, rendendo più facile per gli operatori autorizzare gli attacchi. Fonti hanno riferito che ci si riferiva ai bersagli di basso livello politico come “spazzatura” (“garbage”) , indicando un profondo distanziamento psicologico facilitato dall’interfaccia della macchina. Emerge un significativo vuoto di responsabilità. Se un attacco basato su una raccomandazione errata dell’IA uccide dei civili, chi è responsabile? L’operatore che ha impiegato più di 20 secondi per la revisione? Il programmatore che ha scritto l’algoritmo? Il comandante che si è fidato del tasso di precisione del sistema? O la macchina stessa? Questa mancanza di una chiara attribuzione di responsabilità è una sfida centrale posta dall’IA in guerra.L’uso di sistemi come Lavender, che assegnano un punteggio probabilistico di colpevolezza, segna un cambiamento fondamentale da uno standard di targeting basato sull’evidenza a uno basato sulla probabilità statistica. Questo normalizza l’idea che la forza letale possa essere applicata sulla base del calcolo di probabilità di un algoritmo, con un margine di errore accettato che si traduce direttamente in civili morti. Si tratta di un profondo, se non definitivo, allontanamento dalle norme legali ed etiche che dovrebbero governare l’uso della forza.

prima e dopo1

Sezione 5: Gaza come laboratorio e vetrina

5.1 “testato in battaglia”: la commercializzazione della guerra dell’IA

Il conflitto a Gaza viene usato come un laboratorio e commercializzato come una vetrina a cielo aperto per validare e commercializzare la tecnologia militare israeliana. Israele ha una lunga storia nell’etichettameneno delle sue armi e tecnologie di sorveglianza come “testate in battaglia” o “provate sul campo” nei territori palestinesi, il che aggiunge un valore significativo nel mercato internazionale delle armi.Anche prima del conflitto attuale, Israele ha promosso la sua operazione a Gaza del 2021 come la “prima guerra dell’IA” e ha mostrato le sue difese di confine automatizzate a funzionari della NATO. Gaza funziona come un laboratorio vivente dove l’efficacia di questi sistemi di IA può essere dimostrata a potenziali clienti internazionali, trasformando le operazioni militari in un’opportunità di marketing e alimentando una redditizia industria della sicurezza. Questo crea un incentivo economico diretto a impiegare e testare nuovi sistemi d’arma in zone di conflitto attivo, posizionando Israele non solo come venditore di armi, ma come principale fornitore di un nuovo concetto di guerra che può essere esportato.

5.2 Israele, gli Stati Uniti (Progetto Maven) e la Cina

Contestualizzare l’approccio delle IDF nel panorama globale rivela diverse filosofie di integrazione dell’IA.

Stati Uniti (Progetto Maven): Iniziato come un’iniziativa del Dipartimento della Difesa per analizzare filmati di droni, il Progetto Maven si è evoluto in un sistema di raccomandazione di bersagli abilitato dall’IA, utilizzato in Medio Oriente. Come i sistemi israeliani, mira ad accelerare il targeting, ma sembra esserci una maggiore enfasi nella dottrina statunitense sulla verifica umana, sebbene anche le realtà pratiche di quest’ultima siano oggetto di dibattito. L’accuratezza di Maven nei test (60%) è risultata notevolmente inferiore a quella degli analisti umani (84%), evidenziando le continue sfide tecniche.

Cina (“Guerra Intellettualizzata”): La Cina sta perseguendo una strategia nazionale per diventare leader nell’IA, con l’Esercito Popolare di Liberazione (PLA) che sviluppa sistemi di combattimento intelligenti senza pilota per una “guerra intellettualizzata”. L’approccio cinese è caratterizzato da un modello di fusione civile-militare guidato dallo stato, volto a raggiungere la primazia tecnologica. Pur chiedendo pubblicamente il divieto delle LAWS alle Nazioni Unite, la sua politica interna e la R&S suggeriscono una strategia a doppio binario di rapido sviluppo.

La Nicchia di Israele: L’approccio di Israele appare il più aggressivo dal punto di vista operativo e il più rapidamente implementato tra i tre, sfruttando il suo unico ecosistema di startup e uno stato di conflitto costante per accelerare il ciclo di sviluppo-test-impiego.

5.3 precedenti e proliferazione: il futuro del conflitto algoritmico

L’uso di sistemi di targeting basati sull’IA nel laboratorio Gaza sta creando un precedente globale potente e pericoloso. Normalizza l’uso dell’IA nei processi di targeting, abbassando la soglia per altre nazioni ad adottare tecnologie simili. Il successo di questi sistemi nel generare bersagli su larga scala, indipendentemente dal costo umano, stimolerà probabilmente una corsa globale agli armamenti nell’IA militare e nelle armi autonome, poiché le nazioni si sentiranno obbligate a tenere il passo. L’effetto a catena geopolitico è significativo. L’uso diffuso e la successiva commercializzazione di questi sistemi costringeranno altre potenze militari a reagire. Questo va oltre una semplice corsa agli armamenti; obbligherà le nazioni a ripensare le loro intere strutture militari, il reclutamento (favorendo i data scientist rispetto ai soldati tradizionali) e le dottrine etiche. L’iniziativa Replicator degli Stati Uniti e la spinta della Cina per l’”intellettualizzazione” sono risposte dirette a questa realtà emergente. La mancanza di un quadro giuridico internazionale chiaro per governare queste armi  significa che questa proliferazione sta avvenendo in un vuoto normativo, aumentando il rischio che i conflitti futuri siano combattuti con un controllo umano ancora minore e una letalità maggiore.

L’adozione da parte delle Forze di Difesa Israeliane di un modello di guerra guidato dall’IA rappresenta un punto di svolta nel conflitto moderno. L’integrazione di sistemi come Habsora, Lavender e Fire Factory in una dottrina focalizzata sulla velocità e la scala ha creato una macchina da guerra di un’efficienza senza precedenti nella generazione e nell’esecuzione di attacchi. Questo progresso tecnologico, tuttavia, è intrinsecamente legato a un ecosistema che fonde investimenti statali, innovazione del settore privato e infrastrutture tecnologiche globali, creando un potente ciclo di feedback in cui il conflitto alimenta l’innovazione economica e tecnologica.

Tuttavia, questo modello è afflitto da profonde vulnerabilità. Dal punto di vista militare, la dipendenza da dati potenzialmente imperfetti e la suscettibilità degli operatori umani al bias di automazione minano la promessa di una precisione chirurgica, trasformando invece l’IA in uno strumento per un targeting di massa con un’alta tolleranza per l’errore e il danno collaterale. Dal punto di vista strategico, la dipendenza dalle piattaforme commerciali della Silicon Valley introduce una nuova forma di vulnerabilità geopolitica.

L’applicazione di questo modello a Gaza ha sollevato allarmi a livello globale, dimostrando come la tecnologia possa essere utilizzata per aggirare i principi fondamentali del Diritto internazionale umanitario. Ha trasformato il dibattito teorico sui “robot killer” in una realtà tangibile, evidenziando un urgente vuoto di responsabilità e la normalizzazione di una forma di violenza probabilistica.

Guardando al futuro, il laboratorio Gaza funge da catalizzatore. Sta stabilendo un nuovo standard per la guerra ad alta tecnologia che altre nazioni si sentiranno costrette a emulare, accelerando una corsa globale agli armamenti nel campo dell’IA in assenza di un quadro normativo internazionale. La comunità internazionale si trova di fronte a una sfida critica: sviluppare norme e trattati vincolanti che garantiscano un controllo umano significativo sull’uso della forza prima che la logica algoritmica della velocità e della scala superi permanentemente la capacità umana di deliberazione, giudizio e responsabilità morale.

per Codice Rosso, nlp

Fonti

  1. The Israeli Military’s Use of AI in Gaza: Operational Efficiency at the Cost of Humanity, https://www.iemed.org/publication/the-israeli-militarys-use-of-ai-in-gaza-operational-efficiency-at-the-cost-of-humanity/
  2. Gaza as a testing ground: Israel’s AI warfare -, https://www.setav.org/en/gaza-as-a-testing-ground-israels-ai-warfare
  3. AI-assisted targeting in the Gaza Strip – Wikipedia, accessed September 25, 2025, https://en.wikipedia.org/wiki/AI-assisted_targeting_in_the_Gaza_Strip
  4. Israel’s Targeting AI: How Capable is It? | Royal United Services Institute -, https://www.rusi.org/explore-our-research/publications/commentary/israels-targeting-ai-how-capable-it
  5. Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza | Human Rights Watch, https://www.hrw.org/news/2024/09/10/questions-and-answers-israeli-militarys-use-digital-tools-gaza
  6. Habsora (הבשורה) and Lavender (אֲזוֹבִיוֹן) Artificial …,, https://www.atlantic-forum.com/our-views/habsora-and-lavender-artificial-intelligence-systems
  7. IDF uses AI to accelerate targeting according to report, the White House releases guidance on federal AI use, and a roundup of the latest computing and funding news | Center for Security and Emerging Technology – CSET, https://cset.georgetown.edu/newsletter/april-11-2024/
  8. NEW Info Flash PDF – Finabel,, https://finabel.org/wp-content/uploads/2025/04/IF-Dimitra-Pateraki-April-2025.pdf
  9. Embracing Big Data and AI Strategically: The Digital Transformation of the IDF, accessed https://theairpowerjournal.com/big-data-ai-digital-transformation-idf/
  10. AI targeting in Gaza and beyond – Project Ploughshares,, https://ploughshares.ca/ai-targeting-in-gaza-and-beyond/
  11. Gaza war: Israel using AI to identify human targets raising fears that innocents are being caught in the net – Queen Mary University of London,, https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net.html
  12. Israel’s Use of AI targeting in Gaza and the West Bank , https://www.icjpalestine.com/wp-content/uploads/2025/08/G300-Israels-Use-of-Artificial-Intelligence.pdf
  13. Explainer: The Role of AI in Israel’s Genocidal Campaign Against Palestinians, https://www.palestine-studies.org/en/node/1656285
  14. Israel’s AI-enabled targeting of Hamas members jeopardizes moral and legal standards of warfare – Background – Utrecht University, https://www.uu.nl/en/achtergrond/israels-ai-enabled-targeting-of-hamas-members-jeopardizes-moral-and-legal-standards-of-warfare
  15. Israeli Forces Display Power of AI, but it is a Double-edged Sword, https://www.rsis.edu.sg/wp-content/uploads/2024/04/CO24054.pdf
  16. Israeli Forces Display Power of AI, but it is a Double-edged Sword – RSIS, https://rsis.edu.sg/rsis-publication/rsis/israeli-forces-display-power-of-ai-but-it-is-a-double-edged-sword/
  17. Israeli defense tech to get state-backed guarantees to support innovation, https://www.timesofisrael.com/israeli-defense-tech-to-get-state-backed-guarantees-to-support-innovation/
  18. Israel’s Ministry of Defense quintupled start-up funding in last year, https://breakingdefense.com/2024/12/israels-ministry-of-defense-pours-money-into-start-ups/
  19. Tel Aviv startup raises $100 million to secure AI applications and autonomous agents, https://www.timesofisrael.com/tel-aviv-startup-raises-100-million-to-secure-ai-applications-and-autonomous-agents/
  20. As Israel uses US-made AI models in war, concerns arise about tech’s role in who lives and who dies, https://apnews.com/article/israel-palestinians-ai-technology-737bc17af7b03e98c29cec4e15d0f108
  21. US tech firms’ AI services bolster Israeli military, sparking civilian casualty concerns,, https://www.aa.com.tr/en/world/us-tech-firms-ai-services-bolster-israeli-military-sparking-civilian-casualty-concerns/3486897
  22. How US tech giants supplied Israel with AI models, raising questions about tech’s role in warfare | AP News,, https://apnews.com/article/israel-palestinians-ai-weapons-430f6f15aab420806163558732726ad9
  23. Artificial Intelligence as a Weapon of War – VTechWorks,, https://vtechworks.lib.vt.edu/bitstreams/e0635767-0076-4ae6-9fc3-0f35b4ad99c7/download
  24. Israel-Hamas 2024 Symposium – AI-Based Targeting in Gaza: Surveying Expert Responses and Refining the Debate – Lieber Institute, https://lieber.westpoint.edu/ai-based-targeting-gaza-surveying-expert-responses-refining-debate/
  25. Technological Evolution on the Battlefield – CSIS, https://www.csis.org/analysis/chapter-9-technological-evolution-battlefield
  26. Israel’s AI sector will struggle amid Gaza conflict | Expert Briefings | Emerald Publishing,, https://www.emerald.com/expert-briefings/article/doi/10.1108/OXAN-DB284819/1217835
  27. Microsoft & OpenAI allegedly aided Israeli targeting in Gaza through AI & cloud services, https://www.business-humanrights.org/en/latest-news/microsoft-openai-allegedly-aided-israeli-targeting-in-gaza-through-ai-cloud-services/
  28. The Pentagon used Project Maven-developed AI to identify air strike targets – Engadget, , https://www.engadget.com/the-pentagon-used-project-maven-developed-ai-to-identify-air-strike-targets-103940709.html
  29. Gaza: Israel’s AI Human Laboratory – The Cairo Review of Global …, accessed September 25, 2025, https://www.thecairoreview.com/essays/gaza-israels-ai-human-laboratory/
  30. Security Council LIVE: Guardrails urgently needed for AI on the battlefield, warns Guterres, https://news.un.org/en/story/2025/09/1165941
  31. 1 Submission to the United Nations Secretary-General on “Artificial intelligence in the military domain and its implications, https://docs-library.unoda.org/General_Assembly_First_Committee_-Eightieth_session_(2025)/79-239-SKR-EN.pdf
  32. The ethical implications of AI in warfare – Queen Mary University of London, https://www.qmul.ac.uk/research/featured-research/the-ethical-implications-of-ai-in-warfare/
  33. ‘The Palestine Laboratory’ exposes Israel’s export of unique systems of control and surveillance technology around the world | Al Jazeera Media Network, accessed September 25, 2025, https://network.aljazeera.net/en/press-releases/%E2%80%98-palestine-laboratory%E2%80%99-exposes-israel%E2%80%99s-export-unique-systems-control-and
  34. Maven, A System That Analyzes Satellite Data to Identify Targets in Real-World Conflicts , https://www.deeplearning.ai/the-batch/maven-a-system-that-analyzes-satellite-data-to-identify-targets-in-real-world-conflicts/
  35. US used AI to find targets for strikes on Syria and Yemen – The National News, https://www.thenationalnews.com/world/us-news/2024/02/26/us-ai-syria-yemen/
  36. China’s Military Employment of Artificial Intelligence and Its Security Implications, https://www.iar-gwu.org/print-archive/blog-post-title-four-xgtap
  37. Lethal Autonomous Weapons: The Next Frontier in International Security and Arms Control, https://fsi.stanford.edu/sipr/content/lethal-autonomous-weapons-next-frontier-international-security-and-arms-control
  38. China’s Strategic Ambiguity on the Issue of Autonomous Weapons Systems, https://scholarhub.ui.ac.id/global/vol24/iss1/1/
  39. The Autonomous Arsenal in Defense of Taiwan: Technology, Law, and Policy of the Replicator Initiative | The Belfer Center for Science and International Affairs, https://www.belfercenter.org/replicator-autonomous-weapons-taiwan

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.