Follie da Intelligenza artificiale e l’Italia ora chiude l’ambasciata

Dal blog https://www.remocontro.it/

  • 04 Marzo 2026 Remocontro

L’Italia, ultimo Paese occidentale con la propria rappresentanza diplomatica ancora aperta in Iran, ordina di chiudere l’ambasciata -ci comunicano nostre fonti-, e di rientrare (provarci) via Caucaso e Turchia.

Il quotidiano britannico The Guardian sull’uso di sistemi di intelligenza artificiale negli attacchi degli Stati Uniti e Israele contro l’iran. La guerra moderna in cui la velocità  degli attacchi vince sulla loro ragionevolezza. ‘Intelligenza’ molto artificiale a partire dalla strage di 165  scolare nel primo giorno di attacco. 

Intelligenza artificiale al comando?

Secondo il Guardian, il modello di intelligenza artificiale Claude, di proprietà di Anthropic, utilizzato contro l’Iran, ha un ruolo chiave nell’accelerare la «catena di morte» tra identificazione bersaglio, l’approvazione dei comandi e l’esecuzione dell’attacco. Stati Uniti e Israele, che in precedenza avevano utilizzato l’intelligenza artificiale per identificare obiettivi a Gaza, hanno effettuato circa 900 attacchi contro il regime iraniano solo nelle prime 12 ore, attacchi che hanno ucciso Ali Khamenei. Esperti accademici hanno dichiarato al Guardian che l’intelligenza artificiale ha ridotto drasticamente il tempo necessario per pianificare attacchi complessi, un fenomeno noto come «compressione decisionale». Alcuni temono che questa tendenza ridurrà il ruolo degli esseri umani alla mera approvazione di decisioni prese in realtà dalle macchine.

Le macchine assassine

Secondo il Guardian, Entropic fornisce il suo modello al Dipartimento della Guerra degli Stati Uniti e ad altre agenzie per la sicurezza nazionale dal 2024. La rete globale di server che fa parte di un sistema sviluppato dall’azienda di tecnologia militare Palantir e il Pentagono per «migliorare drasticamente l’analisi delle informazioni e facilitare il processo decisionale da parte dei funzionari». «L’intelligenza artificiale suggerisce cosa colpire, e in alcuni casi è più veloce del pensiero. Si stanno portando avanti attacchi mirati e si sta anche ostacolando la capacità di risposta del regime. Ciò che prima richiedeva giorni o settimane, ora avviene istantaneamente». Salvo tragici errori per informazioni base sbagliate. L’uomo che spia.

Dati di fatto e poche certezze

I nuovi sistemi sono in grado di analizzare enormi quantità di dati, dalle immagini dei droni alle intercettazioni delle comunicazioni, fino all’intelligence umana. Il sistema di Palantir stabilisce la priorità degli obiettivi, suggerire le armi appropriate e utilizza persino il ‘ragionamento automatico’ per valutare la base giuridica di un attacco. Ma David Leslie, professore di etica e tecnologia alla Queen Mary University di Londra, ha avvertito il Guardian che un eccessivo affidamento all’intelligenza artificiale potrebbe portare a un ‘disimpegno cognitivo’ –sospetto Casa Bioanca-, allontanamento dei decisori umani dalle conseguenze umane degli attacchi.

Errori tragici

Il Guardian sulle conseguenze umanitarie degli attacchi, scrive dell’attacco missilistico contro una scuola nel sud del Paese che ha ucciso 165 persone, secondo i media statali iraniani. Le Nazioni Unite hanno descritto l’attacco come una «grave violazione dei diritti umanitari», mentre l’esercito statunitense ‘sta indagando’. Intelligenza stupida di chi? Teheran ha sempre affermato di utilizzare la tecnologia AI solo nei sistemi di puntamento missilistico dal 2025. Tuttavia, il programma di intelligenza artificiale dell’Iran è considerato limitato rispetto a Stati Uniti e Cina a causa delle sanzioni internazionali.

‘Intelligenza’ miliardaria

Il Guardian conclude scrivendo che, con l’aumento del ruolo dell’intelligenza artificiale nella guerra, OpenAI ha anche firmato un contratto con il Pentagono, mentre Entropic aveva precedentemente annunciato che non avrebbe consentito l’utilizzo dei suoi modelli per armi completamente autonome o per la sorveglianza dei cittadini americani. Secondo gli esperti  il vantaggio principale di questi sistemi è la ‘velocità del processo decisionale’, ma questa velocità ha sollevato seri interrogativi etici e legali sul ruolo degli esseri umani nelle decisioni mortali.

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.