Il Pentagono sta facendo forti pressioni su Anthropic

Dal blog https://www.ilpost.it/2

Mercoledì 25 febbraio 2026

Il segretario alla Difesa statunitense Pete Hegseth (Saul Martinez/Bloomberg)

Il segretario alla Difesa degli Stati Uniti, Pete Hegseth, ha chiesto alla società Anthropic di rendere disponibili i suoi sistemi di intelligenza artificiale per qualsiasi uso militare entro venerdì prossimo, minacciando di annullarle i contratti nel caso in cui non si adegui alla richiesta. L’esistenza di questa sorta di ultimatum è stata confermata dai principali giornali statunitensi, grazie a fonti interne al Pentagono, e segna un ulteriore inasprimento dei rapporti tra il governo statunitense e Anthropic, che è una delle principali aziende nel settore delle AI.

Hegseth vuole integrare rapidamente queste tecnologie nei programmi di difesa, Anthropic chiede invece garanzie e cautele sul loro impiego in azioni sul campo e nei programmi di sorveglianza di massa.

Anthropic, conosciuta soprattutto per il chatbot Claude, è stata la prima società di AI a ricevere contratti di centinaia di milioni di dollari dal Pentagono per la gestione di documenti secretati e legati alla sicurezza nazionale.

Per questo i suoi sistemi sono usati da numerosi fornitori dell’esercito degli Stati Uniti, integrati direttamente nei loro servizi o utilizzati per svilupparli. Le aziende informatiche che ottengono questo tipo di autorizzazioni sono poche e sono tenute strettamente sotto controllo dalla Difesa degli Stati Uniti.

Da diverso tempo però i contratti con il Pentagono mettono in difficoltà Anthropic. Tra le persone che lavorano al suo interno c’è un certo malumore per l’impiego dei sistemi sviluppati a scopi militari e i clienti della società, a cominciare dai singoli utenti, hanno manifestato per lo meno perplessità su questo tipo di collaborazioni. Soprattutto attraverso il suo CEO, Dario Amodei, in questi anni Anthropic aveva infatti cercato di distinguersi dalle altre società impegnate nelle AI – come Meta, Alphabet e OpenAI – segnalando non solo maggiore attenzione alla tutela dei dati degli utenti, ma anche cautele nello sviluppo di sistemi che potrebbero essere pericolosi per la collettività.

Proprio per via di queste posizioni, Amodei ha detto in più occasioni di non voler consentire l’uso dei sistemi di AI della propria azienda né in azioni militari che potrebbero portare all’uccisione di qualcuno né per attività di sorveglianza di massa. Hegseth è però interessato a entrambe queste possibilità e sostiene che Anthropic debba offrire tutti i propri servizi senza limitazioni. Cita spesso un uso “nei limiti di legge” di queste tecnologie, ma molte norme non si occupano ancora estesamente di AI e ci sono quindi ampie aree grigie. A inizio anno parlando dell’importanza dei sistemi di intelligenza artificiale per l’esercito, Hegseth ha detto: «Dobbiamo accettare che i rischi di non muoversi abbastanza velocemente superano i rischi di un allineamento imperfetto».

Per provare a risolvere questo stallo, martedì Hegseth ha incontrato Amodei a Washington, in una riunione che è stata definita dai giornali statunitensi cordiale, ma al tempo stesso inconcludente. Amodei ha confermato le proprie posizioni e Hegseth ha in seguito minacciato di rivedere gli accordi, citando due alternative.

La prima è che Anthropic venga indicata come una “supply-chain risk”, cioè come un fornitore del governo che costituisce un qualche rischio per la sicurezza nazionale. È una soluzione che viene adottata di solito per impedire ad aziende estere di fare affari negli Stati Uniti, soprattutto in settori strategici come quelli delle telecomunicazioni o appunto della difesa. Una definizione di questo tipo avrebbe serie conseguenze non solo su Anthropic, ma su decine di altri fornitori del Pentagono che in questi anni si sono messi a utilizzare proprio le tecnologie di Anthropic all’interno dei propri sistemi. Dovrebbero eliminarle e dimostrare di non avere più legami con l’azienda, altrimenti rischierebbero sanzioni o la perdita di contratti milionari.

Sempre secondo i giornali statunitensi, la seconda opzione che sta valutando Hegseth è quella di attivare il “Defense Production Act”, una norma che viene di solito usata durante le emergenze nazionali nel settore energetico e in quello della salute (era stato per esempio attivato durante la pandemia da coronavirus per accelerare lo sviluppo e la produzione dei vaccini). In questo caso il governo potrebbe obbligare Anthropic a fornire i servizi richiesti, ma potrebbero esserci ricorsi e contenziosi in tribunale. Le due opzioni sono comunque agli estremi opposti: la prima escluderebbe Anthropic dalle attività della difesa, la seconda renderebbe obbligatoria la sua partecipazione nei limiti decisi dal governo.

Un funzionario della difesa consultato dal Wall Street Journal ha detto che Anthropic ha tempo fino alle 17:01 (le 23:01 in Italia) per rispondere alle condizioni poste da Hegseth. Non è invece chiaro come e quando sarebbe attivata una delle opzioni minacciate dal segretario della Difesa.

Nonostante i contratti dovuti alla grande utilità dei suoi sistemi in ambito militare, Anthropic non è ben vista dall’attuale governo degli Stati Uniti. La società è stata fondata nel 2021 da alcuni ex dipendenti di OpenAI, compreso Amodei, che decisero di lasciarla ritenendo che stesse sottovalutando i problemi della sicurezza dei suoi modelli di intelligenza artificiale. All’interno di Anthropic lavorano alcuni funzionari che avevano collaborato al governo di Joe Biden e la società ha diversi finanziatori che fanno riferimento a quella parte politica, in opposizione ai conservatori al governo.

Questi scetticismi e la necessità di avere più fornitori ha portato il dipartimento della Difesa ad attivare contratti con altre aziende, come OpenAI e Alphabet, con l’intenzione di autorizzare i loro sistemi anche per i documenti secretati e di sicurezza nazionale. Hegseth ha inoltre annunciato un maggiore coinvolgimento di xAI, la società di Elon Musk che di recente si è fusa con l’azienda spaziale SpaceX, sempre di Musk. Grok, il chatbot di xAI, non sarà impiegato nei contesti di massima sicurezza, ma sarà integrato in altre piattaforme usate dall’esercito. Il chatbot di xAI è sotto indagine da parte della Commissione Europea perché permetteva di “spogliare” le persone nelle foto sul social network X, oltre ad aver fatto sollevare molte perplessità sul suo funzionamento e sulle sue risposte di frequente scorrette o fuorvianti.

Tag: anthropicintelligenza artificialepete hegsethstati uniti

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.