Key4biz

Anthropic vs Pentagono. Amodei: “Ci sono casi in cui l’AI è una minaccia per la democrazia”

Pete Hegseth, Dario Amodei, Pentagono, Anthropic

Pete Hegseth, Dario Amodei, Pentagono, Anthropic

Anthropic contro il Pentagono: lo scontro sull’AI tra sicurezza nazionale e democrazia

C’è uno scontro durissimo in corso tra una delle aziende di punta dell’intelligenza artificiale (AI) americana, Anthropic, e il Dipartimento della Guerra degli Stati Uniti, nello specifico il Pentagono. A innescarlo è stata una dichiarazione pubblica del CEO della società, Dario Amodei, che ha scelto di rendere trasparente un conflitto finora rimasto nei corridoi riservati della sicurezza nazionale.

Oggi scade l’ultimatum imposto dal Segretario della Guerra, Pete Hegseth.
Claude di Anthroopic è il modello AI disponibile nei sistemi più riservati dell’esercito con le migliori performance nelle attività di intelligence più delicate. Il Pentagono ha chiesto un accesso senza limiti ma la società di Amodei si è rifiutata di revocare completamente le sue misure di sicurezza, lasciando blindate due aree specifiche: la sorveglianza di massa degli americani e lo sviluppo di armi autonome, ovvero in grado di colpire senza l’intervento umano.

Il cuore del confronto non è se l’AI debba essere usata in ambito militare. Su questo punto, paradossalmente, le parti sono allineate. Il nodo è come debba essere usata – e quali limiti etici e tecnici debbano essere posti.

Dario Amodei Ceo e Co-Fondatore di Anthropic

Anthropic azienda di “Frontier AI”

Prima di tutto, va chiarito un punto: Anthropic non è un’azienda pacifista in rotta con il complesso militare-industriale. Al contrario, Amodei rivendica con forza il ruolo della sua società nella difesa americana.

Il modello AI di punta dell’azienda, Claude, è già ampiamente impiegato nelle reti classificate (cioè protette) del governo statunitense, nei laboratori nazionali e all’interno di missioni “mission-critical” del Dipartimento della Guerra (operazioni o sistemi il cui fallimento causerebbe danni irreparabili, come perdite umane, fallimenti strategici o collassi operativi): analisi di intelligence, simulazioni strategiche, pianificazione operativa, cyber-operazioni, ma anche lancio di missili in caso.

Anthropic, secondo quanto dichiarato da Amodei, è stata la prima azienda di “frontier AI (attiva nello sviluppo di modelli AI all’avanguardia, capaci di general intelligence su scala massiva, con capacità multimodali e agentiche vicine all’AGI) a distribuire i propri modelli in ambienti classificati governativi.

La società (che oggi vale 380 miliardi) ha inoltre interrotto rapporti commerciali con soggetti legati al Partito Comunista Cinese, rinunciando a centinaia di milioni di dollari, e sostiene controlli più stringenti sull’export dei chip per mantenere un vantaggio tecnologico delle democrazie.
Nei giorni scorsi, Anthropic ha accusato tre aziende cinesi, tra cui DeepSeek, di aver utilizzato Claude su scala industriale per addestrare i propri modelli di AI.

Non è quindi un conflitto tra tecnologia e sicurezza nazionale. È uno scontro interno alla visione di cosa significhi difendere una democrazia nell’era dell’intelligenza artificiale.

Dario Amodei Ceo Anthropic, Daniela Amodei Presidente Anthropic

I punti di rottura con il Dipartimento della Guerra

Anthropic (guidata da Dario, assieme alla sorella Daniela Amodei, oggi cofondatrice e presidente della società) si rifiuta di rimuovere due salvaguardie dai propri sistemi: il divieto di utilizzo per sorveglianza di massa domestica e il divieto di utilizzo per armi completamente autonome.
Ed è qui che si innesta lo scontro.

1. Sorveglianza di massa: il rischio di uno Stato algoritmico

Anthropic sostiene che l’uso dell’AI per missioni di intelligence estera sia legittimo e necessario. Ma traccia una linea rossa quando si parla di sorveglianza interna su larga scala. Il problema non è teorico. Negli Stati Uniti (come in molte democrazie occidentali) le agenzie governative possono acquistare legalmente grandi quantità di dati su movimenti, navigazione web, relazioni sociali dei cittadini, spesso senza mandato. Si tratta di dati apparentemente innocui, frammentati. La differenza, oggi, la fa l’AI.

Un sistema avanzato può aggregare automaticamente milioni di micro-informazioni e costruire un profilo completo, predittivo, comportamentale di qualsiasi individuo. Non è più semplice raccolta dati: è ricostruzione algoritmica della vita privata.

Il punto sollevato da Amodei è cruciale: la legge è rimasta indietro rispetto alla tecnologia. Ciò che è formalmente legale potrebbe diventare sostanzialmente incompatibile con le libertà costituzionali quando potenziato dall’AI.

Qui si intravede un’eco storica inquietante. Ogni grande salto tecnologico nella sorveglianza, dal telegrafo alle intercettazioni di massa post-11 settembre, è stato inizialmente giustificato in nome della sicurezza. Solo in seguito si sono aperti i dibattiti pubblici sui limiti.

2. Armi completamente autonome: quando l’uomo esce dal circuito

Il secondo punto riguarda le cosiddette fully autonomous weapons: sistemi capaci di selezionare e ingaggiare un bersaglio senza intervento umano.

Anthropic distingue tra:

Amodei non esclude che in futuro tali sistemi possano diventare necessari per la difesa nazionale. Ma sostiene che oggi l’AI non sia abbastanza affidabile per assumere decisioni letali in autonomia.

Qui il problema non è solo etico, ma tecnico. I modelli di frontiera possono sbagliare, generare output imprevedibili, essere vulnerabili a manipolazioni. Delegare a queste architetture la scelta di un bersaglio significherebbe accettare margini di errore potenzialmente catastrofici.

C’è poi una questione di responsabilità: chi risponde di un errore? Il comandante? L’azienda? Il software?
Di fatto, a quanto riportato dalla Reuters, il Dipartimento avrebbe ventilato una controversa opzione, sulla cui legittimità diversi esperti hanno espresso perplessità: “Se non collaborano, il Segretario alla Guerra farà in modo che venga invocato il Defense Production Act nei confronti di Anthropic”, ha dichiarato un alto funzionario del Pentagono, “costringendola a mettere le proprie tecnologie a disposizione del Pentagono, che lo voglia o no”.

Pete Hegseth, Segretario della Guerra degli Stati Uniti

Le condizioni poste dai militari

Secondo la dichiarazione di Anthropic, il Dipartimento della Guerra avrebbe posto una condizione netta: collaborare solo con aziende che accettino “qualsiasi uso legale” della tecnologia e che rimuovano le salvaguardie nei casi citati.

Amodei scrive: “Il Dipartimento della Guerra ha dichiarato che stipulerà contratti solo con aziende di intelligenza artificiale che acconsentono a “qualsiasi uso lecito” e rimuovono le misure di sicurezza nei casi sopra menzionati. Hanno minacciato di rimuoverci dai loro sistemi se mantenessimo queste misure di sicurezza; hanno anche minacciato di designarci come “rischio per la catena di approvvigionamento” – un’etichetta riservata agli avversari statunitensi, mai applicata prima a un’azienda americana – e di invocare il Defense Production Act per imporre la rimozione delle misure di sicurezza”. 

Le minacce riportate sono pesanti: rimozione dai sistemi militari, designazione come “supply chain risk” (etichetta finora riservata a entità ostili), possibile invocazione del Defense Production Act per forzare la rimozione delle protezioni.

C’è una contraddizione evidente: da un lato Anthropic verrebbe considerata un rischio per la sicurezza; dall’altro, la sua tecnologia sarebbe talmente essenziale da giustificare un intervento coercitivo dello Stato.

Questo passaggio apre una questione più ampia: quanto è diventata strategica l’AI privata per l’apparato militare americano? Siamo davanti a una nuova fase del rapporto tra Stato e industria tecnologica, simile, almeno per importanza, a quella che negli anni Quaranta del secolo scorso portò alla nascita del complesso nucleare.

La battuta d’arresto arriva in un momento cruciale per Anthropic, impegnata in una corsa serrata per assicurarsi commesse nel settore privato e soprattutto nei contratti governativi, dove la sicurezza nazionale rappresenta uno dei principali ambiti di espansione. Secondo quanto riportato mercoledì da Reuters, il Pentagono avrebbe chiesto ai propri appaltatori, tra cui colossi come Lockheed Martin, una valutazione dettagliata del loro grado di dipendenza dalle tecnologie di Anthropic, in vista di una possibile classificazione dell’azienda come soggetto a rischio. Un passaggio tutt’altro che marginale, se si considera che la base industriale della difesa statunitense comprendeva, già nel 2021, circa 60 mila contractor, incluse alcune delle maggiori società quotate del Paese.

Falsi problemi o questione etica centrale per la democrazia?

Il Pentagono, che l’amministrazione Trump ha ribattezzato “Dipartimento della Guerra”, ha respinto il dilemma definendolo una falsa questione “spinta dai media di sinistra”, si legge sulla Reuters.
Il Dipartimento della Guerra non ha alcun interesse a utilizzare l’intelligenza artificiale per condurre una sorveglianza di massa sugli americani (che è illegale), né vogliamo impiegare l’IA per sviluppare armi autonome che operino senza il coinvolgimento umano”, ha scritto su X il capo portavoce del Pentagono, Sean Parnell.

Sulla questione è intervenuta anche la senatrice democratica Elissa Slotkin: “La persona media non pensa che dovremmo permettere a sistemi d’arma di entrare in guerra e uccidere persone senza che un essere umano eserciti in qualche modo una supervisione”. Parlando durante un’audizione di conferma per due candidati alla carica di vice segretario alla Difesa, Slotkin ha aggiunto: “Non credo affatto che alcun americano, democratico o repubblicano, voglia una sorveglianza di massa sulla popolazione americana”.

La corsa globale all’AI militare

Lo scontro non può essere letto isolatamente. Sullo sfondo c’è la competizione con la Cina, la militarizzazione crescente delle tecnologie emergenti e la convinzione che il vantaggio nell’AI determinerà l’equilibrio strategico del XXI secolo. In questo contesto, ogni vincolo appare come un ostacolo.

Ma proprio qui emerge il paradosso: se la superiorità tecnologica è giustificata come difesa della democrazia, può essa stessa eroderne i principi fondamentali?
La storia americana offre precedenti: dal Patriot Act alla sorveglianza di massa rivelata dall’ex contractor della NSA (National Security Agency) Edward Snowden che portò al “Datagate. Ogni volta la tensione tra sicurezza e libertà si è risolta a favore della prima, salvo ripensamenti successivi.

Con l’AI, tuttavia, il salto qualitativo è enorme. Non si tratta di intercettare comunicazioni, ma di costruire sistemi predittivi capaci di anticipare comportamenti, orientare decisioni, automatizzare l’uso della forza.

Il caso Anthropic potrebbe diventare un precedente decisivo. Se l’azienda cederà, si consoliderà l’idea che le imprese di AI non possano imporre limiti etici quando operano nel perimetro della sicurezza nazionale.

Se resisterà e verrà estromessa si aprirà una frattura tra Silicon Valley e Pentagono, con possibili ricadute sull’intero ecosistema tecnologico. La questione centrale resta una: chi stabilisce i limiti dell’intelligenza artificiale in ambito militare? Il mercato? L’esecutivo? Il Congresso? Le aziende stesse?

Exit mobile version