l'AI

Amodei (Anthropic) risponde a Trump: “Difendiamo ciò che è giusto, la tua è una ritorsione”

di |

Il CEO di Anthropic, Dario Amodei, risponde in un’intervista al Presidente Trump, che ha bandito la sua azienda dal Governo USA. Nel frattempo, però, il Pentagono ha susato l’AI Cloud nell’attacco all’Iran.

Dal bando all’Iran, che succede nello scontro tra Trump, Pentagono e Anthropic?

L’intelligenza artificiale (AI) è già dentro le guerre del presente. E l’attacco congiunto di Stati Uniti e Israele contro l’Iran lo dimostra in modo plastico. Secondo quanto riportato dal Wall Street Journal e da Axios, il comando militare americano avrebbe utilizzato Claude, il modello sviluppato da Anthropic, per attività di intelligence, selezione dei bersagli e simulazioni operative sul campo di battaglia.

Non un dettaglio tecnico, ma un passaggio storico: un sistema di AI commerciale, sviluppato da una società privata della Silicon Valley, impiegato in una delle operazioni militari più delicate degli ultimi anni. La prova che l’intelligenza artificiale non è più un accessorio, ma una componente strutturale della macchina militare americana.

Eppure, poche ore prima dell’inizio dei bombardamenti, Donald Trump aveva ordinato a tutte le agenzie federali di interrompere immediatamente ogni utilizzo della tecnologia di Anthropic. Sul suo social Truth aveva attaccato l’azienda definendola una “compagnia woke e radical left” che pretende di dettare le regole all’esercito americano.

Il paradosso è evidente: mentre la Casa Bianca annunciava la rottura, il Pentagono continuava a usare il software per pianificare un’operazione militare reale. Segno di quanto l’AI sia ormai integrata nei sistemi di difesa e di quanto sia difficile “staccare la spina” da un giorno all’altro.

Amodei (Anthropic): “Quella di Trump è una ritorsione e una punizione

Il modo in cui il Pentagono prima e Trump poi hanno trattato Anthropic è sembrato al CEO e cofondatore Dario Amodei molto punitivo e inappropriato, considerando tutto quello che abbiamo fatto per la sicurezza nazionale degli Stati Uniti“.

Le azioni dell’amministrazione Trump riguardo ad Anthropic sono state definite dai critici un abuso di potere. Amodei ha commentato: “Ancora una volta, tornerei sull’idea che si tratti di un fatto senza precedenti”. Riguardo all’accusa di rischio per la catena di approvvigionamento, Amodei ha detto: “Questa designazione non era mai stata fatta prima per un’azienda americana. E credo che sia stato chiarito in alcune delle loro dichiarazioni, in alcuni dei loro termini, che si trattava di una ritorsione e di una punizione.

Essere in disaccordo con il governo è la cosa più americana del mondo. E noi siamo patrioti”, ha sottolineato Amodei.

Riguardo al “no” di Anthropic al Dipartimento della Guerra sugli usi di Cloud per sorveglianza di massa e sviluppo di armi da guerra automatizzate, Amodei è netto: “Abbiamo queste due linee rosse, le abbiamo avute fin dal primo giorno. Continuiamo a sostenere queste linee rosse. Non ci muoveremo oltre”.
Si tratta del principio di difendere ciò che è giusto“, ha aggiunto il CEO.

Il nodo è etico, contro “tutti gli usi leciti”

Lo scontro nasce da lontano. Già nei mesi scorsi Anthropic aveva sollevato obiezioni sull’impiego di Claude in operazioni militari ritenute offensive, richiamandosi ai propri termini di utilizzo: niente armi autonome senza controllo umano, niente sorveglianza di massa, niente uso per fini violenti.

Nel negoziato con il Dipartimento della Guerra, l’azienda avrebbe chiesto garanzie esplicite contro l’uso dell’AI per la raccolta massiva di informazioni sugli americani e contro lo sviluppo di sistemi d’arma completamente autonomi.

Il Pentagono ha risposto con una formula semplice e netta: “tutti gli usi leciti”. In altre parole, se è legale, deve essere possibile farlo. Senza clausole etiche aggiuntive imposte da un’azienda privata.

Per l’amministrazione Trump, il punto è politico prima ancora che tecnico: nessuna Big Tech può mettere condizioni operative alla sicurezza nazionale. Il segretario della Guerra, Pete Hegseth ha accusato Anthropic di “arroganza e tradimento (arrogance and betrayal)”, sostenendo che i soldati americani non possono essere ostaggio delle “fantasie ideologiche delle Big Tech”.

Il Pentagono ha persino minacciato di designare Anthropic come “rischio per la catena di approvvigionamento (supply chain risk)”, una qualifica finora riservata soprattutto a società straniere considerate pericolose per la sicurezza nazionale. Un’escalation senza precedenti nei rapporti tra Washington e una società americana di AI.

OpenAI entra in scena

Nel vuoto lasciato da Anthropic si è inserita OpenAI. Sam Altman ha annunciato un accordo con il Pentagono per l’utilizzo dei propri modelli, incluso ChatGPT, anche su reti classificate.

La differenza rispetto ad Anthropic è sostanziale: OpenAI ha accettato il principio degli “all lawful purposes”, tutti gli usi consentiti dalla legge. Non ha chiesto clausole etiche aggiuntive nel contratto.

Uno dei punti più controversi riguarda la raccolta di informazioni pubblicamente disponibili sugli americani, come dati di geolocalizzazione, abitudini di navigazione o informazioni finanziarie acquistate da intermediari. Anthropic temeva che l’intelligenza artificiale potesse potenziare enormemente queste attività, aprendo la strada a forme di sorveglianza di massa tecnicamente legali ma politicamente delicate. OpenAI non ha inserito un divieto esplicito in tal senso.

Il Pentagono sostiene di operare nel pieno rispetto della Costituzione e delle leggi sulla tutela delle libertà civili. Ma il punto resta: l’AI amplifica le capacità di raccolta e analisi dei dati in modo esponenziale. Ciò che ieri era complesso o costoso, oggi può diventare sistematico.

È finita l’idea di “AI etica” in ambito militare?

Fino a pochi anni fa sembrava emergere un consenso internazionale sui limiti dell’intelligenza artificiale in guerra. Nel 2020, l’allora Dipartimento della Difesa (oggi Guerra), aveva adottato principi ufficiali per un uso “responsabile, equo, tracciabile, affidabile e governabile” dell’AI. Anche la NATO e il Regno Unito avevano definito linee guida simili.

Oggi il contesto politico è cambiato. L’amministrazione Trump ha ridotto lo spazio per regolamentazioni stringenti sull’intelligenza artificiale, sostenendo che ostacolano l’innovazione e la competitività americana. Nel frattempo, molte aziende tecnologiche hanno riallineato le proprie strategie alla nuova realtà politica, consapevoli che i contratti con il governo federale — soprattutto nel settore difesa — valgono miliardi di dollari.

Il caso Iran dimostra che l’AI è ormai una leva strategica globale. Le simulazioni operative, l’analisi dell’intelligence, la selezione dei bersagli: tutto passa sempre più attraverso sistemi algoritmici sviluppati da aziende private.

Quando la guerra entra nell’algoritmo, la distinzione tra tecnologia (ma non era neutra?) e politica si assottiglia fino quasi a scomparire. Questo è il dato più significativo: al di là delle parole, l’intelligenza artificiale è già dentro le decisioni di guerra. Il dibattito su etica, democrazia e controllo civile corre molto più lentamente della tecnologia.

La vera domanda non è se l’AI verrà usata nei conflitti. Lo è già. La domanda è chi scriverà le regole e se quelle regole saranno ancora ispirate a principi democratici o soltanto alla logica della sicurezza nazionale, che contempla di fatto la guerra?

Leggi le altre notizie sull’home page di Key4biz