Claude in tilt nel momento più delicato per Anthropic
“Incidente ancora in corso: si registrano errori elevati su claude.ai, sulla console e su Claude Code”.
“Abbiamo verificato che l’API di Claude sta funzionando regolarmente. Le criticità riguardano invece Claude.ai e i processi di accesso e disconnessione”.
“Abbiamo riscontrato malfunzionamenti in alcuni metodi dell’API e stiamo svolgendo ulteriori accertamenti”.
“Stiamo continuando a lavorare per risolvere il problema nel più breve tempo possibile”.
Sono questi gli aggiornamenti ufficiali con cui Anthropic ha accompagnato, nelle ultime ore, il grave disservizio che ha colpito la sua AI Cloud. Claude, il chatbot sviluppato dalla società guidata da Dario Amodei, è risultato inaccessibile a milioni di utenti in diverse parti del mondo, mentre il sito mostrava un messaggio inequivocabile: “Claude is currently experiencing a temporary service disruption. We’re working on it”.
Secondo Down Detector, l’interruzione sarebbe iniziata attorno a mezzogiorno nel Regno Unito (le 4 del mattino sulla costa ovest degli Stati Uniti), con segnalazioni diffuse a livello globale. Anthropic ha chiarito che le API (l’infrastruttura che consente a siti e applicazioni terze di integrare Claude) “stanno funzionando come previsto”. I problemi sembrano invece concentrati sull’interfaccia web, sui percorsi di login e logout e su alcuni metodi API non meglio specificati.
Un blackout tecnico, dunque. Ma in un momento che di tecnico ha poco, considerando lo scontro pesante che è maturato nelle ultime settimane tra Anthropic e Dipartimento della Guerra, guidato dal segretario Pete Hegseth, proseguito poi tra il CEO Amodei e il Presidente degli Stati Uniti, Donald Trump.

Lo scontro con Washington e il ruolo di OpenAI
L’interruzione arriva infatti in una fase ad altissima tensione istituzionale per Anthropic. La società è finita al centro di un braccio di ferro con il Dipartimento della Guerra USA, che avrebbe chiesto un accesso più ampio e meno vincolato a Claude per l’impiego in ambito militare.
Dario Amodei ha dichiarato che l’azienda “non può in coscienza accedere a questa richiesta”, denunciando pressioni e il rischio di essere etichettata come “supply chain risk”, una designazione tipicamente riservata ad attori ostili agli Stati Uniti.
Dal canto suo, il presidente Donald Trump ha attaccato duramente Anthropic sui social, accusandola di voler “forzare” il Dipartimento a rispettare i propri termini di servizio anziché, a suo dire, la Costituzione.
In parallelo, quasi approfittando del momento, OpenAI ha annunciato un accordo con il Pentagono che consentirà l’integrazione dei propri strumenti di intelligenza artificiale in sistemi classificati. Sam Altman ha sottolineato che l’intesa include il rispetto di principi fondamentali, come il divieto di sorveglianza di massa interna e la responsabilità umana nell’uso della forza. Ma la decisione ha alimentato un’ondata di critiche nella community tech.
Il boicottaggio di ChatGPT e l’ascesa di Claude
Nelle stesse ore, un post nella community r/ChatGPT su Reddit (11 milioni di iscritti) invitava apertamente a cancellare gli abbonamenti a ChatGPT e a migrare verso Claude. “OpenAI just made a deal with a devil”, recita il messaggio più votato, che accusa Altman di aver sacrificato i principi fondativi dell’azienda per ottenere finanziamenti della Difesa, quindi dai miliari.
Il risultato? Claude è balzata in cima alle classifiche delle app gratuite sull’App Store di Apple, superando ChatGPT. Un’impennata di download che, in un ecosistema cloud già complesso e ad alta intensità computazionale, potrebbe aver contribuito a mettere sotto stress l’infrastruttura.
È un’ipotesi plausibile dal punto di vista tecnico, secondo quanto riportato dal quotidiano britannico Indipendent: l’aumento improvviso di traffico, combinato con un’architettura di autenticazione o con microservizi non dimensionati per picchi eccezionali, può generare errori sistemici anche se le API centrali restano operative. Le difficoltà sui percorsi di login e su alcune chiamate API fanno pensare a colli di bottiglia nell’orchestrazione dei servizi, più che a un collasso del modello linguistico in sé.

Nel mondo dell’AI non c’è spazio per la fragilità sistemica
Non esistono, allo stato attuale, elementi che colleghino il disservizio a fattori esterni o a interferenze. Tutto lascia pensare a un problema tecnico in fase di risoluzione. Eppure, la coincidenza temporale è evidente: subito dopo lo scontro pubblico tra Amodei e l’amministrazione Trump, e mentre Claude diventa simbolo di un’alternativa “etica” a OpenAI, l’AI di Anthropic smette di funzionare.
Nel mondo dell’AI cloud, dove la reputazione è un asset strategico e la fiducia degli utenti è fragile, il timing conta quasi quanto la sostanza. Un’interruzione prolungata può incrinare la percezione di affidabilità proprio nel momento in cui milioni di nuovi utenti stanno valutando un cambio di piattaforma.
C’è poi un dato strutturale: le grandi AI generative sono ormai infrastrutture critiche, anche quando restano formalmente servizi privati. Quando entrano nel perimetro della Difesa nazionale, della sicurezza e delle politiche industriali, il confine tra tecnologia e geopolitica si assottiglia.
La posta in gioco
Anthropic ha costruito la propria identità pubblica sull’idea di “AI costituzionale”, su limiti etici e su una governance prudente dell’innovazione. OpenAI, pur ribadendo principi di sicurezza, ha scelto una linea più pragmatica nei rapporti con il governo americano. La competizione tra le due aziende non è più soltanto tecnologica: è anche politica e culturale.
Se il disservizio verrà risolto rapidamente, resterà un incidente tecnico in un momento sfortunato. Se invece dovesse protrarsi o ripetersi, potrebbe incidere sulla credibilità di Anthropic proprio mentre l’azienda si propone come alternativa responsabile in un mercato attraversato da tensioni ideologiche e strategiche.
Per ora, Claude promette di “tornare presto”. Ma nella nuova stagione dell’intelligenza artificiale, ogni blackout è anche un test di resilienza istituzionale. E ogni coincidenza, in tempi di scontro politico, diventa inevitabilmente materia di interrogativi.
