Elon Musk rilancia sui data center spaziali e indica il 2028 come l’anno di svolta per l’AI in orbita. Lo ha detto ieri pubblicamente nel corso di una puntata del podcast “Cheeky Pint”.
Per Musk lo spazio diventerà il luogo economicamente più conveniente per ospitare l’infrastruttura di calcolo dell’intelligenza artificiale. “Potete segnare le mie parole: tra 36 mesi, ma probabilmente più vicino ai 30, il posto più conveniente per l’AI sarà lo spazio”, ha detto.
Musk: “Entro 5 anni installeremo più AI in orbita che sulla terra”
Nel corso del podcast il fondatore di SpaceX ha spinto ancora più in là la previsione, sostenendo che entro cinque anni verrà lanciata e gestita ogni anno più capacità di calcolo per l’AI in orbita di quanta ne sia stata complessivamente installata sulla Terra. Uno scenario che, se confermato, segnerebbe una discontinuità radicale nel modo in cui viene progettata l’infrastruttura digitale globale.
New season of Cheeky Pint starts tomorrow! First up: @dwarkesh_sp and I sit down with @elonmusk to discuss space GPUs and much more. pic.twitter.com/dJ4dLluTMr
— John Collison (@collision) February 4, 2026
Tutta una questione energetica
Il ragionamento di Musk ruota soprattutto attorno all’energia. Sempre nel podcast “Cheeky Pint”, l’imprenditore ha spiegato che nello spazio i pannelli solari possono produrre fino a cinque volte più energia rispetto alla superficie terrestre, riducendo una delle principali voci di costo dei data center.
In questi giorni SpaceX ha appena depositato presso la Federal Communications Commission (FCC) un piano per una rete di data center satellitari e ha formalizzato la fusione con xAI, la società di Musk dedicata all’intelligenza artificiale. Un passaggio che lega in modo strutturale le attività spaziali e quelle sull’AI e che rafforza l’ipotesi di un progetto infrastrutturale condiviso su scala senza precedenti.
Data center spaziali: i dubbi sulla fattibilità
Da qui l’idea che scalare in orbita sia, nel lungo periodo, più semplice ed economico che farlo a terra. Ma non convince tutti soprattutto i nodi critici legati alla manutenzione, all’affidabilità dell’hardware e alla gestione dei guasti, soprattutto quando si parla di GPU impegnate nell’addestramento dei modelli di AI.
Proprio su questo punto si innesta però la posizione opposta di Amazon Web Services. Durante il Cisco AI Summit di San Francisco, il CEO di AWS Matt Garman ha raffreddato gli entusiasmi sui data center spaziali, definendoli ancora lontani da una reale applicazione operativa. Secondo Garman, oggi non esistono né una capacità di lancio sufficiente né un modello di costi compatibile con le esigenze di un cloud industriale. Anche il semplice invio di carichi utili in orbita comporta spese proibitive, che rendono il concetto difficilmente sostenibile nel medio periodo.
Il contesto economico rende comunque il tema tutt’altro che teorico. Entro il 2030 la capacità globale dei data center è stimata intorno ai 200 gigawatt, un valore che equivale a circa mille miliardi di dollari di infrastrutture se realizzate a terra. Numeri che spiegano perché le big tech continuino a investire ogni anno centinaia di miliardi di dollari per sostenere la corsa all’A.
