il dibattito

Big tech vs. utility, cosa sono i data center “fantasma”. Consumi 20 volte più bassi con l’IA neuromorfica

di |

Il dibattito sui consumi energetici dei data center infiamma l’Italia, tra le big tech pronte a sostenere la corsa all’AI e le utility chiamate a gestire la domanda elettrica. Ma secondo i principali esperti del settore, i numeri diffusi raccontano più una domanda speculativa che la realtà effettiva. Intanto la ricerca sull’IA neuromorfica apre la strada a modelli capaci di ridurre i consumi da 10 a 20 volte.

I data center sono sempre più al centro del dibattito italiano, che vede allargare la distanza tra i due principali schieramenti. Da un lato le big tech, pronte a collegarsi alla rete elettrica per sostenere la corsa all’Intelligenza Artificiale. Dall’altro le utility, che avvertono con timore, invece, l’urgenza di fronteggiare una domanda energetica in crescita vertiginosa.

I dati recenti

Gli ultimi numeri diffusi da Terna restituiscono, in effetti, una fotografia molta diversa da quella dello scorso anno, se non addirittura ribaltata rispetto ad appena quattro anni fa.

Secondo l’analisi del principale operatore nazionale di trasmissione elettrica, con 55 gigawatt consumati all’anno (in larga parte al Nord), i data center rischiano di pesare in modo rilevante sul fabbisogno energetico nazionale. Una cifra enorme, pari a metà dell’intero parco termoelettrico del Paese.

Il vero problema, però, riguarda le reti, oggi del tutto impreparate a gestire un simile aumento della domanda.

I “data center fantasma” americani

Le cifre italiane, tuttavia, restano lontane dai numeri che arrivano dagli Stati Uniti. Il Wall Street Journal riporta come American Electric Power (attiva in 11 stati) e la texana Oncor abbiano ricevuto richieste di connessione alla rete per progetti di data center che necessiterebbero di quasi 400 gigawatt di elettricità.

Parliamo di oltre la metà del picco di domanda dei 48 stati continentali in due giornate di caldo record a luglio.

Ma quanto sono concreti questi numeri?

Secondo il quotidiano americano, molte richieste si sovrappongono, venendo conteggiate due, tre o persino quattro volte da diverse utility. Succede perché sviluppatori e big tech, in fase di scouting delle location, bombardano di domande gli operatori, pur sapendo che la maggior parte dei progetti non sarà mai realizzata.

Non a caso sono stati ribattezzati Phantom Data Centers.

L’Italia tra realtà e percezioni

Guardando alle dinamiche descritte oltreoceano, il panorama italiano non è poi così distante. Anche qui la domanda speculativa non riflette la realtà. Se a marzo sono state registrate richieste per 42 gigawatt, Terna stima che al 2030 il “peso” reale sui consumi nazionali sarà pari al 3%, ovvero circa 11 terawattora.

Le proiezioni del Politecnico di Milano e dei principali analisti globali parlano chiaro: entro il 2030 vedremo tra 1,4 e 2 GW di IT effettivi. Non cinquanta, ma due.

Su LinkedIn Giuliano Peritore, presidente dell’AIIP (Associazione italiana provider Internet), ha commentato:


Qualcuno continua a parlare di 50-55 gigawatt, confondendo le richieste progettuali di allaccio con i consumi reali. La stessa Terna stima per i data center in Italia un fabbisogno di 11 terawattora al 2030. Basta fare due conti: 11 TWh equivalgono a 1,25 GW medi… al 2030! Se oggi il consumo totale del Paese è stato di 312 TWh, con picchi di 57 GW, e Internet — con un po’ di IA — già funziona, dov’è l’emergenza?“.

In definitiva, una crescita dei consumi del 3,5% entro il 2030 e forse 5 GW al 2040, meno dell’1% su base annua, non sembra giustificare allarmi eccessivi. Anzi, osserva Peritore, ogni GW consumato potrebbe generare miliardi di euro di ricavi addizionali, rendendo sostenibili gli investimenti. “Altrimenti — conclude — parliamo di fantasmi“.

Il ruolo dell’IA neuromorfica

A ridimensionare ulteriormente i timori dovrebbero poi contribuire le ricerche di frontiera. Secondo nuovi studi, i consumi dei data center potrebbero ridursi da 10 a 20 volte grazie all’approccio rivoluzionario promosso da Pengzhou, CEO e cofondatrice di Luxi Tech, la prima azienda cinese a sviluppare intelligenza artificiale neuromorfica, ispirata al funzionamento del cervello umano.

Come spiega in un paper pubblicato dalla Cornell University, è possibile eliminare le onerose operazioni di moltiplicazione di matrici (MatMul) dagli LLM, mantenendo alte prestazioni anche con miliardi di parametri. I modelli MatMul-free, testati fino a 2,7 miliardi di parametri, hanno mostrato risultati comparabili ai migliori Transformer, con un divario che si riduce all’aumentare della scala.

I vantaggi sono notevoli: un’implementazione ottimizzata per GPU riduce l’uso di memoria fino al 61% in fase di training e di oltre 10 volte in inferenza. E se adattati a sistemi neuromorfici multi-chip, questi modelli possono sfruttare l’elaborazione asincrona per garantire un throughput quattro volte superiore, consumando dieci volte meno energia rispetto alle GPU edge.

Leggi le altre notizie sull’home page di Key4biz