trend

Come gli investimenti nel 2024 per l’IA generativa trasformeranno i data center

di |

L’utilizzo massivo dell’intelligenza artificiale porterà all’apertura di nuove server farm e, in molti casi, al potenziamento delle infrastrutture esistenti da un punto di vista energetico e di raffreddamento.

Recenti studi sul tema prevedono che per il 2024 l’interesse diffuso per l’intelligenza artificiale generativa riporterà l’attenzione sui data center. Nel 2022 sono stati creati e consumati quasi 100 trilioni (miliardi di miliardi) di gigabyte di dati in formato digitale. Una cifra destinata a raddoppiare entro il 2025.

Stando alle stime di Synergy Research Group, agli attuali 926 grandi hub in funzione in tutto il mondo di proprietà dei primi 20 provider di servizi cloud e di connettività, si aggiungeranno entro i prossimi sei anni ulteriori 427 nuove strutture con una capacità media (unità Gpu e non solo) più che doppia rispetto a quelli attualmente operativi. Il motivo? Rispondere in modo adeguato alla domanda di extra risorse computazionali necessarie per addestrare e migliorare in modo costante i modelli dell’Ai generativa. Per le big tech, insomma, è tempo di fare i conti con un nuovo boom di dati da gestire, “pulire” e immagazzinare, che si sommerà ai carichi di lavoro (anch’essi in crescita) legati alle attività informatiche “convenzionali” (servizi cloud, hosting, connettività) dei data center attualmente in esercizio.

L’utilizzo massivo dell’intelligenza artificiale porterà dunque all’apertura di nuove server farm e, in molti casi, al potenziamento delle infrastrutture esistenti, con investimenti di miliardi di dollari e una quantità di energia necessaria per farli funzionare decisamente superiore a quella impiegata attualmente.

La parola chiave sarà efficienza energetica

Un nodo cruciale però è rappresentato dagli impatti ambientali delle nuove tecnologie. In tale contesto, una delle sfide più importanti è rappresentata dalla gestione dell’approvvigionamento energetico dei datacenter, che include le scelte in merito alla fonte di energia di utilizzare (solare, eolico, elettrico, etc) ma anche delicate attività di pianificazione e previsione di particolari condizioni climatiche in grado di sottoporre i sistemi ad un elevato grado di stress. Si pensi, ad esempio, alle sempre più frequenti ondate di caldo che richiedono di portare al limite il funzionamento dei meccanismi di raffreddamento.

L’intelligenza artificiale, in tale contesto, può essere utilizzata, tra le altre cose, per

  • il monitoraggio in tempo reale delle reali esigenze di energia con l’obiettivo ridurre il consumo senza generare impatti sull’operatività del CED.
  • garantire la distribuzione dei carichi di lavori sui differenti server così da raggiungere un maggiore livello di produttività, aumentare l’efficienza e, conseguentemente, tagliare i costi connessi all’energia.
  • identificare e risolvere problematiche della rete che portano a dispersioni di energia, creando diseconomie ma anche generando rischi di malfunzionamenti dell’intera architettura hardware/software.
  • regolare i meccanismi di riscaldamento e raffreddamento, così come descritto in precedenza nel caso del CED di Google che è stato in grado di autoregolare la propria temperatura in presenza di un tornado, sfruttando gli effetti dell’alta pressione portata dalla tromba d’aria.

Al lavoro sui sistemi di raffreddamento

Il ceo di OpenAi, Sam Altman, ha stimato per esempio che per completare l’addestramento di Gpt-4 sono serviti oltre cento milioni di dollari. Cosa succederà quindi nei prossimi anni? In parte si interverrà sui sistemi di raffreddamento, e in tal senso troveranno grande applicazioni gli apparati di liquid cooling (raffreddamento a liquido), le cui implementazioni sono previste in rapidissima crescita fino al 2027.