Key4biz

Come gli investimenti nel 2024 per l’IA generativa trasformeranno i data center

Recenti studi sul tema prevedono che per il 2024 l’interesse diffuso per l’intelligenza artificiale generativa riporterà l’attenzione sui data center. Nel 2022 sono stati creati e consumati quasi 100 trilioni (miliardi di miliardi) di gigabyte di dati in formato digitale. Una cifra destinata a raddoppiare entro il 2025.

Stando alle stime di Synergy Research Group, agli attuali 926 grandi hub in funzione in tutto il mondo di proprietà dei primi 20 provider di servizi cloud e di connettività, si aggiungeranno entro i prossimi sei anni ulteriori 427 nuove strutture con una capacità media (unità Gpu e non solo) più che doppia rispetto a quelli attualmente operativi. Il motivo? Rispondere in modo adeguato alla domanda di extra risorse computazionali necessarie per addestrare e migliorare in modo costante i modelli dell’Ai generativa. Per le big tech, insomma, è tempo di fare i conti con un nuovo boom di dati da gestire, “pulire” e immagazzinare, che si sommerà ai carichi di lavoro (anch’essi in crescita) legati alle attività informatiche “convenzionali” (servizi cloud, hosting, connettività) dei data center attualmente in esercizio.

L’utilizzo massivo dell’intelligenza artificiale porterà dunque all’apertura di nuove server farm e, in molti casi, al potenziamento delle infrastrutture esistenti, con investimenti di miliardi di dollari e una quantità di energia necessaria per farli funzionare decisamente superiore a quella impiegata attualmente.

La parola chiave sarà efficienza energetica

Un nodo cruciale però è rappresentato dagli impatti ambientali delle nuove tecnologie. In tale contesto, una delle sfide più importanti è rappresentata dalla gestione dell’approvvigionamento energetico dei datacenter, che include le scelte in merito alla fonte di energia di utilizzare (solare, eolico, elettrico, etc) ma anche delicate attività di pianificazione e previsione di particolari condizioni climatiche in grado di sottoporre i sistemi ad un elevato grado di stress. Si pensi, ad esempio, alle sempre più frequenti ondate di caldo che richiedono di portare al limite il funzionamento dei meccanismi di raffreddamento.

L’intelligenza artificiale, in tale contesto, può essere utilizzata, tra le altre cose, per

Al lavoro sui sistemi di raffreddamento

Il ceo di OpenAi, Sam Altman, ha stimato per esempio che per completare l’addestramento di Gpt-4 sono serviti oltre cento milioni di dollari. Cosa succederà quindi nei prossimi anni? In parte si interverrà sui sistemi di raffreddamento, e in tal senso troveranno grande applicazioni gli apparati di liquid cooling (raffreddamento a liquido), le cui implementazioni sono previste in rapidissima crescita fino al 2027.

Exit mobile version