il commento

AI, consumi energetici fuori controllo. Quale prezzo stiamo pagando?

di |

Che ce ne facciamo di enormi incrementi di produttività se poi dobbiamo soffrire la sete, la fame o blocchi infrastrutturali?

L’uso dell’AIG (Intelligenza Artificiale Generativa) è nel quotidiano e le piattaforme ne fanno già largo uso  avendolo a disposizione nei nostri cellulari sia per servizi online banali o complessi nelle forme spesso di chat-bot o agenti intelligenti inclusi come funzioni predefinite nei sistemi operativi, nelle applicazioni web e nei software (da Google a Microsoft ad Apple o Meta, piuttosto che YouTube o TikTok). Onnipresenti le emoji stelline che ci perseguitano anche per utenti sempre più attratti da semplificazioni di molteplici operazioni (lavoro, consumo, intrattenimento, gioco).

Ma qual è il prezzo energetico (elettricità ed acqua) che stiamo pagando per questi “servizi” con l’uso di modelli linguistici di grandi dimensioni (LLM) per gestire montagne di Big Data per personalizzare proprio quei servizi per ognuno di noi? Lavorando con super algoritmi che macinano milioni di testi per ricombinazione e per risposte a miliardi di domande in frazioni di secondo di utenti esperti e – più spesso – non esperti.

Per tutto questo servono enormi quantità di elettricità e d’acqua necessari a questa scala computazionale di AIG da 100 a 1000 volte superiore alle elaborazioni standard (non AI) per l’addestramento continuo che gli algoritmi devono svolgere per superiori performance. Quindi l’equazione è più calcolo (per dimensione, velocità ed efficienza) ma quintuplicando emissioni di CO2 e consumi d’acqua.

Si stima infatti che il consumo totale energetico di Google (e filiera di fornitura) 2019-2023 sia raddoppiato e attribuibile al 40% alla corsa AI. Enorme la crescita dei fabbisogni energetici anche se (forse) ancora inferiori a settori come petrolio, edifici, trasporti, agricoltura presi nell’insieme, ma in crescita anche per enormi consumi d’acqua che è molto limitata per il consumo umano (solo il 3% l’acqua dolce utile sul totale dell’acqua disponibile con piogge sempre più rare).

Acqua per raffreddare i server dei Data Center (DC) è non solo enorme ma impiega poi mesi o anche un anno a rientrare sulla superficie terrestre essendo vaporizzata. Microsoft segnala che ci vorrà un decennio per diventare carbon negative (meno emissioni di quante se ne produca) e water positive (rigenerare risorse idriche) minimizzando i rifiuti (zero waste).

Inoltre, mostra con dati di UniCalTech che 2 e-mail scritte con l’ultimo LLM di chatGPT4 ha consumi di energia pari a quelli di una Toyota media in full electric per 1,6 km, mentre il consumo del precedente ChatGPT3 per compito simile pesava come una carica completa di iPhone11. Stime realistiche del consumo energetico dell’IA al 2030 segnalano una forbice con incrementi tra il 5% (ottimistico) a livello globale e il più pessimistico 10%, rischiosissimo.

Da qui la “retromarcia” di alcuni analisti per un ritorno al nucleare come risposta alla voracità energetica, ma con tempi troppo lunghi che non abbiamo. Tornare all’uso intensivo di fonti fossili come il carbone o il gas è irrealistico. L’energia è infatti solo il primo dei fattori fisici limite della corsa intensiva all’AI, perché il secondo è l’acqua la cui scarsità è ancora più rischiosa. Un esempio banale: ChatGpt4 per 10 risposte da 250 parole ha un fabbisogno di 2 litri d’acqua per raffreddare i server/DC.

Ma per una bistecca servono 20 mila l/H2O al 90% green water, cioè immessa nel primo ciclo eco-sistemico suolo-piovosità-piante, mentre la blue water è quella che è generata dal ciclo fiumi-laghi-falde acquifere e interconnessi dai processi di evaporazione. E’ quest’ultima fondamentale per dissetarci direttamente.

Necessario accelerare allora la transizione a rinnovabili e a sostenibilità anche con soluzioni transitorie come la compensazione di emissioni di CO2 riducendo impronte carbonica/idrica “comprando tempo”. Evidente, tuttavia, il Grande Conflitto tra contributo dell’AIG alla soluzione del cambiamento climatico (che le Big Tech ci “vendono”) e come leva che lo sta aumentando visto lo stress termico di rete a cui stiamo assistendo che – per es. – nei giorni scorsi ha bloccato per 24 ore l’accesso di milioni di persone a servizi banali di posta elettronica o di navigazione con blackout anche in Italia.

Servono risposte multifattoriali ed ecosistemiche: chip più piccoli, meno calcoli e logiche di apprendimento energy/water saving, più usi responsabili sui quali le Big Tech devono impegnarsi e in fretta per la sopravvivenza dei viventi riducendo i conflitti con comunità locali e cittadini.

Perché questo consumo energetico (elettricità/acqua) dei data center è in rapida crescita e da monitorare per esplorare soluzioni sostenibili al picco che sta per arrivare, ora o sarà tardi. Che ce ne facciamo di enormi incrementi di produttività se poi dobbiamo soffrire la sete, la fame o blocchi infrastrutturali?

Leggi le altre notizie sull’home page di Key4biz