Le aziende che operano nei settori tecnologici più avanzati e utilizzano sistemi in cloud e intelligenza artificiale per poter fornire i propri servizi ai loro utenti consumano sempre più energia elettrica e risorse.
Può sembrare strano per l’uomo comune ma le nuove tecnologie legate al mondo ICT e a tutte le nuove frontiere dell’intelligenza artificiale hanno necessità di capacità di calcolo straordinarie e quindi di centinaia e migliaia di server che sommando tra loro la potenza delle singole CPU riescono, per esempio, a far funzionare sistemi avanzati di AI come Chatbot GPT.
Le aziende del settore ne sono consapevoli e non è un caso che i grandi player dell’industria ICT da tempo sostengano di dover attuare politiche di riduzione del loro impatto energetico ed ambientale.
Chatbot consuma 1.287 MWh, l’uomo 20 watt
In un articolo apparso su Punto Informatico si legge che “ Una ricercatrice ha provato a stimare consumi ed emissioni del modello GPT-3 di OpenAI sulla base dei pochi dati disponibili. Per addestrare GPT-3 servirebbero 1.287 MWh, ovvero l’elettricità consumata da 120 abitazioni in un anno. Verrebbero inoltre emesse 502 tonnellate di CO2, equivalenti a quelle emesse in un anno da 110 automobili.”
Siamo ancora alla terza versione di questo sistema e nella prossima, la versione 4, che è in corso di sviluppo da una delle Big Tech, Microsoft, sicuramente assorbirà un maggior quantitativo di energia ed emetterà di conseguenza una quantità di tonnellate di CO2 decisamente superiore.
La scrittura di testi molto vicini a quelli dell’intelligenza umana è dunque molto costosa in termini ambientali ed energetici.
Possiamo fare un confronto con il dispendio energetico del cervello umano, che consuma mediamente 20 watt ora, un dato che fa riflettere molto sulla sostenibilità di sistemi di intelligenza alternativa a quella umana.
Non solo Intelligenza Artificiale: i consumi energetici sono all’interno di ogni operazione che viene fatta utilizzando i calcolatori informatici. Per esempio, ognuno di noi esegue sicuramente con cadenza giornaliera parecchie ricerche su Google e abbiamo una stima in merito ai costi energetici di una ricerca su Google, ciascuna di esse infatti ammonterebbe ad un consumo elettrico in media di 0,0003 kWh.
Il problema dei consumi idrici dell’intelligenza artificiale: ogni richiesta a Chatbot richiede mezzo litro di acqua
I sistemi informatici hanno inoltre un impatto sul consumo idrico. Ebbene si, secondo una ricerca condotta poco tempo fa e pubblicata da Arxiv, il consumo di acqua per l’addestramento del Chatbot GPT, in uno dei data center di Microsoft in collaborazione con Open AI, nella sua terza versione ha richiesto 700.000 litri di acqua, quanto basterebbe per produrre 370 auto BMW o 320 auto Tesla elettriche.
Inoltre ogni richiesta inviata al Chatbot a cui viene fornita una risposta e l’elaborazione di un testo, simile a quello che potrebbe produrre un essere umano, richiede mediamente, secondo la stessa ricerca sopra citata, un consumo di circa 500 ml di acqua.
Come è possibile che i server che esprimono la potenza di calcolo necessaria per poterci far utilizzare l’intelligenza artificiale consumino acqua? Semplicemente perché questi computer necessitano di risorse idriche per essere raffreddati.
Secondo la ricerca che abbiamo citato in questo articolo, c’è una distinzione da fare tra “prelievo” e “consumo” di acqua. Infatti il primo indica l’azione di rimozione fisica dell’acqua, per esempio da un fiume o da un’altra fonte, il secondo si riferisce specificamente alla dispersione di acqua per evaporazione quando viene utilizzata all’interno dei data center.
In queste strutture dove alloggiano e sono interconnessi al web potenti calcolatori, la temperatura interna deve essere mantenuta costante per evitare malfunzionamenti, incendi ed altri incidenti. Di solito la temperatura nei data center raccomandata (es. da ASHRAE – American Society of Heating, Refrigeration and Air-Conditioning Engineers ) è compresa tra i 15°C e i 32°C. E poiché queste macchine scaldano molto e superano queste temperature è necessario operare con strumenti idonei ad abbassarle, ad esempio con le cosiddette torri di raffreddamento, che hanno lo scopo di far evaporare acqua fredda.
Secondo la ricerca citata il problema di queste torri non è rilevante solo rispetto ad un consumo idrico, che ammonterebbe a circa 1 litro di acqua per ogni kilowattora speso in un data center, ma anche per il fatto che per evitare danni alle attrezzature informatiche e mantenere livelli di umidità accettabili, viene utilizzata acqua dolce e pulita, quindi non quella del mare, ma quella di laghi, fiumi ed altre fonti di questo tipo.
Nel caso dell’evaporazione nei data center sembrerebbe che il consumo abbia un impatto ancora maggiore sull’ambiente, perché l’acqua non può essere riciclata.
Il consumo di risorse idriche ed energetiche è un problema solo dell’AI?
Non è solo l’intelligenza artificiale il problema di un maggior consumo idrico. Per esempio, i data center di Google negli Stati Uniti hanno consumato 12,7 miliardi di litri di acqua dolce nel 2021 per raffreddare le apparecchiature informatiche.
Insomma tecnologie quasi invisibili agli utenti, che vivono in un mondo virtuale, raggiungibile solo grazie ad una connessione ad internet verso una leggera nuvola “cloud”, hanno in realtà un impatto reale così importante e probabilmente poco conosciuto ai più, tanto da poterci ragionevolmente domandare quanto sia sostenibile la New Economy, rispetto a quella precedente.