Intelligenza artificiale  generativa

 Costi energetici in aumento:

ChatGPT  sta già  consumando l’energia

 di 33mila case

 

di Rita Lena

Da qualche anno tra gli addetti ai lavori circola la voce che l’Intelligenza Artificiale (AI) abbia costi energetici troppo alti. Una voce che, all’ultimo incontro annuale del World Economic Forum a Davos in Svizzera, è stata ufficialmente confermata, quando Sam Altmann, amministratore delegato (CEO) di OpenAI,  ha ammesso che l’industria dell’intelligenza artificiale si sta dirigendo verso una crisi energetica. Altman – si legge in un articolo, pubblicato su Nature, di Kate Crawford della  University of Southern California Annenberg e ricercatrice principale senior presso Microsoft Research a New York City -  ha avvertito che la prossima ondata di sistemi di intelligenza artificiale generativa consumerà molta più energia del previsto e che i sistemi energetici faranno fatica a farcela. "Non c'è modo di arrivarci senza una svolta", ha detto. Negli ultimi anni si è assistito ad una costante minimizzazione e negazione dei costi ambientali del settore dell’intelligenza artificiale ed ora l’ammissione del CEO di OpenAI ha spinto ricercatori, regolatori e titani del settore a parlare apertamente  dell’impatto ambientale dell’intelligenza artificiale generativa. Tuttavia, l’insolita presa di coscienza di Altmann non sembra presupporre, almeno per ora, ad una svolta nella progettazione e a miglioramenti dei sistemi di intelligenza artificiale per renderli più sostenibili; anzi, Altmann, per ovviare al problema, pensa di puntare alla fusione nucleare. Un obiettivo che si spiega con il fatto che nel  2021 ha investito nella società di fusione Helion Energy Everett di Washington.

Ma per la fusione nucleare i tempi sono lunghi. La maggior parte degli esperti  concorda sul fatto che la fusione nucleare non potrà dare un contributo significativo alla decarbonizzazione entro la metà del secolo e, nella fattispecie, si stima che Helion, nelle proiezioni più ottimistiche, riuscirà a produrre, nel 2029,  energia sufficiente ad alimentare solo 40.000 famiglie medie negli Stati Uniti. Nel frattempo,  si è valutato che ChatGPT, il chatbot creato da OpenAI a San Francisco (California), stia già consumando l’energia di 33.000 case. Secondo gli esperti, una ricerca guidata dall'intelligenza artificiale generativa utilizza da quattro a cinque volte l'energia di una ricerca web convenzionale e, nel giro di pochi anni, è probabile che i grandi sistemi di AI avranno bisogno di così tanta energia,  quanto quella di  intere nazioni.

E non è solo energia. I sistemi di intelligenza artificiale generativa necessitano anche di enormi quantità di acqua dolce per raffreddare i loro processori e generare elettricità. A West Des Moines, Iowa, dove c’è  un gigantesco cluster,  o insieme di data center  che servono il modello più avanzato di OpenAI, GPT-4, una causa intentata da residenti ha rivelato che nel luglio 2022, il mese prima che OpenAI finisse di addestrare il nuovo modello, i data center avevano utilizzato circa il 6% dell'acqua del distretto. Inoltre, mentre Google e Microsoft preparavano i loro modelli linguistici Bard e Bing, sono stati registrati, secondo i rapporti ambientali delle società, picchi importanti nell’uso dell’acqua: rispettivamente aumenti del 20% e del 34% in un anno. Una ricerca (preprint) su arxiv  suggerisce che, entro il 2027 a livello globale, la domanda di acqua per l’intelligenza artificiale potrebbe essere la metà di quella del Regno Unito e, in un altro lavoro (su arxiv), i ricercatori sull’intelligenza artificiale di Facebook hanno paragonato gli effetti ambientali della ricerca di scala del settore, a quelli che si avrebbero quando”un’elefante entra in una stanza”.

A questo punto il mondo della ricerca chiede con urgenza  azioni pragmatiche per limitare subito gli impatti ecologici dell’intelligenza artificiale. Intanto, l’industria del settore potrebbe utilizzare meno energia costruendo modelli più efficienti e ripensare il modo in cui progetta ed utilizza i data center. Qualche modello virtuoso già esiste, ad esempio, il progetto BigScience in Francia che, con il suo modello BLOOM, simile in dimensioni al GPT-3 di Open-AI,  consuma meno carbonio e ha dimostrato che è possibile costruire modelli meno energivori. Ma il problema a livello generale esiste e per diverse ragioni, come ottenere dati accurati e completi sugli impatti ambientali e sapere quali sono i costi reali dell’intelligenza artificiale generativa. Sono segreti gelosamente custoditi da aziende poco incentivate a fare  cambiamenti. Le cifre ora a disposizione si basano su studi di laboratorio condotti da ricercatori e su dati diffusi dai governi locali.  Un problema che ha richiamato l’attenzione di politici e legislatori. Il 1° febbraio, i democratici statunitensi guidati dal senatore Ed Markey del Massachusetts hanno introdotto l’ Artificial Intelligence Environmental Impacts Act del 2024 . Il disegno di legge ordina al National Institute for Standards and Technology di collaborare con il mondo accademico, l’industria e la società civile per stabilire standard per la valutazione dell’impatto ambientale dell’IA e per creare un quadro di segnalazione volontaria per gli sviluppatori e gli operatori dell’IA. Resta incerto se la legislazione verrà approvata.

Il Galileo