L'Impatto Energetico dell'AI e le Strategie di Mitigazione

L'Impatto Energetico dell'Intelligenza Artificiale e le Strategie di Mitigazione

 

Nel 1894, molte grandi città stavano affrontando una crisi senza precedenti, legata alla gestione ed allo smaltimento di un materiale di scarto: il letame.

Metropoli come New York, infatti, dovevano tener conto nel loro piano di espansione urbanistica dell’aumento di letame prodotto dai principali mezzi di trasporto dell’epoca, i cavalli. Il Times, addirittura, profetizzava "In 50 years, every street in London will be buried under nine feet of manure".

Anche se l’avvento delle macchine e dei trasporti pubblici ha scongiurato questa crisi, in realtà ha solo spostato la criticità da gestire verso la gestione dei combustibili fossili e la ricerca di energie alternative. Oggi, con l’apparente irrefrenabile espansione dell’Intelligenza Artificiale (AI) e, più recentemente, con la Generative AI, stiamo vivendo qualcosa di analogo.

Questa tecnologia ha rivoluzionato il modo in cui interagiamo con il mondo digitale ed ha aperto nuove frontiere nell'automazione e nell'apprendimento automatico. Tuttavia, l'adozione su vasta scala dell'AI ha portato alla creazione di enormi data center ed ha innescato un aumento significativo dell'uso di energia ed altre risorse, contribuendo a crescenti emissioni di CO2. In questo articolo, proveremo ad esplorare l'impatto energetico dell'AI, i suoi effetti sull'ambiente e le strategie di mitigazione che si stanno pianificando per far fronte a questa tematica verde.

  1. Impatto energetico dell'AI

Quantificare l'impatto ambientale dell'AI è difficile per diversi motivi, tra cui il fatto che le aziende che si trovano dietro alle piattaforme più popolari, così come le aziende che vendono i chip che li alimentano, non sono sempre trasparenti nel condividere i dettagli su quanta energia consumano i loro sistemi.

Nella recente pubblicazione del ricercatore Alex de Vries sulla rivista Joule, “The growing energy footprint of artificial intelligence”, si sottolinea come l’introduzione nella quotidianità, privata e lavorativa, di tecnologie legate all’AI, abbia un impatto notevole sull’ambiente, esattamente come l’adozione intensiva di altre recenti pratiche come il crypto mining. Ad esempio, la maggior parte dei dati utilizzati dall’AI è immagazzinata all’interno di data center. Questi ospitano server potenti che richiedono un raffreddamento costante per evitare il surriscaldamento.

L'enorme consumo energetico è diventato una fonte significativa di emissioni di gas serra, con l'energia elettrica prodotta spesso proveniente da fonti non rinnovabili come il carbone e il gas naturale. Questa dipendenza da fonti energetiche inquinanti ha un impatto diretto sul riscaldamento globale e sull'inquinamento atmosferico.

  1. Esempi specifici di impatti ambientali

L'adozione diffusa dell'AI può aumentare la domanda complessiva di energia elettrica, portando a maggiori estrazioni di combustibili fossili, deforestazione e altri impatti negativi sull'ambiente. Questo ciclo può contribuire all'aumento dei livelli di inquinamento e al deterioramento delle risorse naturali.

Ad esempio, gli algoritmi su cui questa tecnologia si basa, i Large Language Model (LLM), hanno bisogno di una fase di addestramento per “apprendere” i dati su cui si baseranno le loro risposte. Il che implica l'uso di grandi quantità di energia. Inoltre, l’addestramento di questi modelli comporta il consumo di enormi quantità di dati, spesso archiviati su server con un alto impatto ambientale.

I server dei data center che memorizzano questa vasta mole di informazioni richiedono inoltre enormi quantità di acqua, utilizzata comunemente come sistema di raffreddamento. Questi sistemi rappresentano circa il 7% del consumo di elettricità della Danimarca e il 2,8% del consumo degli Stati Uniti.

Come ulteriore impatto, va tenuto conto che per l’addestramento e l’utilizzo della GenAI è necessario ricorrere a particolari dispositivi hardware, le schede grafiche (GPU), che hanno raggiunto impressionanti capacità di parallelizzazione dei calcoli. Sebbene le prestazioni di questi dispositivi consentano la generazione di contenuti in tempi molto contenuti, la realizzazione da parte di società specializzate come NVIDIA ed AMD è già in affanno. Questo a causa del vertiginoso aumento della domanda da parte delle società operanti nel settore della GenAI, ma soprattutto per la difficoltà nel reperimento delle materie prime necessarie come alluminio, zinco, nickel e delle cosiddette “terre rare”, spesso estratte da regioni in Africa o Asia con forti tensioni geopolitiche (si pensi soltanto alle tassazioni imposte nel 2020 dall’amministrazione Trump sui rapporti commerciali asiatici).

  1. Strategie di Mitigazione

Tenuto conto dell'impatto energetico dell'AI, le aziende che volessero adottare questo potente strumento dovranno inevitabilmente munirsi delle giuste precauzioni per mitigare gli effetti ambientali. Ad esempio, non è pensabile di adottare su vasta scala soluzioni “on-premise”, installando nei propri stabilimenti le potenti GPU per l’addestramento dei modelli. Andrebbe valutata piuttosto l’adozione di soluzioni in Cloud, fiduciosi che i principali provider dispongano di maggiori risorse per attuare nel concreto infrastrutture green.

La limitazione della potenza dei modelli sembra non essere una soluzione. Nel breve periodo di vita delle piattaforme di Generative AI abbiamo già assistito a diversi scenari in cui gli utenti si sono dimostrati inaspettatamente ansiosi per ciò che vedono come un peggioramento delle prestazioni degli strumenti come ChatGPT (se questo è solo una questione di percezione o basato sulla realtà non è ancora certo). Sacrificare le prestazioni per ridurre l'impatto ecologico sembra quindi improbabile.

È indispensabile tenere conto del consumo di risorse già nelle fasi di design del prodotto. Nel caso di BID Company, una delle iniziative chiave è "Chatto", un chatbot alimentato da AI che offre supporto ai clienti sulla base dei loro dati aziendali. Chatto è stato progettato per essere altamente scalabile, in modo che possa adattarsi alle risorse richieste in tempo reale. Ciò significa che l'energia viene utilizzata in modo più efficiente, riducendo al minimo gli sprechi.

Sei interessato a percorsi di formazione teorica e pratica sull'AI Generativa?

 

Quali possono essere ulteriori aspetti da tenere in considerazione per attutire l’impatto ambientale dell’AI?

Utilizzo di Energia Rinnovabile: Un modo efficace per ridurre l'impatto delle emissioni di CO2 è la transizione verso l'uso di energia rinnovabile. L'energia solare, eolica e idroelettrica sono fonti di energia pulita che possono alimentare i data center.

Ottimizzazione dell'Efficienza Energetica dei Data Center: Migliorare l'efficienza energetica dei data center è cruciale. Tecnologie come la virtualizzazione, la gestione del raffreddamento e l'adozione di hardware più efficiente possono contribuire a ridurre il consumo di energia.

Adozione di Politiche di Sostenibilità: Le aziende devono impegnarsi a implementare politiche di sostenibilità che includano la riduzione, il monitoraggio e la rendicontazione delle emissioni di gas serra. Laboratori di ricerca, provider ed utenti di AI dovrebbero monitorare e pubblicare la propria impronta ecologica per permettere scelte informate. È importante adottare strumenti che consentano di stimare le emissioni durante l'esecuzione del codice e considerare questi parametri per valutare l'impatto ambientale dei modelli di ML.

“Riciclaggio” di Modelli Generativi preesistenti: Non è sempre necessario che le aziende sviluppino i propri modelli generativi, poiché è un processo che richiede notevoli quantità di energia. Adottare, come già accennato, a soluzioni in cloud, permette di sfruttare le risorse di calcolo e i dati di addestramento già disponibili.

Affinamento di Modelli Esistenti: Le aziende dovrebbero preferire l'ottimizzazione di modelli esistenti anziché addestrarne di nuovi da zero, eccezion fatta per casi specifici di modelli sperimentali o altamente customizzati. Questo metodo è meno dispendioso in termini energetici e può fornire un valore maggiore.

Metodi computazionali a risparmio energetico: si stanno facendo largo sul mercato anche metodi computazionali che consentono di risparmiare energia rispetto all'uso di CPU e GPU tradizionali. Il framework TinyML, ad esempio, consente agli utenti di eseguire modelli di ML su dispositivi edge a basso consumo energetico, come microcontrollori con requisiti di larghezza di banda ridotti (non è necessario inviare i dati al server per l'elaborazione).

Un altro esempio recente di ottimizzazione delle risorse è la cosiddetta “ring attention”. Nel paper “Ring Attention with Blockwise Transformers for Near-Infinite Context” si illustra un metodo che consente di scalare, a parità di performance, le capacità di memoria richieste per addestrare i modelli.

Utilizzo Consapevole dell'Intelligenza Artificiale Generativa: ultimo aspetto da tenere fortemente in considerazione è la scelta se adottare o meno la GenAI. Una volta metabolizzato il potenziale impatto ecologico che può portare l’utilizzo senza briglie di questa tecnologia, è indispensabile valutare alternative più sostenibili dove possibile. Ad esempio, nel momento in cui si dovesse aver bisogno un output più deterministico e meno probabilistico, il caro vecchio machine learning è sempre preferibile. In generale, quando si ha a che fare con la generazione di contenuti creativi (generazione di immagini o realizzazione di campagne marketing), interrogarsi se sia preferibile ricorrere alla creatività umana aiuterà senz’altro a incentivare un utilizzo più consapevole dell’approccio automatico.

In un’intervista al Guardian, Sasha Luccioni, ricercatrice in Ethical and Sustainable AI in Hugging Face, ha affermato

"Non ha senso bruciare una foresta e poi usare l'AI per contrastare la deforestazione".

Sasha Luconi, intervista al Guardian
  1. Parola d'ordine: consapevolezza

Attualmente l’Intelligenza Artificiale non è ancora pienamente nel radar delle iniziative a difesa del cambiamento climatico. Sempre citando l’intervista di Luccioni, "Puoi pensare a un computer o a qualcosa che ha una forma fisica, ma l'AI è così effimera. Anche per le aziende che cercano di fare sforzi, non vedo tipicamente l'AI sul radar"

Questa effimerità esiste anche per gli utenti finali. Sappiamo di arrecare danno al pianeta quando accendiamo le nostre auto perché possiamo vedere o sentire i gas di scarico dopo aver girato la chiave. Con l'AI, non puoi vedere i server basati su cloud che vengono interrogati o i chip che interrogano la loro memoria per completare i compiti di elaborazione richiesti.

L'AI ha dimostrato un enorme potenziale nel trasformare i settori e migliorare la nostra vita quotidiana. Tuttavia, è essenziale riconoscere l'impatto energetico che essa comporta sull'ambiente e prendere misure proattive per mitigare questo impatto. La transizione verso fonti di energia rinnovabile, l'ottimizzazione dell'efficienza energetica e l'adozione di politiche di sostenibilità sono passi fondamentali per ridurre l'impatto dell'AI sull'ambiente.

L'AI può essere un motore di cambiamento positivo, ma solo se lo utilizziamo in modo responsabile e sostenibile. La nostra responsabilità nei confronti del pianeta e delle generazioni future richiede fin dalle prime fasi di realizzazione di queste soluzioni un approccio consapevole e sostenibile, a meno di non volersi ritrovare, figurativamente parlando, “sommersi nel letame” come si temeva più di un secolo fa.

 

Ti è piaciuto l'articolo? L'ha scritto Giovanni Palazzo, MLOps Engineer e docente del Generative AI HUB!