Ogni volta che parliamo con ChatGPT, consumiamo litri d’acqua

chatgpt consumi acqua

Quanta acqua consuma ChatGPT? No, non sono impazzito: per quanto strana, nell’epoca storica di sfide idriche globali che stiamo vivendo è una domanda lecita da farsi quando si ha a che fare con tecnologie avanzate come l’intelligenza artificiale generativa. Ed è proprio la domanda che si stanno facendo gli studiosi negli Stati Uniti, dove nelle università in Colorado e Texas sono stati calcolato i consumi idrici di OpenAI per creare GPT, il modello linguistico su cui si basa appunto il chatbot ChatGPT. E il risultato potrebbe stupire tutti coloro che non pensano all’impatto in termini di risorse che hanno questi servizi IA.

ChatGPT beve come un cammello: gli studi rivelano gli alti consumi d’acqua di OpenAI

ChatGPT

Partiamo a monte, cioè dalla creazione del sistema d’intelligenza artificiale: secondo questi studi, OpenAI e Microsoft avrebbe utilizzato circa 700.000 litri d’acqua dolce per alimentare e raffreddare i data center che ha eseguito l’addestramento del modello linguistico GPT-3 di OpenAI, che viene utilizzato sia da ChatGPT che da tutti coloro che creano servizi IA basati sulle sue librerie API; per avere un metro di paragone, è lo stesso quantitativo d’acqua consumato per produrre 370 automobili BMW. Se a questo uniamo i consumi idroelettrici avvenuti fuori sede, la cifra sale addirittura a 3,5 milioni di litri, che salirebbero a 4,9 milioni qualora lo stesso addestramento avvenisse in Asia, laddove l’unità di misura WUE (Water Usafe Effectiveness) è gestita in maniera peggiore. Ovviamente questo non riguarda soltanto OpenAI: per Google e il suo LaMDA (accusato in passato di essere senziente) si parla di 1 milione di litri.

Gli studi americani hanno anche preso in esame l’interazione dell’utente: ogni 20-50 domande a ChatGPT consumiamo mezzo litro d’acqua. E considerato che stiamo parlando ancora di GPT-3, la prossima espansione di GPT-4 non potrà che aumentare questi consumi, trattandosi di un modello linguistico di più ampie dimensioni.

ChatGPT

Le stime di settore evidenziano che i più grandi data center nel mondo, cioè quelli utilizzati da OpenAI e compagnie simili, rappresentano il 2% dei consumi globali in termini di elettricità e impronta di carbonio. E se si parla d’acqua, nel 2014 i data center americani hanno consumato circa 626 miliardi di litri, e nel 2021 soltanto quelli di Google negli Stati Uniti hanno “bevuto” qualcosa come 12,7 miliardi di litri d’acqua (al 90% potabile). Dai ricercatori coinvolti negli studi parte quindi la richiesta verso aziende come OpenAI, Microsoft e Google di assumersi la responsabilità, dimostrando più trasparenza sull’impronta idrica che comporta sviluppare tecnologie del genere e utilizzando fonti energetiche sostenibili. In tal senso, Google si è impegnata nell’obiettivo delle emissioni zero entro il 2030, mentre Microsoft entro il 2050.

Anche perché ci sono tutti gli indizi affinché modelli come GPT diventeranno i motori di ricerca del futuro, il ché significherà un ulteriore aumento dell’inquinamento. Per gli analisti, utilizzare modelli linguistici del genere nei vari motori di ricerca Google e Microsoft significa quintuplicare la potenza di calcolo dei data center in azione, con un maggiore impatto sugli impianti energetici, idrici e sull’atmosfera. Gli studi di Google evidenziano che la creazione di GPT-3 ha significato un consumo di 1.287 MWh, l’equivalente di 460 voli A/R in jet fra New York e San Francisco, e l’espulsione nell’atmosfera di 552 tonnellate di CO2.

⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.