Secondo il New Yorker, per soddisfare i 200 milioni di richieste degli utenti, il chatbot ChatGPT di OpenAI consuma ogni giorno più di mezzo milione di kWh di elettricità, 17.241 volte in più rispetto alla media delle famiglie americane (ogni famiglia consuma circa 29 kWh/giorno).

Si tratta di un fatto preoccupante e dobbiamo prepararci per il futuro, quando l'intelligenza artificiale (IA generativa) diventerà sempre più diffusa e ampiamente applicata.
Uno studio di Alex de Vries, data scientist presso la Banca nazionale olandese, ha scoperto che entro il 2027 i nuovi dispositivi di intelligenza artificiale consumeranno la stessa quantità di elettricità dei Paesi Bassi o di paesi come Svezia e Argentina.
Supponendo che Google integri anche l'intelligenza artificiale generativa in ogni query di ricerca, il consumo di elettricità raggiungerebbe circa 29 miliardi di kWh all'anno, più del consumo totale di paesi come Kenya, Guatemala e Croazia nello stesso periodo.
Attualmente è difficile stimare la quantità di elettricità consumata dal settore dell'intelligenza artificiale, perché i modelli di intelligenza artificiale su larga scala in uso e le Big Tech non rivelano con precisione il loro consumo energetico.
Secondo Alex de Vries, entro il 2027 l'intero settore dell'intelligenza artificiale consumerà tra 85 e 134 TWh (1 terawatt = 1 miliardo di kilowatt) all'anno, pari a circa la metà del consumo globale di elettricità.
Secondo un rapporto di Consumer Energy Solutions, le più grandi aziende tecnologiche del mondo sono quelle che consumano più elettricità al mondo. Nello specifico, Samsung utilizza circa 23 TWh, Google più di 12 TWh e Microsoft più di 10 TWh per gestire data center, reti e dispositivi degli utenti.
In futuro, se non si adotta un piano o una soluzione specifici, l'industria dell'intelligenza artificiale avrà un impatto significativo sulla sicurezza energetica e, indirettamente, avrà un impatto negativo sull'ambiente.