Consulenza aziendale, commerciale e marketing

17 Aprile 2025

Parlare con l’AI consuma? Meno di asciugarti i capelli

Parlare con un chatbot consuma CO2, elettricità e acqua. Ma quanto davvero? E soprattutto: è il nuovo nemico ambientale o solo un altro capro espiatorio per gli apocalittici digitali?

Ogni volta che qualcuno digita una domanda a ChatGPT, da qualche parte nel mondo un server si accende, una GPU lavora, e, secondo alcuni, il pianeta geme sotto il peso di qualche grammo di CO2, qualche frazione di wattora e una spruzzata d’acqua. Ma davvero parlare con un chatbot può affondare il pianeta?

Gli estremisti ambientali più catastrofisti, quelli che misurano l’ecosostenibilità anche dell’aria che respiri digitando sulla tastiera, ci avvisano con tono grave: ogni richiesta a ChatGPT produce circa 4 grammi di CO2. Oh, cielo! Il mondo brucia e noi chiediamo a un’intelligenza artificiale quale sia la capitale del Botswana. Per contestualizzare: 15 domande ad un ChatBot equivalgono più o meno a guardare un’ora di Netflix o a far bollire un bollitore pieno d’acqua.

E allora? Rinunciamo anche al tè caldo per salvare il pianeta? In effetti, OpenAI esegue ChatGPT sui data center Azure di Microsoft, che si dichiarano da sempre carbon neutral; ossia, per ogni CO2 emessa, fanno qualcosa per rimediare: piantano un albero, comprano crediti (forse accarezzano un koala). In ogni caso, se tutta l’energia usata venisse da fonti rinnovabili, l’impronta reale sarebbe vicina allo zero.

Vuoi leggere l’articolo completo?

Abbonati a Ratio Quotidiano o contattaci per maggiori informazioni.
Se sei già abbonato, accedi alla tua area riservata.

C.F e P.IVA: 01392340202 · Reg.Imp. di Mantova: n. 01392340202 · Capitale sociale € 210.400 i.v. · Codice destinatario: M5UXCR1

© 2025 Tutti i diritti riservati · Centro Studi Castelli Srl · Privacy · Cookie · Credits