L’uso crescente dell’intelligenza artificiale ha aperto nuove possibilità in molti ambiti, ma pochi sanno che alcune risposte generate da questi sistemi possono provocare un impatto ambientale significativo. Un recente studio condotto dalla Hochschule München University of Applied Sciences in Germania ha analizzato le emissioni di anidride carbonica prodotte da diversi modelli linguistici durante l’elaborazione delle domande. I risultati mostrano differenze sostanziali nelle emissioni a seconda del tipo di ragionamento richiesto e del modello utilizzato.
Il funzionamento dei modelli linguistici e l’impatto ambientale nascosto
I Large Language Model usano i cosiddetti token, cioè parole o frammenti di parole convertiti in numeri per poter essere elaborati dal sistema. Questa conversione è solo una parte della catena computazionale che porta alla generazione della risposta finale. Ogni passaggio richiede energia e produce quindi emissioni di CO2 legate al consumo elettrico dei data center dove si trovano i server.
Secondo Maximilian Dauner, primo autore dello studio, la complessità del processo mentale simulato dall’intelligenza artificiale influisce pesantemente sull’impatto ambientale. I modelli che adottano un approccio più articolato al ragionamento consumano molta più energia rispetto a quelli che forniscono risposte semplici o dirette.
In pratica questo significa che non tutte le risposte generate dall’Ai hanno lo stesso costo ecologico: quelle elaborate attraverso passaggi intermedi più lunghi producono fino a 50 volte più emissioni rispetto alle risposte immediate.
Test su 14 modelli linguistici: precisione contro sostenibilità
Il team tedesco ha messo alla prova 14 Llm con parametri variabili tra 7 e 72 miliardi per valutare quanta anidride carbonica veniva emessa nel fornire risposte a mille domande standardizzate su argomenti diversi.
I modelli basati sul ragionamento hanno prodotto in media oltre 500 token “pensanti” prima della risposta vera e propria, mentre quelli semplici ne hanno generati meno di quaranta. Questo maggiore numero di token corrisponde direttamente a un aumento significativo delle emissioni prodotte.
Tra tutti i sistemi testati il modello Cogito si è distinto per accuratezza raggiungendo quasi l’85% nelle risposte corrette ma con un costo energetico triplo rispetto ad altri modelli simili con output meno complessi.
Un dato interessante riguarda il compromesso evidente tra precisione ed eco-sostenibilità: nessun modello con basse emissioni è riuscito ad andare oltre l’80% nella percentuale di correttezza sulle domande proposte dagli studiosi.
Inoltre la materia trattata incide molto sull’impronta climatica: quesiti matematicamente o filosoficamente complessi provocavano fino a sei volte più CO2 rispetto alle domande storiche tipiche degli istituti superiori.
Suggerimenti per un uso responsabile dell’intelligenza artificiale
Lo studio sottolinea come sia necessario adottare scelte consapevoli nell’utilizzo degli assistenti virtuali basati su intelligenza artificiale. Limitare la richiesta ai soli casi dove serve davvero potenza computazionale elevata può aiutare a contenere le conseguenze ambientali negative senza rinunciare ai benefici tecnologici offerti dai Llm avanzati.
Maximilian Dauner invita gli utenti ad evitare inutilmente processamenti lunghi quando sono sufficienti spiegazioni brevi o soluzioni rapide; questa semplice attenzione ridurrebbe drasticamente la quantità totale delle emissioni associate all’impiego quotidiano dell’A.i..
Se si avesse chiaro quanto pesa ambientalmente ogni singola azione compresa quella apparentemente innocua come realizzare una figurina personalizzata tramite intelligenza artificiale si potrebbe gestire meglio quando usare questi strumenti evitando sprechi inutilizzati o sovraccarichi ingombranti per il pianeta.