Il costo ambientale dell’intelligenza artificiale nell’infosfera: il paradosso di Jevons e le sue implicazioni

L’intelligenza artificiale (AI) è una delle tecnologie più sorprendenti e rivoluzionarie del nostro tempo. Grazie all’AI, possiamo comunicare con chatbot, guidare auto autonome, scoprire nuove cure mediche e molto altro ancora.

Ma l’AI ha anche un lato oscuro: il suo impatto ambientale. Per funzionare, l’AI ha bisogno di enormi quantità di energia, che spesso proviene da fonti inquinanti. Inoltre, l’AI crea un paradosso che minaccia di aumentare ancora di più il suo consumo energetico.

Il paradosso di Jevons

Questo paradosso, che prende il nome dall’economista inglese William Stanley Jevons, sostiene che quando una tecnologia diventa più efficiente dal punto di vista energetico, la sua domanda aumenta. Questo perché la tecnologia diventa più accessibile e conveniente, e quindi più usata.

Questo paradosso si applica perfettamente all’AI, soprattutto all’addestramento dei modelli. I modelli di AI sono dei programmi che imparano da grandi quantità di dati e che richiedono molta potenza di calcolo per essere creati.

Quando le innovazioni tecnologiche rendono più facile e veloce addestrare i modelli di AI, si crea una maggiore richiesta di questi modelli. Questa maggiore richiesta può annullare i benefici in termini di efficienza energetica ottenuti con le innovazioni tecnologiche.

Esempi reali

Per rendere più chiaro questo paradosso, vediamo alcuni esempi reali.

Nel 2022, il modello di intelligenza artificiale GPT-3 è stato addestrato su un dataset di 1,56T di parole. Per creare questo modello, sono stati usati 175 petaflop di potenza di calcolo, equivalenti a quella di 175.000 computer di fascia alta.

Nel 2023, un nuovo modello di intelligenza artificiale chiamato Megatron-Turing NLG è stato addestrato su un dataset di 530T di parole. Per creare questo modello, sono stati usati 530 petaflop di potenza di calcolo, equivalenti a quella di 530.000 computer di fascia alta.

Come si può notare, l’aumento della dimensione dei dataset porta a un aumento della potenza di calcolo necessaria per addestrare i modelli di AI.

Soluzioni possibili

Per affrontare il problema dell’impatto ambientale dell’AI, dobbiamo agire per ridurre il consumo energetico necessario per sviluppare e usare i sistemi di AI.

Tra le soluzioni possibili, possiamo considerare:

  • L’utilizzo di fonti di energia rinnovabili per alimentare i data center che ospitano i sistemi di AI. Questo può ridurre le emissioni di gas serra e contribuire alla lotta contro il cambiamento climatico.
  • L’ottimizzazione dei processi di addestramento dei modelli di AI per ridurre il consumo energetico. Questo può comportare l’uso di algoritmi più efficienti, la selezione dei dati più rilevanti e la riduzione della complessità dei modelli.
  • Lo sviluppo di modelli di AI più efficienti in termini di risorse. Questo può implicare l’uso di tecniche come la compressione, la distillazione e la sparsificazione dei modelli.

Ma l’inquinamento era presente anche prima

Tuttavia, non possiamo attribuire tutto l’impatto ambientale dell’AI solo alle innovazioni tecnologiche recenti. Già prima dell’avvento dell’AI generativa, c’era una grande produzione e consumo di dati che contribuiva a inquinare l’ambiente.

Questi dati sono quelli che vengono chiamati “big data”, ovvero grandi quantità di dati provenienti da diverse fonti e che possono essere analizzati per scoprire pattern, tendenze e correlazioni.

I big data sono stati usati per vari scopi, come la ricerca scientifica, il marketing, la sicurezza e la politica. Tuttavia, i big data hanno anche un costo ambientale elevato, dato che richiedono molta energia per essere raccolti, trasferiti, archiviati e processati.

Secondo uno studio del 2018 1, i big data sono responsabili del 3% delle emissioni globali di CO2 e consumano il 4% dell’elettricità mondiale. Inoltre, i big data generano una grande quantità di rifiuti elettronici che possono contenere sostanze tossiche e nocive per l’ambiente e la salute umana.

Ma adesso , l’IA , soprattutto quella generativa , ha incrementato la produzione di dati avvalorando maggiormente, semmai ce ne fosse bisogno, il concetto di Infosfera, termine che rappresenta un vero e proprio pilastro di questo sito e della mia divulgazione.

Cosa è l’Infosfera

L’infosfera è il termine usato per indicare la globalità dello spazio delle informazioni. L’infosfera include sia il cyberspazio (Internet, telecomunicazioni digitali) sia i mass media classici (biblioteche, archivi, emeroteche).

L’infosfera è stata definita dal filosofo Luciano Floridi come “lo spazio semantico costituito dalla totalità dei documenti, degli agenti e delle loro operazioni” 2, dove per “documenti” si intende qualsiasi tipo di dato, informazione e conoscenza, codificata e attuata in qualsiasi formato semiotico, gli “agenti” sono qualsiasi sistema in grado di interagire con un documento indipendente (ad esempio una persona, un’organizzazione o un robot software sul web) e il termine “operazioni” include qualsiasi tipo di azione, interazione e trasformazione che può essere eseguita da un agente e che può essere presentata in un documento.

L’infosfera è il luogo in cui si svolge la nostra vita digitale, ma anche il contesto in cui si forma la nostra identità, la nostra cultura e la nostra conoscenza. L’infosfera è quindi una realtà che ci riguarda da vicino e che ha un forte impatto sul nostro modo di essere e di pensare.

Noi siamo immersi nell’infosfera

Spesso, però, noi non siamo consapevoli di essere immersi nell’infosfera e di come questa influenzi la nostra vita. Prendiamo per scontato l’accesso alle informazioni, la possibilità di comunicare con chiunque e in qualsiasi momento, la facilità di creare e condividere contenuti.

Ma non ci rendiamo conto di quanto l’infosfera sia fragile, vulnerabile e complessa. L’infosfera è infatti esposta a vari rischi, come gli attacchi informatici, le fake news, la manipolazione dei dati, la violazione della privacy, la censura, la disinformazione.

Per questo, è importante avere le competenze necessarie per gestire l’infosfera in modo responsabile ed etico. Dobbiamo essere in grado di valutare la qualità, l’affidabilità e la rilevanza delle informazioni che riceviamo e che produciamo. Dobbiamo essere consapevoli dei diritti e dei doveri che abbiamo come cittadini digitali. Dobbiamo essere rispettosi degli altri agenti che popolano l’infosfera, sia umani che artificiali.

Secondo me

L’intelligenza artificiale è una tecnologia con un enorme potenziale, ma anche con una grande responsabilità. Dobbiamo essere consapevoli del suo impatto ambientale e agire per renderlo sostenibile. Solo così potremo godere dei benefici dell’AI senza compromettere il nostro futuro. Dobbiamo anche essere consapevoli del nostro ruolo nell’infosfera e delle competenze che dobbiamo sviluppare per gestirla in modo efficace ed etico. Solo così potremo vivere nell’infosfera senza perderci o subirla.

Intelligenza artificiale e l'ambiente
Intelligenza artificiale e l’ambiente

Argomenti correlati

Canale Video

1 commento su “Il costo ambientale dell’intelligenza artificiale nell’infosfera: il paradosso di Jevons e le sue implicazioni”

  1. Pingback: Il costo ambientale dell’intelligenza art...

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Scroll to Top