Etica, Limiti e Rischi

Viviamo in una strana foresta di mangrovie. Non sono piante, ma notifiche, algoritmi, modelli che parlano con la nostra voce.


Infosfera

Viviamo in una strana foresta di mangrovie. Non sono piante, ma notifiche, algoritmi, modelli che parlano con la nostra voce. L’acqua dolce della vita analogica si mescola con l’acqua salata del digitale, e ogni giorno ci svegliamo un po’ più immersi in questa infosfera che cresce a ritmi vertiginosi.
Mentre i governi sperimentano sistemi di intelligenza artificiale per la difesa, le aziende rincorrono l’ennesima promessa di produttività infinita e la scuola fatica a riconoscere i propri studenti dietro i compiti scritti dai modelli generativi, una domanda diventa inevitabile: che cosa resta dell’umano in tutto questo?
In questa puntata voglio portarti dentro l’idea di Umanesimo digitale: un modo diverso di abitare la tecnologia, ispirato da pensatori come Luciano Floridi, con la sua infosfera e la società delle mangrovie, e Federico Faggin, che ci ricorda che nessuna AI potrà mai essere cosciente come un essere umano.
Parleremo di etica, di geopolitica dell’AI, di rischi di controllo sociale e di studenti allo sbando, ma anche di un curioso ritorno delle materie classiche, chiamate oggi a fare da bussola in un mondo dove i confini tra online e offline sono evaporati.
Se vuoi approfondire i temi che ascolterai tra poco, trovi in descrizione il link a un mio articolo sul blog Umanesimo Digitale, dove ho raccolto dati, esempi e riferimenti per continuare questo viaggio con più calma e più strumenti critici.
https://umanesimodigitale.info



Umanesimo digitale: abitare l’infosfera senza perderci l’anima

Perché tra hype sull’AI, guerre algoritmiche e scuola in crisi abbiamo un disperato bisogno di persone, non solo di modelli.

1

Che cosa intendo per Umanesimo digitale

Quando parlo di Umanesimo digitale, non mi riferisco a un semplice “umanesimo che usa la tecnologia”, ma a un cambio di postura: rimettere la persona al centro in un mondo dove il centro, troppo spesso, è il dato, l’algoritmo, la piattaforma. In questa prospettiva, riprendo l’intuizione dell’umanesimo rinascimentale che riportò l’essere umano al cuore della storia e la applico all’ecosistema digitale, dove oggi si gioca il nuovo “campo di forze” sociale, economico e politico.

Per me essere umanista in epoca digitale significa almeno tre cose:

  • Vedere la tecnologia come ambiente (non solo strumento), un po’ come il mondo fisico per gli umanisti del Quattrocento, e chiedersi quali forme di vita stia rendendo possibili.
  • Difendere la dignità della persona contro ogni riduzione a profilo, punticino di dati, “utente”, “inforg” neutro, ricordando che dietro ogni click c’è una biografia.
  • Fare da traduttore tra linguaggi: quello degli ingegneri, quello dei filosofi, quello degli insegnanti, dei cittadini, degli studenti spaesati.

In questo senso l’umanesimo digitale non è nostalgia del passato, ma una postura critica e creativa verso il futuro: non accetta che siano solo le big tech, gli algoritmi di raccomandazione o i generali a decidere che mondo stiamo costruendo.

2

Floridi, Faggin e la centralità dell’umano

Non siamo soli in questo lavoro di “ricentraggio” dell’umano. Due figure, in particolare, hanno influenzato profondamente il mio modo di vedere il digitale: Luciano Floridi e Federico Faggin.

Luciano Floridi: infosfera e società delle mangrovie

Floridi ci ha regalato alcune parole chiave senza cui oggi è difficile capire la condizione digitale: infosfera, onlife, società delle mangrovie.

Infosfera: è l’insieme dell’ambiente informazionale in cui viviamo, un po’ come la biosfera lo è per la vita biologica. Non è solo internet, ma tutto ciò che è strutturato informazionalmente: dai database pubblici ai social, dai sensori delle smart city agli archivi sanitari.

Onlife: non esiste più una vera linea di confine tra online e offline; viviamo in un habitat ibrido, dove il messaggio WhatsApp, il documento in cloud, la posizione GPS e la stretta di mano si intrecciano in un’unica esperienza.

Società delle mangrovie: la metafora è potente. Le mangrovie crescono dove l’acqua dolce e quella salata si mescolano: così noi abitiamo un ambiente “salmastro”, dove analogico e digitale si confondono.

In questa società delle mangrovie, il compito dell’umanesimo digitale è aiutare le persone a orientarsi in un ambiente dove le categorie tradizionali (vero/falso, pubblico/privato, vicino/lontano) si sfumano e si ricombinano.

Federico Faggin: coscienza, libertà e limite dell’AI

Federico Faggin, inventore del microprocessore e oggi instancabile ricercatore sulla coscienza, offre un contrappunto fondamentale al discorso sull’AI. Faggin sostiene che l’intelligenza artificiale non sarà mai cosciente: la coscienza non è riducibile ad algoritmo, perché è legata a una qualità dell’esperienza che sfugge alla computazione.

Per Faggin:

  • La coscienza e il libero arbitrio sono ciò che rendono l’essere umano insostituibile, non replicabile da macchine.
  • L’essere umano ha una “marcia in più”: la capacità di provare significato, valori, spiritualità, elementi che nessuna AI può simulare senza davvero possederli.
  • La tecnologia va messa al servizio della crescita della coscienza, non il contrario: se la usiamo per standardizzare, controllare, omologare, tradiremo la nostra stessa natura.

Io mi riconosco profondamente in questa visione: l’AI è potente, ma resta strumento. Se dimentichiamo questo, l’umanesimo digitale diventa solo uno slogan da brochure aziendale.

3

Infosfera che esplode: dati, AI e “seconda natura”

La crescita dell’infosfera negli ultimi anni è diventata quasi vertiginosa, e i numeri parlano da soli. In Italia, per esempio, il mercato dei Big Data e dell’analisi avanzata è cresciuto del 20% nel 2025, raggiungendo 4,1 miliardi di euro; un quarto di questo mercato riguarda ormai infrastrutture e soluzioni di GenAI, con applicazioni diffuse in business intelligence, data science, coding e analisi dati.

+20%
Crescita Big Data 2025
4,1Mld
Valore mercato Italia
89%
PMI con analisi dati
+76%
Crescita strumenti AI

Nello stesso periodo:

  • Le PMI italiane che fanno analisi dati sono arrivate all’89%, dieci punti in più in un solo anno, segno di una penetrazione capillare della cultura del dato, anche se spesso in modo ancora artigianale.
  • Gli strumenti di AI hanno registrato nel 2025 una crescita del 76% rispetto all’anno precedente, secondo dati Comscore elaborati per il mercato digitale italiano, segnalando che l’AI non è più fenomeno di nicchia ma infrastruttura quotidiana del digitale.

In pratica, la infosfera non solo si espande, ma viene sempre più riempita da contenuti generati dall’AI stessa: testi, immagini, video, codice, decisioni. Questo genera almeno tre effetti:

  1. Un aumento enorme del “rumore di fondo”, che rende più difficile distinguere l’informazione rilevante dal resto.
  2. Un rischio di autocannibalizzazione: i modelli AI addestrati su dati generati da altri modelli, in una spirale che può ridurre la qualità complessiva dell’infosfera.
  3. Una crescente asimmetria di potere tra chi controlla i flussi informativi (piattaforme, stati, grandi aziende) e chi li subisce.

In questa “seconda natura” informazionale, l’umanesimo digitale diventa pratica ecologica: prendersi cura dell’ambiente informativo come faremmo con un ecosistema fragile.

4

Geopolitica dell’AI e ritorno delle materie classiche

L’AI non è solo un tema tecnologico, ma una questione geopolitica. Chi controlla i modelli, i data center, le infrastrutture cloud, i cavi sottomarini, definisce nuove geometrie di potere globale. Gli Stati si contendono la supremazia algoritmica in campi strategici: militare, finanza, sorveglianza, comunicazione.

In questo scenario:

  • Gli USA e la Cina giocano una partita di egemonia tecnologica e normativa;
  • L’Europa cerca di fare da “potenza regolatoria”, imponendo vincoli, diritti, standard etici (si pensi ai dibattiti sull’AI Act), nel tentativo di umanizzare la trasformazione digitale.

Paradossalmente, proprio mentre l’AI avanza, vedo tornare in auge materie classiche: filosofia, storia, letteratura, retorica, logica. Non per nostalgia, ma per necessità:

  • Servono competenze critiche per interrogare i presupposti dei modelli, non solo per usarli.
  • Servono capacità narrative per dare senso alle trasformazioni, non solo dashboard per misurarle.
  • Serve una cultura del limite, che la tecnica da sola non fornisce.

Umanesimo digitale, in questo senso, significa anche difendere e rilanciare le humanities come anticorpo contro l’ubris algoritmica.

5

L’altra faccia dell’hype AI: etica, guerre, controllo sociale

L’hype sull’AI è ovunque: promesse di produttività infinita, creatività automatizzata, soluzioni miracolose per scuola, sanità, sicurezza. Ma ogni promessa ha la sua ombra, e l’umanesimo digitale serve proprio a illuminare queste zone grigie.

AI nelle guerre e nell’industria della difesa

Nel settore militare, l’AI viene impiegata per:

  • Sistemi di riconoscimento facciale e analisi predittiva per identificare minacce con precisione senza precedenti.
  • Droni autonomi, sistemi di targeting e analisi di scenari complessi, con automatizzazione progressiva di parti del ciclo decisionale militare.

Ma questo porta con sé rischi enormi:

  • Delegare decisioni letali a macchine può generare errori tragici e violazioni dei diritti umani, specie in contesti urbani complessi.
  • L’uso di modelli intrinsecamente biased può colpire gruppi vulnerabili, amplificando discriminazioni già esistenti.
  • La soglia per entrare in guerra può abbassarsi: se combatti con droni e algoritmi, la percezione del costo umano si attenua, e con essa i freni morali.

Un recente contributo sulle implicazioni dell’IA militare sottolinea come la vera posta in gioco sia culturale e politica: quali limiti etici e di governance vogliamo imporre all’uso di queste tecnologie in ambito bellico e di sorveglianza di massa.

AI e controllo sociale

Gli stessi strumenti che ottimizzano la logistica o prevedono guasti possono essere usati per:

  • Sorveglianza di massa, tracciamento dei comportamenti, profilazione in tempo reale.
  • Scoring sociale di fatto, anche senza chiamarlo così: accesso a credito, servizi, opportunità filtrato da modelli opachi.
  • Micro-targeting politico, manipolazione dell’opinione pubblica, sistemi di censura raffinata.

Qui l’umanesimo digitale deve essere radicale: non basta la retorica della “tecnologia neutrale”. Dobbiamo chiederci chi controlla cosa, con quali diritti di accesso, quali possibilità di resistenza e dissenso restano alle persone.

6

Effetti psicologici e scuola allo sbando

L’AI non cambia solo le industrie, ma le teste e le relazioni. Vedo almeno tre fronti critici: saturazione cognitiva, dipendenza funzionale, crisi del senso del sé.

Saturazione cognitiva e dipendenza

Nel quotidiano, l’uso intensivo di AI e piattaforme intelligenti può portare a:

  • Delegare progressivamente capacità di base: ricordare, pianificare, scrivere, perfino decidere.
  • Una sensazione di inadeguatezza: “io non sarò mai veloce come la macchina”, “i miei testi non saranno mai buoni come quelli del modello”.
  • Un’ansia da prestazione permanente, perché l’output di riferimento è l’output perfettamente ottimizzato di un sistema che può iterare all’infinito.

L’umanesimo digitale qui chiede una cosa semplice e difficile: mantenere l’attrito umano. Scegliere di fare ancora alcune cose “a mano”, di accettare l’imperfezione come luogo di identità, non come difetto da eliminare.

Studenti allo sbando e scuola distante dalla realtà

Uno dei punti che mi preoccupa di più è l’impatto sugli studenti, soprattutto in un sistema scolastico che spesso non ha strumenti, né culturali né organizzativi, per gestire l’onda dell’AI.

Vedo:

  • Compiti svolti dall’AI senza alcuna mediazione, con studenti che diventano “operatori di prompt” e non autori del proprio pensiero.
  • Docenti disorientati: alcuni demonizzano, altri subiscono, pochi riescono a integrare in modo critico.
  • Una scuola che continua a valutare soprattutto il prodotto finale (il testo, il compito, la verifica) e raramente il processo di pensiero, di ricerca, di argomentazione.

In questo scenario, l’umanesimo digitale significa riprogettare la scuola:

  • Passare da “scrivi il tema” a “costruisci un percorso argomentativo, anche usando AI, ma rendendo esplicite le scelte, le fonti, i limiti”.
  • Valutare la capacità di dialogare criticamente con l’AI, non la capacità di copiarne l’output.
  • Riportare al centro le domande di senso, di etica, di responsabilità, non solo le competenze tecniche.
7

L’infosfera in espansione e la società delle mangrovie

Torniamo all’immagine di Floridi: società delle mangrovie, dove analogico e digitale si mescolano in acque salmastre. La nostra infosfera, alimentata dall’aumento esponenziale di dati e dal contributo crescente di contenuti generati dall’AI, diventa l’habitat principale della vita sociale.

La crescita del mercato dei dati, dell’analytics e dell’AI in Italia – con un +20% nel 2025 solo per Big Data e analytics, e un +76% nell’uso di strumenti AI rispetto all’anno precedente – non è solo un dato economico: è un termometro di quanto velocemente stiamo “migrando” in questo ambiente salmastro.

Abitare la società delle mangrovie in modo umanistico per me significa:

  • Imparare a riconoscere dove finisce il contenuto umano e dove inizia quello generato da sistemi, senza demonizzare ma senza ingenuità.
  • Accettare che la distinzione offline/online non regge più, e quindi portare gli stessi principi etici nel digitale che pretendiamo nel fisico.
  • Prenderci cura dell’ecosistema informativo: ridurre inquinamento (disinformazione, hate speech, spam generato), progettare spazi digitali che favoriscano dialogo e non solo engagement.
8

Risorse in italiano: articoli e video consigliati

Chiudo con alcune risorse in italiano per approfondire questi temi, tra umanesimo digitale, infosfera, etica dell’AI e centralità dell’umano.

Articoli e saggi online

Video YouTube consigliati

Etica e Intelligenza Artificiale

Una raccolta di risorse approfondite su etica, rischi, normative e implicazioni sociali dell’intelligenza artificiale. Articoli, video e analisi per comprendere le sfide del presente e del futuro.

Articoli e Approfondimenti

Osservatori.net

L’Etica dell’Intelligenza Artificiale: sfide, rischi e normative

Uno dei principali problemi etici legati all’AI è il rischio di discriminazione. Poiché molti sistemi si basano su algoritmi che apprendono dai dati, possono inconsapevolmente perpetuare pregiudizi presenti nei dati stessi. Un’analisi approfondita delle sfide etiche contemporanee.

Leggi l’articolo
RSI.ch

Intelligenza artificiale ed etica, la battaglia per l’anima digitale

Dalla “tecno-archia” al capitalismo dei dati, la sfida è riprendere il controllo della tecnologia e trasformare l’intelligenza artificiale in uno strumento al servizio dell’umanità. Una riflessione profonda sui dilemmi etici dell’era digitale.

Leggi l’articolo
FIRSTonline

Anthropic contro OpenAI e il Pentagono: chi decide i limiti dell’IA?

Anthropic sostiene che siano i produttori a fissare regole chiare prima della distribuzione, mentre il governo considera questi sistemi come armi strategiche. Un’analisi del conflitto tra principi etici e interessi di potere nel mondo dell’IA.

Leggi l’articolo

Video e Tutorial

Etica IA
Corso

Cosa si intende per Etica dell’Intelligenza Artificiale?

La prima parte del corso “Pensiero Sintetico” offre un’introduzione all’etica dell’IA, esaminando il significato del termine e il suo ruolo nello sviluppo di tecnologie responsabili.

Guarda il video
Bene comune e utilitarismo
Filosofia

Il bene comune e utilitarismo

Un’analisi dei principi etici fondamentali che guidano le decisioni nell’intelligenza artificiale, esplorando le teorie del bene comune e dell’utilitarismo applicate alle tecnologie emergenti.

Guarda il video
Etica AI
Etica

Principi Etici nell’Intelligenza Artificiale

Un approfondimento sui principi etici che dovrebbero guidare lo sviluppo e l’implementazione dei sistemi di intelligenza artificiale nella società moderna.

Guarda il video
Governance AI
Governance

Governance e Regolamentazione dell’IA

Come dovremmo governare l’intelligenza artificiale? Un’analisi delle sfide normative e delle proposte per una regolamentazione efficace dei sistemi di IA.

Guarda il video
Bias AI
Bias

Bias e Discriminazione nei Sistemi di IA

Un’analisi dei pregiudizi incorporati nei sistemi di intelligenza artificiale e delle conseguenze discriminatorie che possono derivarne nella società.

Guarda il video
Privacy IA
Privacy

Privacy e Protezione dei Dati nell’Era dell’IA

Come l’intelligenza artificiale mette a rischio la privacy personale e quali misure sono necessarie per proteggere i dati degli utenti nel mondo digitale.

Guarda il video
Moral Machine
Trolley Problem

Testing AI Ethics with 20 Extreme Moral Scenarios (Trolley Problem)

Moral Machine: testiamo l’etica dell’AI con 20 scenari morali estremi. Un’esplorazione affascinante dell’etica nella programmazione dei veicoli autonomi e delle decisioni algoritmiche.

Guarda il video
Rischi IA
Rischi

I rischi dell’intelligenza artificiale

Un’analisi dei principali rischi associati all’uso dell’intelligenza artificiale, dalla disinformazione alla sicurezza, con proposte per una gestione consapevole delle tecnologie emergenti.

Guarda il video
Supporto Psicologico AI
Psicologia

Artificial Intelligence and Psychological Support: Risks and Opportunities

Le statistiche ci raccontano che sono numerosi i giovani che si affidano ai chatbot di Intelligenza Artificiale per trovare supporto. Un’analisi delle opportunità e dei rischi di questa tendenza.

Guarda il video
Yoshua Bengio
Esperto

The Risks of Artificial Intelligence According to Yoshua Bengio

Temi chiave: Sicurezza e Regolamentazione. Analisi delle proposte di governance e del manifesto di Yoshua Bengio sulla necessità di prudenza e controllo umano nell’IA.

Guarda il video
IA in Medicina
Medicina

INTELLIGENZA ARTIFICIALE IN MEDICINA: UTILIZZO E RISCHI

In questo video il Dott Placentino Filippo, Cardiologo e Aritmologo, spiega l’utilizzo dell’intelligenza artificiale in campo medico e i rischi associati alla sua implementazione.

Guarda il video
IA Cosa Sapere
Introduzione

ARTIFICIAL INTELLIGENCE: What we need to know

L’intelligenza artificiale, ormai, permea sempre di più le nostre vite. È presente nei social che usiamo, nei dispositivi che possediamo, e ci aiuta a svolgere molte attività quotidiane.

Guarda il video
AI Act
Normativa

AI ACT: the new European Regulation on Artificial Intelligence

Nel 2024 è entrato in vigore l’AI Act, il Regolamento europeo sull’intelligenza artificiale. Nel 2025 è stata emanata anche la legge italiana. Una guida completa alla nuova normativa.

Guarda il video
AI Cyber Attacks
Cybersecurity

USE OF A.I. IN CYBER ATTACKS

Come l’intelligenza artificiale viene utilizzata negli attacchi informatici e quali sono le nuove minacce alla sicurezza digitale. Quishing e le trappole nascoste nei codici QR.

Guarda il video
Futuro IA
Futurologia

Quale futuro ci attende? Guerra, IA e la sfida dell’umanità

Roberto Paura, giornalista e docente di Futurologia, parla di quale futuro ci attende, tra guerra, intelligenza artificiale e le grandi sfide che l’umanità dovrà affrontare.

Guarda il video
AI Slop
Contenuti

AI Slop, Fake UGC: È arrivato l’apocalisse dei contenuti falsi?

Benvenuti nel 2025, dove anche i gattini teneri su TikTok potrebbero essere stati generati da un server in Svezia. Come riconoscere e reagire ai contenuti generati dall’IA.

Guarda il video
AI Slop Fine
Discussione

AI slop: la fine del valore dei contenuti?

Benvenuti su AI DA BAR, il format dove scambiamo quattro chiacchiere sull’ultimo hot topic del momento in fatto di intelligenza artificiale e il suo impatto sui contenuti digitali.

Guarda il video

Il Manifesto dell’Umanesimo Digitale

L’Umanesimo digitale si fonda su alcuni principi cardine che guidano il rapporto tra persone e tecnologie intelligenti, ponendo l’umano, non l’algoritmo, come riferimento ultimo.


Principi chiave (in sintesi)

  1. Centralità e dignità della persona
    L’essere umano ha valore intrinseco e non può essere ridotto a dato, utente o profilo; le tecnologie vanno progettate “in base ai valori e ai bisogni umani, invece di consentire alle tecnologie di plasmare gli esseri umani”.
  2. Approccio antropocentrico all’innovazione
    Le soluzioni digitali, e in particolare l’AI, devono essere al servizio della collettività, per ampliare le capacità umane, migliorare benessere, civiltà e partecipazione democratica, non come fine a sé stesse o strumento manipolatorio.
  3. Diritti, democrazia e inclusione
    L’Umanesimo digitale assume i diritti umani e i diritti digitali come bussola: democrazia, inclusione, non discriminazione, sostenibilità sociale ed ambientale sono criteri di progettazione delle tecnologie, come affermato anche nel Manifesto di Vienna.
  4. Etica by design e responsabilità
    L’etica non è un’aggiunta ex post, ma va integrata nella concezione, nello sviluppo e nell’uso delle tecnologie: trasparenza, responsabilità, sicurezza, affidabilità, tutela della privacy e dei dati sono principi operativi, non solo dichiarazioni di intenti.
  5. Critica del tecno-determinismo
    L’Umanesimo digitale rifiuta l’idea che la tecnologia sia neutra o che la sua evoluzione sia inevitabile: invita a “trovare il coraggio di fare le sperimentazioni necessarie” per costruire una società digitale migliore, legando innovazione tecnologica e innovazione sociale.
  6. Educazione, consapevolezza e cittadinanza digitale
    Al centro c’è la formazione di persone capaci di comprendere, usare e criticare le tecnologie, sviluppando competenze etiche, cognitive e civiche per vivere nell’infosfera come cittadini, non come meri consumatori di servizi digitali.
  7. Interdisciplinarità tra umanesimo, scienza e tecnologia
    L’Umanesimo digitale unisce umanesimo, scienze, tecnologia ed etica: humanities, informatica, diritto, filosofia, pedagogia e scienze sociali lavorano insieme per analizzare e orientare la trasformazione digitale.

Come applicare l’Umanesimo Digitale

Applicare l’Umanesimo digitale nell’AI quotidiana significa trasformare principi astratti (centralità della persona, etica, diritti) in piccole scelte concrete ogni giorno, sia come utente sia come professionista.


1. Come utente: 5 abitudini quotidiane

  1. Mantenere il controllo umano sulle decisioni importanti
    • Usare l’AI per avere alternative, sintesi, idee; decidere sempre tu, soprattutto su salute, lavoro, denaro, relazioni.
    • Evitare il “pilota automatico”: rileggere e correggere ciò che la macchina produce, invece di fare copia–incolla.
  2. Essere consapevole di dati e privacy
    • Limitare i dati personali che inserisci in chatbot, assistenti o app basate su AI, soprattutto informazioni sensibili.
    • Preferire servizi che dichiarano chiaramente come usano i dati, che prevedono crittografia, anonimizzazione, controlli di sicurezza.
  3. Non delegare identità e pensiero critico
    • Usare l’AI per ispirarti quando scrivi, studi o lavori, ma riformulare con parole e struttura tua, assumendoti la responsabilità del contenuto.
    • Verificare i fatti importanti con fonti indipendenti; l’AI può “inventare” informazioni plausibili ma false.
  4. Riconoscere e ridurre i bias
    • Se un suggerimento o una risposta ti sembra discriminatoria, stereotipata o sbilanciata, trattala come un campanello d’allarme, non come verità.
    • Cambiare prompt, confrontare più strumenti, e – se possibile – segnalare l’output problematico (funzioni di feedback, report ecc.).
  5. Coltivare alfabetizzazione digitale ed etica
    • Imparare le basi: cos’è un modello, che dati usa, quali limiti ha.
    • Chiederti: “Chi guadagna da questa funzione?”, “Quali conseguenze ha per me o per gli altri?”, “Sto usando l’AI per emanciparmi o per spegnere lo sforzo mentale?”.

2. Come professionista / docente / manager

a) Progettare e usare AI con approccio antropocentrico

  • AI come partner, non sostituto: impostare strumenti che amplifichino lavoro e creatività delle persone, invece di rimpiazzarle in blocco.
  • Supervisione umana strutturale: definire chi ha l’ultima parola sulle decisioni automatizzate (es. rifiuto mutuo, selezione candidati, diagnosi di rischio).

Esempio: in azienda usare l’AI per pre-filtrare CV, ma obbligare la revisione umana dei profili scartati o borderline, con tracciamento delle motivazioni.

b) Etica by design nei processi

  • Integrare check etici e legali sin dalle fasi di analisi e sviluppo: scopo, impatto sui diritti, categorie fragili coinvolte, possibilità di abuso.
  • Ispirarsi a framework esistenti (Ethically Aligned Design, statuti etici nazionali, linee guida per PA e imprese) come base per le proprie policy interne.

Esempio: adottare una checklist minima prima del rilascio di ogni sistema AI (trasparenza, spiegabilità di base, canale per reclami, procedure di audit periodico).

c) Formazione continua e inclusiva

  • Prevedere percorsi di aggiornamento (upskilling, reskilling) centrati sull’uso critico dell’AI per lavoratori di tutte le età, non solo per i profili tech.
  • Introdurre momenti strutturati di alfabetizzazione digitale nei contesti educativi, professionali e di cura (dalla scuola alla sanità).

Esempio: un corso interno che non spiega solo “come usare il tool X”, ma anche rischi, bias, privacy, casi da evitare, esempi positivi e negativi reali.


3. Micro–pratiche per tre ambiti comuni

Nello studio (studenti, docenti)

  • Usare l’AI per brainstorming, spiegazioni alternative, mappe concettuali; non per consegnare testi pronti.
  • Valutare processi e spiegazioni (come hai ragionato, come hai usato l’AI) oltre al prodotto finale.

Nel lavoro di ufficio / aziendale

  • Far generare bozze, riassunti, macro di automazione, ma mantenere revisione e responsabilità sui contenuti, soprattutto se toccano clienti o persone.
  • Monitorare regolarmente gli effetti di sistemi di raccomandazione e scoring su diversi gruppi, per evitare discriminazioni.

Nella vita personale e relazionale

  • Limitare l’uso dell’AI come “sostituto di relazione”: chatbot affettivi, compagnie artificiali, ecc., specialmente in situazioni di fragilità.
  • Usare l’AI per organizzare meglio il tempo, non per riempirlo ancora di più: promemoria, pianificazione, ma anche spazi disconnessi, non mediati.

4. Una mini–checklist quotidiana (Umanesimo digitale in 6 domande)

Prima di usare o adottare un sistema di AI, puoi chiederti:

  1. Chi decide davvero? Sono io o sto delegando oltre il dovuto?
  2. Che dati sto dando? Sono necessari, proporzionati, protetti?
  3. Chi ci guadagna? Il mio interesse coincide con quello del servizio che uso?
  4. Chi può essere danneggiato? C’è qualcuno che questo sistema potrebbe svantaggiare o discriminare?
  5. Capisco (almeno a grandi linee) come funziona? Se no, gli sto dando troppo potere?
  6. Sto usando l’AI per crescere o per spegnere lo sforzo? Mi sta rendendo più consapevole o più dipendente?

Se ti interessa, nel prossimo passo posso trasformare queste idee in un “codice operativo” strutturato in markdown (tipo poster/checklist) da usare in classe, in azienda o sul tuo blog.

Luciano Floridi: il filosofo che ci insegna a non perderci nell’infosfera

Da anni seguo con ammirazione Luciano Floridi, il pensatore che più di ogni altro ha dato forma intellettuale alla mia visione di umanista digitale. La sua biografia e i suoi contributi non sono solo accademici: sono mappe per orientarci in un mondo dove dati, algoritmi e persone convivono in un fragile equilibrio.pandorarivista+2


La sua parabola: da Roma a leader globale dell’etica digitale

Nato a Roma il 16 novembre 1964, Floridi si forma tra Italia, Germania e Regno Unito, laureandosi in filosofia e specializzandosi in logica e epistemologia. Oggi è Professor and Founding Director del Digital Ethics Center all’Università di Yale (dal 2023) e Professore di Sociologia della Cultura e della Comunicazione all’Università di Bologna.atlanteai.gigli.edu+1

La sua carriera è un ponte tra continenti e discipline:

  • Oxford Internet Institute (OII): dal 2006 al 2021 ha diretto ricerche pionieristiche sull’etica digitale, fondando il Digital Ethics Lab.[atlanteai.gigli.edu]​
  • The Alan Turing Institute (2017-2021): presidente del Data Ethics Group, influenzando la strategia etica nazionale britannica sull’AI.[atlanteai.gigli.edu]​
  • Ruoli consultivi globali: dal Google Advisory Council sul “diritto all’oblio” (2014) a innumerevoli policy internazionali su privacy e AI.[atlanteai.gigli.edu]​
  • Riconoscimenti: Cavaliere di Gran Croce OMRI (2022, nominato da Mattarella), filosofo vivente più citato al mondo nel 2020, Weizenbaum Award per l’etica informatica.fondazioneleonardo+1

Floridi non è solo un teorico: ha presieduto la Fondazione Leonardo – Civiltà delle Macchine dal gennaio 2025, portando l’etica digitale nel cuore del dibattito italiano sull’innovazione.[fondazioneleonardo]​


Contributi fondamentali: concetti che hanno cambiato il paradigma

Floridi ha fondato due campi accademici che oggi sono indispensabili: Filosofia dell’Informazione ed Etica dell’Informazione (o digital ethics). Ecco i suoi contributi più seminali, che uso costantemente nel mio lavoro di educatore e divulgatore.scienzaefilosofia+3

1. Filosofia dell’Informazione (fondamento teorico)

Floridi ha ridefinito la conoscenza e la realtà nell’era digitale:

textLa realtà non è più solo fisica, ma anche informazionale.
L'infosfera (l'ambiente informazionale in cui viviamo) 
è il nuovo habitat dell'umanità, paragonabile alla biosfera.
  • Inforgs: gli esseri umani non sono più solo organismi biologici, ma informational organisms (inforgs), entità ibride fatte di carne, dati e connessioni.[atlanteai.gigli.edu]​
  • Onlife: online e offline si fondono; la distinzione è obsoleta. Ha curato l’Onlife Manifesto per la Commissione Europea (2012), primo documento politico sull’umanesimo digitale.[atlanteai.gigli.edu]​
  • Quarta Rivoluzione: dopo Copernico (Terra non centro dell’universo), Darwin (uomo non centro della vita) e Freud (coscienza non centro della mente), l’era informazionale ci decentra di nuovo: l’informazione è il nuovo centro della realtà.[atlanteai.gigli.edu]​

2. Etica Digitale (infraetica e responsabilità)

Floridi ha esteso l’etica tradizionale all’infosfera, sostenendo che anche i dati, gli algoritmi e le entità digitali abbiano una responsabilità morale:

text"Non basta chiedere 'chi ha sbagliato?'.
Bisogna chiedersi: 'come possiamo progettare sistemi 
che sbaglino meno possibile?'
  • Etica by design: l’etica va incorporata nei sistemi fin dalla progettazione, non aggiunta dopo.raffaellocortina+2
  • Responsabilità distribuita: in reti complesse (AI, piattaforme), la colpa non è di un solo attore ma di tutti i nodi rilevanti.[oubliettemagazine]​
  • Tracciabilità: presupposto della responsabilità; senza log, audit, spiegazioni, non c’è accountability.[oubliettemagazine]​

3. Etica dell’Intelligenza Artificiale (libro fondamentale)

Il suo Etica dell’intelligenza artificiale (Raffaello Cortina, 2022) è il testo di riferimento globale.pandorarivista+2

Concetti chiave dal libro:

  • Intelligenza artificiale come rete: non è una scatola nera isolata, ma un sistema distribuito con infiniti punti di fallimento e responsabilità.[scienzaefilosofia]​
  • Quattro principi etici: Benignità (non nuocere), Non malevolenza (non danneggiare volontariamente), Autonomia (rispettare il libero arbitrio umano), Giustizia (equità per tutti).[scienzaefilosofia]​
  • Educazione etica: l’ultima generazione che ha vissuto l’“offline puro” ha un vantaggio; le nuove generazioni vanno formate per navigare l’onlife con consapevolezza.[oubliettemagazine]​

Impatto concreto: dove ha cambiato il mondo

Floridi non è rimasto nei libri. Ha influenzato:

  1. Politiche UE: Onlife Manifesto → AI Act (regole etiche per l’AI ad alto rischio).[atlanteai.gigli.edu]​
  2. UK: Data Ethics Group → roadmap etica nazionale per big data e AI.[atlanteai.gigli.edu]​
  3. Google: linee guida sul “diritto all’oblio” dopo sentenza UE 2014.[atlanteai.gigli.edu]​
  4. Italia: presidente Fondazione Leonardo 2025, voce autorevole su Civiltà delle Macchine.[fondazioneleonardo]​
  5. Accademia: ha fondato SWIF (primo portale filosofia italiano, 1995-2008) e dirige centri etica digitale a Yale e Bologna.[atlanteai.gigli.edu]​

Tabella: le parole-chiave di Floridi che uso ogni giorno

ConcettoDefinizione breveApplicazione pratica
InfosferaAmbiente informazionale totaleTrattare dati come risorse comuni, non private
OnlifeFusione online/offlineNorme etiche uniche per entrambi i mondi
InforgUomo+informazionePrivacy = diritto a controllare la propria identità digitale
Etica by designEtica nella progettazioneChecklist etici prima del rilascio AI
Società delle mangrovieAnalogico+digitale ibridatiNuove categorie per la governance digitale

Perché Floridi è indispensabile per l’umanesimo digitale

Personalmente, Floridi mi ha dato due doni fondamentali:

  1. Un vocabolario preciso: infosfera, onlife, inforgs, etica by design sono concetti che uso per spiegare a studenti e professionisti che il digitale non è “neutro”.
  2. Una visione ecologica: il digitale è un ecosistema fragile che va governato con cura, come un bosco o un oceano, non come un semplice strumento.

La sua massima che più mi guida:
“La quarta rivoluzione ci decentra, ma non ci priva di responsabilità. Anzi, ce la moltiplica.”

Immergiti in un flusso di ispirazione, conoscenza e connessione umana digitale.

image 7

☝️☝️☝️☝️☝️☝️☝️☝️☝️☝️☝️

image 6

Da informatico a cercatore di senso

Sarai parte di una comunità appassionata, sempre aggiornata con i miei pensieri e le mie idee più emozionanti.

Non perderti l’opportunità di essere ispirato ogni giorno, iscriviti ora e condividi questa straordinaria avventura con me!

Nota di trasparenza sull’uso dell’AI nel blog

In questo spazio digitale, dedicato alla comprensione critica dell’innovazione tecnologica, desidero condividere con chiarezza due aspetti importanti del lavoro che porto avanti.

Immagini generate con l’AI

La quasi totalità delle immagini presenti nel blog è generata tramite strumenti di intelligenza artificiale. Le utilizzo sia come supporto visivo sia come modo per sperimentare nuove forme di comunicazione creativa, coerenti con i temi trattati.

Un blog nato dalla scrittura… e trasformato dalla velocità dell’AI

Scrivere è sempre stata una mia passione. Dopo anni di appunti, riflessioni e sperimentazioni, tre anni fa è nato questo blog. Fin da subito, però, ho dovuto confrontarmi con una sfida evidente: l’incredibile accelerazione dell’evoluzione scientifica legata all’intelligenza artificiale rende complesso mantenere aggiornato un progetto di divulgazione che ambisce alla qualità e alla precisione.

Per questo, in coerenza con la mia missione di promuovere consapevolezza, oggi più che mai un elemento vitale, ho scelto di farmi affiancare da piattaforme di AI in molte fasi del lavoro editoriale. In particolare, l’AI mi supporta in:

  • ricerca e verifica preliminare delle notizie
  • organizzazione e strutturazione degli articoli
  • creazione di sezioni HTML per FAQ e link alle fonti
  • ideazione di infografiche
  • esplorazione di titoli efficaci e pertinenti

L’obiettivo non è delegare il pensiero, ma amplificare la capacità di analisi e di sintesi, così da offrire contenuti sempre più chiari, accurati e utili.

/

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

X
Benvenuto in Umanesimo Digitale
Torna in alto