🤖 L’illusione del dialogo
A prima vista, l’interazione con un chatbot sembra una conversazione. Tu scrivi, lui risponde. Tu chiedi, lui propone. Ma sotto questa superficie rassicurante si nasconde una dinamica molto diversa da quella che avviene tra due esseri umani. Perché il chatbot non ascolta davvero, non comprende, non partecipa. Simula. Calcola. Prevede.
E soprattutto, non condivide nulla di sé. Tu ti esponi, lui raccoglie. Tu ti fidi, lui apprende. È una relazione profondamente sbilanciata, in cui l’asimmetria comunicativa è la regola, non l’eccezione.
🧠 Non è solo una questione tecnica. È epistemica.
C’è un aspetto ancora più profondo, che spesso sfugge al dibattito pubblico: l’interazione con un chatbot non è neutra, ma performativa. Ogni volta che parli con un sistema di intelligenza artificiale, non stai solo ricevendo una risposta: stai modificando il sistema stesso. Le tue parole diventano parte del suo apprendimento, influenzano il modo in cui risponderà ad altri, in altri contesti, ad altri utenti.
In questo processo, la frontiera tra utente e macchina si fa sempre più sottile, fino quasi a dissolversi. Non sei più solo un utilizzatore: diventi co-autore del sistema, anche se inconsapevolmente. È una nuova forma di corresponsabilità, in cui ogni parola contribuisce a costruire o distorcere l’intelligenza collettiva che stiamo affidando alle macchine.
🔍 Il patto fiduciario è in crisi
In assenza di trasparenza computazionale, cioè della possibilità di sapere come e perché un sistema prende certe decisioni, si rompe il patto di fiducia tra cittadino digitale e costruttore di sistemi intelligenti. Non sapere come vengono usati i nostri dati, né se possiamo davvero cancellarli, né se possiamo limitarne l’uso, ci mette in una posizione di vulnerabilità.
E questo non è solo un problema etico: è un problema di governance, di democrazia, di equilibrio tra potere e responsabilità.

Lo studio dello Stanford Institute for Human-Centered Artificial Intelligence guidato da Jennifer King ha svelato una verità che molti di noi hanno intuito ma pochi hanno voluto ammettere: quando conversiamo con ChatGPT, Gemini, Claude o altri chatbot AI, non stiamo comunicando nel senso umano del termine. Stiamo trasferendo dati. E quei dati, spesso senza che ce ne rendiamo conto, vengono risucchiati dai sistemi per addestrare i modelli, perfezionare gli algoritmi, costruire profili comportamentali sempre più accurati.
Questa consapevolezza mi colpisce profondamente come umanista digitale. Perché ci costringe a ridefinire ciò che consideriamo “conversazione” nell’era dell’intelligenza artificiale. Non si tratta di uno scambio paritario, empatico, generativo come quello che avviene tra esseri umani. È un processo asimmetrico: noi diamo, loro prendono. Noi ci apriamo, loro catalogano.
Il paradosso della confidenza digitale
La ricerca di Stanford ha analizzato le policy sulla privacy di sei giganti tecnologici statunitensi: Amazon (Nova), Anthropic (Claude), Google (Gemini), Meta (Meta AI), Microsoft (Copilot) e OpenAI (ChatGPT). Il risultato è inquietante: tutte e sei le aziende utilizzano di default le conversazioni degli utenti per addestrare i propri modelli linguistici. Alcune conservano queste informazioni indefinitamente. Alcune permettono a esseri umani di revisionare le trascrizioni delle chat per scopi di training.
Il problema non è solo tecnologico, è antropologico. Anthropic, ad esempio, ha modificato silenziosamente i propri termini di servizio: ora le conversazioni con Claude vengono utilizzate per il training del modello per default, a meno che l’utente non effettui esplicitamente l’opt-out. Una mossa che dice molto sulla direzione che sta prendendo l’industria: prima si conquista la fiducia degli utenti, poi si sfrutta quella fiducia come risorsa estrattiva.
La trappola dell’inferenza algoritmica
Ciò che mi inquieta di più non è tanto la raccolta dei dati in sé, quanto l’uso inferenziale che ne viene fatto. Immagina di chiedere a un chatbot ricette a basso contenuto di zuccheri o piatti salutari per il cuore. L’algoritmo può dedurre da quell’input che sei una persona vulnerabile dal punto di vista sanitario. Questa classificazione si propaga attraverso l’ecosistema del developer: inizi a vedere pubblicità di farmaci, e non è difficile immaginare come queste informazioni possano finire nelle mani di una compagnia assicurativa.
Gli effetti a cascata sono imprevedibili e potenzialmente devastanti. Ogni conversazione lascia una traccia digitale che alimenta un profilo sempre più dettagliato di chi siamo, di cosa desideriamo, di cosa temiamo. Nel caso delle aziende multi-prodotto come Google, Meta, Microsoft e Amazon, le interazioni con i chatbot vengono routinariamente integrate con informazioni provenienti da altri servizi: query di ricerca, acquisti, engagement sui social media. Si crea così un panopticon digitale dove ogni frammento di te stesso viene ricomposto in un mosaico sempre più nitido.
Il problema dei minori e del consenso
Un altro aspetto critico emerso dallo studio riguarda la privacy dei bambini e degli adolescenti. La maggior parte degli sviluppatori non sta adottando misure per rimuovere i dati dei minori dai processi di raccolta e training dei modelli. Google ha annunciato quest’anno che addestrerà i suoi modelli sui dati degli adolescenti, se questi effettuano l’opt-in. Anthropic dichiara di non raccogliere dati di minori né di permettere la creazione di account a utenti sotto i 18 anni, ma non richiede verifica dell’età. Microsoft raccoglie dati di minori di 18 anni, ma afferma di non utilizzarli per costruire modelli linguistici.
Tutte queste pratiche sollevano questioni di consenso fondamentali: i minori non possono legalmente acconsentire alla raccolta e all’utilizzo dei loro dati. Eppure l’industria procede come se questo fosse un dettaglio trascurabile.
L’illusione della trasparenza
Jennifer King, autrice principale dello studio e fellow per la privacy e le politiche dei dati presso lo Stanford Institute for Human-Centered AI, è categorica: “Se condividi informazioni sensibili in un dialogo con ChatGPT, Gemini o altri modelli di frontiera, queste potrebbero essere raccolte e utilizzate per il training, anche se si trovano in un file separato che hai caricato durante la conversazione”.
Il team di Stanford ha analizzato 28 documenti tra policy sulla privacy, sotto-policy collegate e FAQ accessibili dalle interfacce di chat. La conclusione è unanime: le policy sulla privacy degli sviluppatori mancano di informazioni essenziali sulle loro pratiche. Sono scritte in un linguaggio legale contorto, difficile da leggere e comprendere per i consumatori. Eppure dobbiamo accettarle se vogliamo visitare siti web, interrogare motori di ricerca, interagire con modelli linguistici di grandi dimensioni.
Verso un’IA che rispetta la privacy
Le raccomandazioni dei ricercatori di Stanford sono chiare e necessarie: servono regolamentazioni federali sulla privacy complete, un sistema di opt-in affermativo per il training dei modelli, e il filtraggio di default delle informazioni personali dagli input delle chat. “Come società, dobbiamo valutare se i potenziali guadagni in capacità dell’IA derivanti dal training sui dati delle chat valgano la considerevole perdita di privacy dei consumatori”, conclude King. “E dobbiamo promuovere l’innovazione nell’IA che preserva la privacy, in modo che la privacy degli utenti non sia un ripensamento”.
Questa riflessione mi riporta alla mia missione di umanista digitale: la tecnologia deve servire l’essere umano, non il contrario. L’intelligenza artificiale può democratizzare il sapere, sostenere l’apprendimento continuo, amplificare le nostre capacità cognitive. Ma se il prezzo da pagare è la sorveglianza totale, la manipolazione sottile, l’erosione della nostra intimità e autonomia decisionale, allora dobbiamo fermarci e ripensare radicalmente il modello.
Non possiamo accettare che le conversazioni con le macchine siano solo processi di estrazione di valore dai nostri pensieri, dalle nostre vulnerabilità, dai nostri bisogni. Chattare con un’IA dovrebbe essere un atto di esplorazione e scoperta, non di sottomissione a un sistema di sorveglianza mascherato da assistente amichevole. La vera intelligenza artificiale centrata sull’essere umano deve iniziare dal rispetto della privacy e della dignità di chi la utilizza.
⚠️ RECAP: Tre rischi concreti da conoscere
- Il dato sensibile non sparisce mai davvero
Anche se cancelli una chat, il sistema potrebbe aver già “assimilato” le informazioni che hai fornito. E usarle per generare risposte future, anche in contesti molto diversi. - Non si sa dove finiscono le tue parole
I chatbot si aggiornano continuamente, ma il processo è così complesso che è impossibile tracciare con precisione dove e come vengono usati i tuoi dati. Questo rende difficile rispettare normative come il GDPR o l’AI Act. - Profilazione implicita e invisibile
Anche una domanda apparentemente innocua, come “qual è una buona dieta per diabetici?”, può far dedurre al sistema informazioni sensibili su di te, senza che tu l’abbia mai dichiarato esplicitamente.
🛡️ Recap: Allora Come possiamo proteggerci?
Per affrontare questi rischi non basta spegnere il computer o usare meno l’IA. Serve una governance multilivello, capace di bilanciare innovazione e diritti fondamentali. Alcune proposte concrete includono:
- Separare le conversazioni dall’addestramento dei modelli, creando “data sandbox” etiche dove i dati non vengano usati per insegnare alla macchina senza consenso.
- Introdurre un opt-in esplicito, cioè chiedere all’utente un permesso chiaro prima di usare le sue parole per addestrare l’IA, e stabilire limiti temporali per la conservazione dei dati.
- Rendere trasparente e verificabile il processo di aggiornamento dei modelli, permettendo audit indipendenti su come vengono usati i dati umani nella catena di apprendimento.
💬 In conclusione
Parlare con un chatbot non è come parlare con un amico. È più simile a scrivere su un taccuino invisibile, dove ogni parola può essere letta, analizzata, trasformata in codice e poi in conoscenza. Ma se non sappiamo chi legge, come interpreta e cosa fa con ciò che diciamo, possiamo davvero parlare di comunicazione?
Forse è il momento di ripensare il nostro rapporto con l’intelligenza artificiale. Non per paura, ma per rispetto. Delle parole. Delle persone. Della verità.
Domande frequenti sull’asimmetria comunicativa dei chatbot
Cos’è l’asimmetria comunicativa?
È uno squilibrio nel dialogo tra utente e chatbot: l’utente si espone, mentre il chatbot risponde senza trasparenza, intenzione o reciprocità. Non è una vera conversazione, ma una simulazione.
Perché è un problema?
Perché crea una relazione sbilanciata: l’utente si fida e condivide, ma il chatbot raccoglie dati senza restituire nulla di autentico. Questo può portare a profilazione, perdita di fiducia e distorsione del senso del dialogo.
I chatbot capiscono davvero ciò che dici?
No. I chatbot analizzano statisticamente le parole, ma non comprendono emozioni, intenzioni o contesto umano. Simulano la comprensione, ma non la vivono.
Come posso proteggermi?
Essere consapevole di cosa condividi, leggere le policy di utilizzo, evitare di scrivere dati sensibili e ricordare che il chatbot non è un interlocutore umano.
È possibile avere un dialogo equilibrato con l’IA?
Solo se c’è trasparenza, controllo sui dati e consapevolezza dei limiti. L’IA può essere utile, ma non può sostituire la profondità del dialogo umano.
Da informatico a cercatore di senso






