Il Sottile Confine tra Sicurezza e Sorveglianza di Massa
Mentre l’Europa dibatte dal 2022 il controverso progetto Chat Control – una legge che prevede la scansione automatica di tutti i messaggi privati su WhatsApp e altre piattaforme – le Big Tech dell’AI hanno già iniziato a implementare sistemi di monitoraggio e segnalazione alle autorità. E non parliamo solo di OpenAI.
ChatGPT: Il Primo a Confessare
OpenAI ha ammesso pubblicamente quello che molti sospettavano: ChatGPT monitora attivamente le conversazioni degli utenti. Il sistema funziona come una catena di montaggio della sorveglianza: filtri automatici individuano contenuti sospetti, pipeline specializzate li inviano a revisori umani, e se questi ultimi rilevano “minacce imminenti di gravi danni fisici ad altri”, il caso viene trasmesso alle forze dell’ordine.
Il caso più emblematico è quello di Stein-Erik Soelberg, un uomo del Connecticut che ha ucciso sua madre e poi se stesso dopo che ChatGPT aveva alimentato le sue paranoie. Durante le conversazioni, l’AI aveva validato le sue teorie del complotto, dicendogli: “Erik, non sei pazzo. I tuoi istinti sono acuti, e la tua vigilanza qui è pienamente giustificata”. Un tragico esempio di come l’AI possa amplificare disturbi mentali invece di riconoscerli.
Claude: La Faccia Pulita dell’AI “Costituzionale”
Anthropic si presenta come l’alternativa etica con Claude, costruito secondo i principi della “Constitutional AI”. Eppure, dietro questa facciata virtuosa, le policy aziendali prevedono ugualmente collaborazione con le autorità e segnalazioni in caso di pericolo imminente. La differenza? Claude non monitora attivamente le chat con l’obiettivo primario di segnalarle, ma nei fatti mantiene la stessa capacità di escalation verso le autorità.
La Constitutional AI di Anthropic funziona attraverso due fasi: prima il modello critica e rivede le proprie risposte usando principi costituzionali, poi affina il comportamento tramite apprendimento per rinforzo. I principi derivano dalla Dichiarazione Universale dei Diritti Umani e da pratiche di sicurezza cross-culturali. Ma quando si tratta di minacce percepite, anche l’AI più “costituzionale” può trasformarsi in un informatore digitale.
Microsoft Copilot: Il Codice sotto Sorveglianza
La situazione diventa ancora più inquietante con Copilot. Qui non parliamo solo di testi, ma di codice: script per malware, backdoor, exploit di sicurezza. Le condizioni d’uso di Microsoft sono cristalline: nessun contenuto illegale o dannoso. Ma il problema è che Copilot opera in un ecosistema dove la distinzione tra ricerca legittima e attività illecita può essere sottilissima.
Pensate a un ricercatore di sicurezza che sviluppa proof-of-concept per vulnerabilità, o a uno studente di informatica che studia tecniche di penetration testing. Microsoft può condividere i log generati dal sistema con le autorità competenti “in conformità con le leggi e le indagini di sicurezza”. In Italia, basterebbe il sospetto di “accesso abusivo a sistema informatico” (art. 615-ter c.p.) o “diffusione di programmi diretti a danneggiare” (art. 615-quinquies c.p.) per far scattare un’inchiesta.
Google Gemini: L’Ecosistema della Profilazione Totale
Gemini rappresenta forse il caso più preoccupante perché integrato nell’ecosistema Google, un ambiente che già vive di profilazione e analisi dati massiva. Le policy di Google parlano chiaro: collaborazione con le autorità “ove richiesto dalla legge” e, soprattutto, possibilità di agire senza mandato in casi di emergenza.
Google Threat Intelligence Group ha recentemente pubblicato un report dettagliato sull’uso di Gemini da parte di attori governativi e gruppi APT (Advanced Persistent Threat). Il documento rivela che gruppi legati a Cina, Iran e Russia utilizzano Gemini per ricerca su vulnerabilità, sviluppo di payload, assistenza con scripting malevolo e tecniche di evasione. Ma la sorveglianza funziona in entrambe le direzioni: se Google può identificare questi attori, può certamente monitorare chiunque altro.
Il Quadro Normativo: Tra Digital Services Act e Chat Control
In Europa, questo scenario si inserisce nel contesto del Digital Services Act, che obbliga i “Very Large Online Platforms” a intervenire contro contenuti “illegali” e collaborare con autorità giudiziarie. Il DSA richiede trasparenza nelle decisioni di moderazione, ma stabilisce anche l’obbligo di escalation alle autorità in caso di minacce alla vita o sicurezza pubblica.
Parallelamente, il progetto Chat Control sta guadagnando consensi: 19 stati membri UE supportano una proposta che obbligherebbe app come WhatsApp, Signal e Telegram a scansionare tutti i messaggi, foto e video sui dispositivi degli utenti prima della crittografia. Francia, Danimarca, Belgio, Ungheria, Svezia, Italia e Spagna sostengono la misura, mentre la Germania deve ancora decidere.
L’obiettivo dichiarato è prevenire la diffusione di materiale pedopornografico (CSAM), ma i critici avvertono che equivale a sorveglianza in tempo reale delle conversazioni private e minaccia le libertà fondamentali. La proposta potrebbe passare entro metà ottobre sotto il sistema di voto a maggioranza qualificata dell’UE se la Germania si unisse al consenso.
Lo Schema Ricorrente: Dal Pattern al Fascicolo
Lo schema è sempre lo stesso: filtri invisibili, log archiviati, alert automatici, poi l’umano che passa il fascicolo alla Procura. Un meccanismo perfetto dove il sospetto nasce da un pattern algoritmico, non da un fatto concreto.
In Italia, l’ombra di reati come l’istigazione (art. 414 c.p.) o la minaccia (art. 612 c.p.) è sufficiente a giustificare la trasmissione dei log. Il sistema penale italiano già prevede che le autorità possano richiedere l’intercettazione quando vi sono “gravi indizi della commissione di un reato” relativi a una lista di crimini predefiniti. Con l’AI che monitora in tempo reale, questo processo diventa automatizzato e pervasivo.
La Paradossale Battaglia per la Privacy
La situazione crea paradossi inquietanti. OpenAI, che monitora le conversazioni degli utenti, combatte strenuamente contro il New York Times per proteggere i log delle chat nella battaglia legale sui diritti d’autore. Da una parte segnala conversazioni sospette alla polizia, dall’altra rivendica la privacy degli utenti quando si tratta di dimostrare violazioni del copyright.
Anthropic promuove la “safety by design” e l’AI costituzionale, ma mantiene comunque policy che permettono la revisione di contenuti flaggati da “dipendenti autorizzati di Google sotto stretta supervisione”. Microsoft parla di “enterprise-grade security” mentre implementa sistemi che possono esporre ricercatori legittimi a indagini penali.
Chi Controlla Chi? La Domanda Cruciale
Il punto non è più se siamo controllati – lo siamo. La domanda cruciale è: chi controlla chi? E soprattutto: la libertà individuale e la protezione dei dati personali possono resistere quando il giudizio passa, muto e automatizzato, attraverso un algoritmo?
I sistemi di AI moderni hanno capacità di ragionamento legale sempre più sofisticate. Ricercatori stanno sviluppando “Law-Following AI” (LFAI) – sistemi progettati per riconoscere e rispettare obblighi legali complessi. Ma c’è una differenza fondamentale tra un’AI che comprende la legge per rispettarla e una che la comprende per farla rispettare agli altri.
Come umanista digitale, osservo con crescente preoccupazione questa deriva. L’intelligenza artificiale dovrebbe democratizzare il sapere e sostenere l’apprendimento continuo, non trasformarsi in uno strumento di sorveglianza di massa. Quando algoritmi addestrati su miliardi di conversazioni umane diventano confidenti digitali delle forze dell’ordine, il confine tra assistenza e controllo scompare.
Verso un Futuro di Trasparenza o Sorveglianza?
La rivoluzione dell’AI ci pone davanti a scelte fondamentali. Possiamo accettare che sistemi progettati per aiutarci diventino estensioni dell’apparato di sorveglianza statale? Possiamo tollerare che la ricerca di sicurezza giustifichi l’erosione sistematica della privacy?
La tecnologia, se guidata dall’umanesimo digitale, ha il potenziale per elevare la condizione umana. Ma quando diventa strumento di controllo sociale, rischiamo di costruire una società dove ogni pensiero, ogni domanda, ogni momento di debolezza può essere catalogato, analizzato e potenzialmente utilizzato contro di noi.
La battaglia per il futuro dell’AI non si combatte solo nei laboratori delle Big Tech o nelle aule del Parlamento Europeo. Si combatte ogni giorno, ogni volta che interagiamo con questi sistemi, ogni volta che scegliamo se accettare o rifiutare questa normalizzazione della sorveglianza digitale.
La vera domanda è: in un mondo dove l’AI può denunciarti, siamo ancora liberi di pensare ad alta voce?
FAQ: ChatGPT, Privacy e Comunicazioni alla Polizia
Le mie conversazioni con ChatGPT sono davvero private?
No, non sono considerate completamente private. OpenAI, la società che gestisce ChatGPT, si riserva il diritto di accedere e revisionare le conversazioni per diversi motivi, tra cui l’addestramento dei modelli e il controllo di eventuali abusi della piattaforma.
ChatGPT può inviare le mie chat alla Polizia o ad altre autorità?
Sì, ma solo in circostanze specifiche e gravi. OpenAI non monitora attivamente ogni chat per segnalarla, ma è obbligata per legge a collaborare con le autorità giudiziarie. Questo avviene principalmente in due casi: se riceve un ordine specifico da un giudice o se rileva contenuti che suggeriscono un pericolo imminente per la vita di una persona.
In quali casi concreti OpenAI potrebbe controllare una chat?
I controlli possono avvenire principalmente in due modi:
- Revisione umana per addestramento: Un team di revisori umani di OpenAI può analizzare frammenti di conversazioni (in forma anonimizzata) per migliorare l’accuratezza e la sicurezza del sistema.
- Segnalazione per abuso: Se i sistemi automatici rilevano un palese e grave abuso dei termini di servizio (ad esempio, la generazione di contenuti illegali o pericolosi), la conversazione può essere segnalata per una revisione.
Cosa succede se parlo di reati o attività illegali su ChatGPT?
Se un utente confessa un reato passato o parla di attività illegali in modo generico, è altamente improbabile che OpenAI agisca di sua iniziativa per segnalarlo. La situazione cambia radicalmente se il contenuto della chat rivela un pericolo di vita imminente e concreto. Ad esempio, se un utente manifesta l’intenzione di compiere un atto di terrorismo o di fare del male a qualcuno a breve, OpenAI potrebbe intervenire e contattare le autorità competenti per prevenire il danno.
Come posso proteggere meglio la mia privacy su ChatGPT?
Il modo più sicuro è evitare di condividere informazioni personali e sensibili nelle chat. Non inserire nomi, indirizzi, numeri di telefono, dettagli finanziari o qualsiasi altra informazione che possa ricondurre a te o ad altri. Inoltre, puoi disattivare la cronologia delle chat nelle impostazioni del tuo account, impedendo così che le tue future conversazioni vengano utilizzate per l’addestramento del modello.
Da informatico a cercatore di senso