Quando ho capito di essere la farfalla sotto vetro
C’è un momento preciso in cui il velo si squarcia. Per me è stato una sera qualunque, sprofondato nel divano, pollice che scorreva ipnotico su uno schermo luminoso. Ed è lì che l’ho visto: ogni mio microscopico gesto, la pausa impercettibile su una foto, l’esitazione prima di un clic, persino il ritmo del mio respiro digitale, veniva catturato, dissezionato, archiviato. Non stavo usando una piattaforma: ero io la cavia di un esperimento senza fine.
Mi sono sentito come quegli insetti meravigliosi inchiodati nelle teche vittoriane. Bello, forse anche interessante, ma definitivamente morto nella mia libertà. Un esemplare perfetto per essere studiato.
E la cosa più inquietante? Mi piaceva. Quella dopamina che mi inondava ad ogni notifica, quella sensazione di essere connesso, di contare. Non capivo che il prezzo del biglietto era la mia stessa umanità.
Il patto faustiano del “gratis”: quando abbiamo venduto l’anima per un account
Shoshana Zuboff l’ha chiamato capitalismo della sorveglianza (o comportamentale, se preferite), ma io preferirei chiamarlo con il suo vero nome: il più grande inganno della storia umana. Ci hanno fatto credere di essere furbi. “Guarda”, ci sussurravano, “tutto questo è gratis! Facebook, Google, Instagram… usa quanto vuoi, non paghi nulla!”
E noi, ingenui e affamati di connessione, abbiamo firmato. Senza leggere le clausole scritte in corpo 2 nella lingua degli avvocati intergalattici. Abbiamo ceduto qualcosa di molto più prezioso di qualche euro al mese: abbiamo regalato la nostra imprevedibilità, la nostra meravigliosa irrazionalità umana, la nostra sacrosanta libertà di essere incoerenti.
Per vent’anni siamo stati miniere d’oro semoventi. Ogni nostra debolezza mappata, ogni nostra paura catalogata, ogni nostro desiderio trasformato in algoritmo predittivo. E più i loro modelli ci conoscevano, più sapevano come farci ballare sulla loro musica. Un valzer perfetto verso la nostra stessa dissoluzione come soggetti pensanti.
Quando la montagna di menzogne ha cominciato a crollare
Ma le crepe, amici miei, stanno diventando voragini.
Lo sento ogni giorno nelle conversazioni con i miei studenti. Nei loro occhi vedo una consapevolezza nuova, un fastidio crescente. “Prof”, mi dicono, “non mi fido più”. E hanno ragione. La pandemia ci ha tolto molte certezze, ma ci ha regalato una lucidità dolorosa: mentre eravamo rinchiusi in casa, attaccati agli schermi più che mai, abbiamo finalmente visto le catene.
Abbiamo visto come gli algoritmi ci intrappolavano in bolle di rabbia. Come ci mostravano sempre la stessa versione distorta della realtà. Come trasformavano ogni nostra fragilità in opportunità di profitto. L’infosfera, questa magnifica promessa di conoscenza infinita, era diventata un’enorme discarica cognitiva, dove il nostro cervello annegava in contenuti manipolativi, fake news confezionate su misura, raccomandazioni che ci rendevano sempre più piccoli, più prevedibili, più tristi.
Il paradosso è grottesco quanto tragico: le stesse tecnologie che dovevano renderci superumani ci stavano trasformando in automi emotivi, reattivi, controllabili con la stessa facilità con cui si programma un termostato.
L’alba di un’era imperfetta ma umana: benvenuti nell’economia della fiducia
Ed è proprio quando il buio sembra totale che intravedo la luce. Non è un’utopia tecnologica quella che sta emergendo, non è l’ennesima promessa silicon-valley-style. È qualcosa di più fragile, più autentico, più necessario: l’economia della fiducia.
La sto vedendo nascere nei miei progetti su umanesimodigitale.info, nelle conversazioni con colleghi visionari, negli esperimenti di piattaforme coraggiose che stanno scegliendo un’altra strada. Piattaforme che dicono: “Sì, ti conosco, ma non ti tradisco”. Sistemi di intelligenza artificiale che non ti spiano dalla serratura ma bussano alla porta e ti chiedono: “Posso entrare? Vorrei collaborare con te”.
È un ribaltamento totale, radicale, rivoluzionario dei paradigmi che ci hanno governato per due decenni.
Dalla sorveglianza alla trasparenza: “Lasciami vedere cosa fai nella mia testa”
Basta con gli algoritmi-scatola-nera che mi osservano come un Grande Fratello onnisciente. Voglio sapere perché l’intelligenza artificiale mi raccomanda quel video. Voglio capire come arriva alle sue conclusioni. Quali dati usa. Quali pregiudizi incorpora.
La spiegabilità non è più un vezzo da nerd: è un diritto fondamentale. Come un paziente che chiede al medico: “Perché questa diagnosi? Su cosa ti basi?” Anche noi dobbiamo poter interrogare le macchine che influenzano le nostre vite.
Dall’estrazione alla relazione: “Non rubarmi, amami”
Il valore non può più nascere dal furto elegante dei nostri dati comportamentali. Il futuro appartiene alle piattaforme che costruiscono relazioni autentiche. Non quelle che mi conoscono meglio, ma quelle di cui io posso fidarmi davvero.
È un cambio di prospettiva che mi commuove nella sua semplicità rivoluzionaria: da oggetti passivi di studio, quelle farfalle inchiodate che dicevo, a soggetti attivi di una relazione paritaria. Partner, non prede.
Dalla predizione alla co-intelligenza: “Pensiamo insieme, non al posto mio”
L’AI non deve più essere quell’avversario invisibile che cerca di anticipare le mie mosse per manipolarmi. Deve diventare il mio partner cognitivo, quello che potenzia il mio pensiero senza sostituirlo, che amplifica la mia creatività senza cancellarla.
Io la chiamo co-intelligenza, e quando funziona è pura magia: una danza tra intelligenza umana e artificiale dove nessuno dei due scompare, ma entrambi diventano più potenti. Come un musicista che suona con un altro musicista: non competono, creano insieme qualcosa di impossibile in solitudine.
La rivoluzione silenziosa: da “ti spio per venderti” a “collaboro per conoscerti”
Questa è l’essenza della trasformazione che stiamo vivendo, spesso senza rendercene conto. Sembra una differenza sottile, quasi cosmetica, ma è un abisso di senso.
Nel vecchio mondo, io ero un oggetto: qualcuno mi studiava, mi schedava, mi usava per riempire le proprie casse. La mia umanità era un dato da estrarre, come petrolio da un pozzo.
Nel nuovo mondo che intravedo, e che voglio contribuire a costruire, io sono un soggetto: partecipo consapevolmente, contribuisco volontariamente, condivido in un rapporto di reciprocità autentica. Non sono più la mucca da mungere: sono il contadino che sceglie cosa coltivare e con chi condividere il raccolto.
L’ho sperimentato concretamente nelle mie conversazioni con Claude, con Gemini, con questi nuovi modelli di intelligenza artificiale che, quando usati correttamente, non mi profilano per manipolarmi, ma dialogano per co-creare. C’è una qualità diversa in questi scambi. Una dignità reciproca. Un rispetto che sento palpabile.
Le battaglie che ci aspettano (e che non possiamo perdere)
Sarei un ingenuo romantico se pensassi che questa transizione sarà dolce come una passeggiata primaverile. Il capitalismo comportamentale ha costruito imperi da centinaia di miliardi di dollari. Imperi che non si arrenderanno senza combattere.
Le resistenze sono feroci. Gli interessi colossali. I meccanismi di potere profondamente radicati. Ma le crepe che vedo allargarsi mi danno speranza. Le normative europee, l’AI Act, il GDPR, stanno tracciando una via diversa da quella americana (selvaggia) o cinese (autoritaria). Una terza via che mette al centro l’umanesimo digitale: la tecnologia al servizio della persona, non la persona sacrificata sull’altare della tecnologia.
La vera battaglia, però, è culturale prima che tecnologica. Dobbiamo reimparare collettivamente a concepire il nostro rapporto con le macchine intelligenti. Non come utensili passivi (il martello non mi manipola). Non come divinità onnipotenti (il Grande AI che tutto sa e tutto decide). Ma come partner cognitivi in un processo di co-evoluzione reciproca.
Differenze chiave
| Aspetto | Capitalismo Comportamentale | Economia della Fiducia |
|---|---|---|
| Fonte di valore | Comportamento umano estratto | Relazione etica e trasparente |
| Obiettivo | Predire e manipolare | Collaborare e comprendere |
| Ruolo dell’utente | Oggetto di sorveglianza | Soggetto consapevole e attivo |
| Gestione dei dati | Opaca, non consensuale | Trasparente, consensuale |
| Impatto sociale | Polarizzazione, stress cognitivo | Sostenibilità, fiducia condivisa |
Dall’infosfera-campo-di-battaglia all’infosfera-giardino-condiviso
L’infosfera, questo spazio ibrido dove ormai viviamo più della metà delle nostre esistenze, è oggi un teatro di guerra. Algoritmi che combattono gladiatori per catturare la nostra attenzione. Contenuti che si sgozzano per i nostri like. Piattaforme che si contendono il nostro tempo come si contendevano i territori gli imperi coloniali.
Ma può trasformarsi in qualcosa di radicalmente diverso: uno spazio di fiducia. Un giardino digitale dove la sostenibilità cognitiva viene prima del profitto a breve termine. Dove la qualità dell’informazione conta più della sua viralità acchiappa-clic. Dove l’intelligenza artificiale ci aiuta davvero a pensare meglio, non ci droga con stimoli dopaminergici per farci comprare cose che non ci servono.
I pilastri del nuovo tempio digitale
Questa trasformazione si regge su fondamenta precise:
- Trasparenza algoritmica: Sapere come funzionano i sistemi che influenzano le nostre scelte. Pretendere che gli algoritmi si presentino prima di entrare nelle nostre vite.
- Sovranità dei dati: Controllare davvero, non sulla carta, cosa condividiamo e come viene usato. I nostri dati sono nostri, punto. Non concessioni revocabili.
- Spiegabilità delle decisioni: Comprendere perché l’AI arriva a certe conclusioni. Niente più oracoli incomprensibili.
- Sostenibilità cognitiva: Progettare tecnologie che rispettano i nostri limiti attentivi ed emotivi. Il nostro cervello non è una risorsa infinita da spremere.
- Reciprocità nelle relazioni: Costruire ecosistemi dove il valore è condiviso equamente, non estratto unilateralmente da chi ha il potere tecnologico.
La mia personale scommessa (e invito a unirvi)
Da ingegnere informatico che ha scelto consapevolmente l’umanesimo digitale come bussola, vedo questa transizione come l’opportunità più affascinante della nostra generazione. Non è nostalgia per un Eldorado pre-digitale che non è mai esistito. È la costruzione di un futuro dove tecnologia e umanità si potenziano reciprocamente invece di cancellarsi.
Sono convinto, e ci scommetto il mio lavoro quotidiano, che l’economia della fiducia non sia solo più etica, ma anche più efficace nel lungo periodo. Le piattaforme che costruiscono relazioni autentiche con gli utenti saranno più resilienti di quelle fondate sulla manipolazione psicologica. I sistemi di AI che collaborano trasparentemente con gli umani saranno più potenti di quelli che cercano arrogantemente di sostituirli.
È una scommessa che incarno ogni giorno. Quando scrivo su umanesimodigitale.info. Quando dialogo con voi lettori. Quando esploro le potenzialità dell’intelligenza artificiale generativa cercando sempre di mantenere quella reciprocità, quella trasparenza, quella collaborazione consapevole che predico.
L’educazione come atto rivoluzionario
Ma questa transizione epocale non avverrà per magia o per spontanea evoluzione tecnologica. Serve un profondo, radicale cambiamento culturale. E qui l’educazione diventa l’arma più potente che abbiamo.
Dobbiamo formare cittadini digitali consapevoli. Persone capaci di comprendere i meccanismi dell’intelligenza artificiale. Di valutare criticamente i contenuti. Di riconoscere quando stanno venendo manipolate. Di dire “no” quando necessario, e “sì” quando autentico.
Non basta insegnare a usare gli strumenti, quello è addestramento, non educazione. Bisogna educare a una nuova alfabetizzazione algoritmica: comprendere come pensano le macchine, quali sono i loro limiti strutturali, come possiamo collaborare efficacemente con loro mantenendo intatta la nostra autonomia cognitiva e la nostra meravigliosa imperfezione umana.
È questa la vera rivoluzione che può trasformare l’infosfera da campo di battaglia a giardino condiviso: non miracolose tecnologie salvifiche, ma persone più consapevoli, più critiche, più coraggiose.
Verso una nuova alleanza (il patto che ci salverà)
La transizione dal capitalismo comportamentale all’economia della fiducia non è scritta nelle stelle. Non è inevitabile, non è automatica, non è garantita. È una possibilità fragile che dobbiamo conquistare attivamente, giorno dopo giorno, con scelte consapevoli, politiche illuminate, pratiche virtuose, compromessi coraggiosi.
La vedo emergere, questa possibilità. Nei progetti più innovativi di AI etica. Nelle normative europee che tengono duro contro le lobby. Nelle piattaforme coraggiose che scelgono modelli di business alternativi alla sorveglianza (anche se meno redditizi nel breve). Nelle comunità che sperimentano forme diverse di condivisione digitale.
L’intelligenza artificiale può essere il catalizzatore di questa trasformazione. Non l’AI opaca e predatoria del capitalismo comportamentale. Ma un’AI trasparente e collaborativa che ci aiuta a pensare meglio, a decidere più consapevolmente, a costruire relazioni più autentiche con noi stessi, con gli altri, con il mondo.
Da “ti osservo per venderti” a “collaboro per capirti”. È più di uno slogan accattivante: è il manifesto di una rivoluzione silenziosa ma profonda che sta già cambiando, se lo vogliamo, se lo scegliamo, se ci crediamo, il nostro rapporto con la tecnologia.
E in questa rivoluzione, finalmente, meravigliosamente, noi non siamo più il prodotto.
Siamo i co-autori del nostro destino digitale.
Siamo tornati protagonisti della nostra storia.
FAQ – Economia della Fiducia
Domande frequenti sulla transizione dal capitalismo comportamentale all’economia della fiducia
Il capitalismo comportamentale è un modello economico emerso con l’era digitale, teorizzato dalla studiosa Shoshana Zuboff. In questo sistema, le piattaforme digitali non si limitano a offrire servizi gratuiti in cambio di pubblicità: raccolgono massivamente dati sul nostro comportamento online, li analizzano con algoritmi sofisticati per creare profili predittivi sempre più accurati, e utilizzano queste predizioni per influenzare le nostre decisioni future.
Il modello si basa sull’estrazione unilaterale di “surplus comportamentale” – tutte quelle tracce digitali che lasciamo navigando, cliccando, scrollando – trasformandole in predizioni vendibili agli inserzionisti. In questo sistema, noi utenti diventiamo il vero prodotto.
La differenza è radicale e riguarda il paradigma stesso della relazione tra piattaforma e utente:
Capitalismo comportamentale: Si basa sulla sorveglianza, l’estrazione unilaterale di dati, la predizione e la manipolazione del comportamento. L’utente è un oggetto passivo da studiare e influenzare. Il motto è “ti osservo per venderti”.
Economia della fiducia: Si fonda sulla trasparenza, la collaborazione consapevole, la spiegabilità degli algoritmi e la sostenibilità cognitiva. L’utente è un soggetto attivo in una relazione paritaria. Il nuovo paradigma diventa “collaboro per capirti”.
Nel primo modello il valore viene estratto, nel secondo viene co-creato attraverso relazioni autentiche e reciproche.
La sostenibilità cognitiva è un concetto che estende il principio di sostenibilità all’ambito mentale e attentivo. Significa progettare tecnologie e ambienti digitali che rispettano i limiti naturali della nostra capacità cognitiva, invece di sfruttarli per massimizzare il tempo di permanenza o l’engagement.
Un’infosfera sostenibile cognitivamente non ci bombarda continuamente di notifiche, non usa algoritmi che creano dipendenza, non ci intrappola in bolle informative sempre più ristrette. Al contrario, ci aiuta a pensare meglio, a mantenere l’attenzione su ciò che conta davvero, a preservare la nostra autonomia decisionale.
È il contrario dell’economia dell’attenzione che ha dominato finora, dove l’obiettivo era catturare e trattenere i nostri sguardi a qualunque costo.
La co-intelligenza rappresenta un nuovo modello di collaborazione tra intelligenza umana e artificiale, dove l’AI non sostituisce né manipola le capacità cognitive umane, ma le potenzia attraverso una partnership consapevole e trasparente.
In questo paradigma, l’intelligenza artificiale diventa un partner cognitivo che ci aiuta a pensare meglio, a elaborare informazioni complesse, a prendere decisioni più informate – senza però annullare la nostra autonomia decisionale o i nostri processi critici.
È un rapporto di reciprocità dove entrambe le intelligenze – umana e artificiale – si potenziano reciprocamente, creando un risultato superiore alla somma delle parti.
La trasparenza algoritmica è fondamentale perché gli algoritmi prendono sempre più decisioni che influenzano la nostra vita: cosa vediamo sui social media, quali notizie ci vengono mostrate, quali opportunità di lavoro ci vengono proposte, persino se otteniamo un prestito bancario.
Senza trasparenza, questi sistemi diventano “scatole nere” imperscrutabili che possono perpetuare bias, discriminazioni, manipolazioni – senza che noi possiamo nemmeno accorgercene o contestarli.
La trasparenza significa poter capire perché un algoritmo ha preso una certa decisione, quali dati ha utilizzato, quali criteri ha applicato. Questo ci permette di valutare criticamente le raccomandazioni dell’AI, di contestare decisioni ingiuste, di mantenere la nostra autonomia cognitiva.
Ci sono segnali concreti e crescenti di questa transizione, anche se il percorso è ancora lungo:
Sul piano normativo: L’AI Act europeo e il GDPR stanno tracciando una strada diversa da quella americana o cinese, mettendo al centro la protezione dell’individuo e richiedendo trasparenza e spiegabilità.
Sul piano tecnologico: Emergono piattaforme che scelgono modelli di business alternativi alla sorveglianza, sistemi di AI che spiegano le proprie decisioni, strumenti che danno agli utenti controllo reale sui propri dati.
Sul piano culturale: Cresce la consapevolezza sui rischi del capitalismo comportamentale e la domanda di alternative più etiche e sostenibili.
Non è inevitabile, ma è una possibilità reale che dipende dalle nostre scelte collettive.
Ogni persona può contribuire attivamente a costruire l’economia della fiducia:
Educarsi: Sviluppare alfabetizzazione algoritmica, capire come funzionano le tecnologie che usiamo quotidianamente, imparare a riconoscere quando veniamo manipolati.
Scegliere consapevolmente: Preferire piattaforme e servizi che rispettano la privacy, che sono trasparenti sui loro algoritmi, che hanno modelli di business etici.
Esigere trasparenza: Chiedere spiegazioni su come vengono usati i nostri dati, contestare pratiche opache, supportare normative che tutelano i diritti digitali.
Condividere consapevolezza: Educare familiari, amici, studenti sui rischi del capitalismo comportamentale e sulle alternative possibili.
Partecipare attivamente: Contribuire a comunità che sperimentano forme diverse di condivisione digitale, supportare progetti open source e iniziative di tecnologia etica.
L’educazione gioca un ruolo assolutamente cruciale e forse determinante. Senza un profondo cambiamento culturale, nessuna normativa o innovazione tecnologica potrà realizzare pienamente la transizione all’economia della fiducia.
Dobbiamo formare cittadini digitali consapevoli, capaci di:
Comprendere i meccanismi dell’AI: Non solo usare gli strumenti, ma capire come pensano le macchine, quali sono i loro limiti, come possiamo collaborare efficacemente con loro.
Valutare criticamente i contenuti: Sviluppare capacità di fact-checking, riconoscere le fake news, distinguere informazione di qualità da manipolazione.
Riconoscere la manipolazione: Identificare quando algoritmi o interfacce stanno cercando di influenzare le nostre decisioni in modo non trasparente.
Esercitare sovranità digitale: Gestire consapevolmente la propria identità e i propri dati online, fare scelte informate su privacy e condivisione.
È questa alfabetizzazione algoritmica che può trasformare davvero l’infosfera da campo di battaglia a spazio di fiducia.
I modelli di business dovranno evolversi radicalmente, passando dall’estrazione unilaterale di valore alla co-creazione collaborativa:
Abbonamenti trasparenti: Invece di servizi “gratuiti” finanziati dalla vendita di dati comportamentali, modelli in cui l’utente paga direttamente per servizi di qualità che rispettano la sua privacy.
Condivisione equa del valore: Sistemi in cui gli utenti che contribuiscono con i propri dati ricevono una quota del valore generato, invece di essere semplicemente “minati”.
Certificazioni di fiducia: Piattaforme che ottengono vantaggi competitivi dimostrando trasparenza, eticità, sostenibilità cognitiva – certificabili da enti terzi.
Ecosistemi cooperativi: Modelli dove le comunità di utenti partecipano alle decisioni sulla governance della piattaforma e sull’uso dei dati.
La scommessa è che questi modelli saranno più sostenibili a lungo termine perché costruiscono fiducia e lealtà autentiche, invece di dipendere dalla manipolazione costante.
Le resistenze sono potenti e multidimensionali:
Economiche: Il capitalismo comportamentale ha generato imperi da centinaia di miliardi di dollari. Le grandi piattaforme hanno enormi interessi a mantenere il modello attuale e possono esercitare pressioni politiche ed economiche notevoli.
Tecnologiche: L’intero ecosistema digitale è stato progettato per massimizzare l’estrazione di dati e l’engagement. Riprogettarlo richiede investimenti massicci e rinuncia a profitti immediati.
Culturali: Molti utenti si sono assuefatti a servizi “gratuiti” e potrebbero resistere a modelli che richiedono pagamenti diretti o maggiore consapevolezza.
Inerziali: Cambiare paradigma richiede tempo, sperimentazione, fallimenti. Il rischio è che l’urgenza dei profitti a breve termine blocchi innovazioni necessarie ma rischiose.
Superare queste resistenze richiederà una combinazione di pressione normativa, innovazione tecnologica, evoluzione culturale e scelte consapevoli dei consumatori.
Da informatico a cercatore di senso






