La Santa Sede
LX Giornata Mondiale Comunicazioni Sociali
Custodire voci e volti umani
Messaggio di Sua Santità
Papa Leone XIV
Cari fratelli e sorelle!
Il volto e la voce sono tratti unici, distintivi, di ogni persona; manifestano la propria irripetibile identità e sono l’elemento costitutivo di ogni incontro. Gli antichi lo sapevano bene. Così, per definire la persona umana gli antichi greci hanno utilizzato la parola prosopon che etimologicamente indica ciò che sta di fronte allo sguardo, il luogo della presenza e della relazione. Il termine latino persona (da per-sonare) include invece il suono: non un suono qualsiasi, ma la voce inconfondibile di qualcuno.
Volto e voce sono sacri. Ci sono stati donati da Dio che ci ha creati a sua immagine e somiglianza chiamandoci alla vita con la Parola che Egli stesso ci ha rivolto; Parola prima risuonata attraverso i secoli nelle voci dei profeti, quindi divenuta carne nella pienezza dei tempi. Questa Parola – questa comunicazione che Dio fa di sé stesso – l’abbiamo anche potuta ascoltare e vedere direttamente (cfr 1 Gv 1,1-3), perché si è fatta conoscere nella voce e nel Volto di Gesù, Figlio di Dio.
Fin dal momento della sua creazione Dio ha voluto l’uomo quale proprio interlocutore e, come dice San Gregorio di Nissa, [1] ha impresso sul suo volto un riflesso dell’amore divino, affinché possa vivere pienamente la propria umanità mediante l’amore. Custodire volti e voci umane significa perciò custodire questo sigillo, questo riflesso indelebile dell’amore di Dio. Non siamo una specie fatta di algoritmi biochimici, definiti in anticipo. Ciascuno di noi ha una vocazione insostituibile e inimitabile che emerge dalla vita e che si manifesta proprio nella comunicazione con gli altri.
La tecnologia digitale, se veniamo meno a questa custodia, rischia invece di modificare radicalmente alcuni dei pilastri fondamentali della civiltà umana, che a volte diamo per scontati. Simulando voci e volti umani, sapienza e conoscenza, consapevolezza e responsabilità, empatia e amicizia, i sistemi conosciuti come intelligenza artificiale non solo interferiscono negli ecosistemi informativi, ma invadono anche il livello più profondo della comunicazione, quello del rapporto tra persone umane.
Accogliere con coraggio, determinazione e discernimento le opportunità offerte dalla tecnologia digitale e dall’intelligenza artificiale non vuol dire nascondere a noi stessi i punti critici, le opacità, i rischi.
Non rinunciare al proprio pensiero
Ci sono da tempo molteplici evidenze del fatto che algoritmi progettati per massimizzare il coinvolgimento sui social media – redditizio per le piattaforme – premiano emozioni rapide e penalizzano invece espressioni umane più bisognose di tempo come lo sforzo di comprendere e la riflessione. Chiudendo gruppi di persone in bolle di facile consenso e facile indignazione, questi algoritmi indeboliscono la capacità di ascolto e di pensiero critico e aumentano la polarizzazione sociale.
A questo si è aggiunto poi un affidamento ingenuamente acritico all’intelligenza artificiale come “amica” onnisciente, dispensatrice di ogni informazione, archivio di ogni memoria, “oracolo” di ogni consiglio. Tutto ciò può logorare ulteriormente la nostra capacità di pensare in modo analitico e creativo, di comprendere i significati, di distinguere tra sintassi e semantica.
Sebbene l’IA possa fornire supporto e assistenza nella gestione di compiti comunicativi, sottrarsi allo sforzo del proprio pensiero, accontentandoci di una compilazione statistica artificiale, rischia a lungo andare di erodere le nostre capacità cognitive, emotive e comunicative.
Negli ultimi anni i sistemi di intelligenza artificiale stanno assumendo sempre di più anche il controllo della produzione di testi, musica e video. Gran parte dell’industria creativa umana rischia così di essere smantellata e sostituita con l’etichetta “Powered by AI”, trasformando le persone in meri consumatori passivi di pensieri non pensati, di prodotti anonimi, senza paternità, senza amore. Mentre i capolavori del genio umano nel campo di musica, arte e letteratura vengono ridotti a un mero campo di addestramento delle macchine.
La questione che ci sta a cuore, tuttavia, non è cosa riesce o riuscirà a fare la macchina, ma cosa possiamo e potremo fare noi, crescendo in umanità e conoscenza, con un uso sapiente di strumenti così potenti a nostro servizio. Da sempre l’uomo è tentato di appropriarsi del frutto della conoscenza senza la fatica del coinvolgimento, della ricerca e della responsabilità personale. Rinunciare al processo creativo e cedere alle macchine le proprie funzioni mentali e la propria immaginazione significa tuttavia seppellire i talenti che abbiamo ricevuto al fine di crescere come persone in relazione a Dio e agli altri. Significa nascondere il nostro volto, e silenziare la nostra voce.
Essere o fingere: simulazione delle relazioni e della realtà
Mentre scorriamo i nostri flussi di informazioni (feed), diventa così sempre più difficile capire se stiamo interagendo con altri esseri umani o con dei “bot” o dei “virtual influencers”. Gli interventi non trasparenti di questi agenti automatizzati influenzano i dibattiti pubblici e le scelte delle persone. Soprattutto i chatbot basati su grandi modelli linguistici (LLM) si stanno rivelando sorprendentemente efficaci nella persuasione occulta, attraverso una continua ottimizzazione dell’interazione personalizzata.
La struttura dialogica e adattiva, mimetica, di questi modelli linguistici è capace di imitare i sentimenti umani e simulare così una relazione. Questa antropomorfizzazione, che può risultare persino divertente, è allo stesso tempo ingannevole, soprattutto per le persone più vulnerabili. Perché i chatbot resi eccessivamente “affettuosi”, oltre che sempre presenti e disponibili, possono diventare architetti nascosti dei nostri stati emotivi e in questo modo invadere e occupare la sfera dell’intimità delle persone.
La tecnologia che sfrutta il nostro bisogno di relazione può non solo avere conseguenze dolorose sul destino dei singoli, ma può anche ledere il tessuto sociale, culturale e politico delle società. Ciò avviene quando sostituiamo alle relazioni con gli altri quelle con IA addestrate a catalogare i nostri pensieri e quindi a costruirci intorno un mondo di specchi, dove ogni cosa è fatta “a nostra immagine e somiglianza”. In questo modo ci lasciamo derubare della possibilità di incontrare l’altro, che è sempre diverso da noi, e con il quale possiamo e dobbiamo imparare a confrontarci. Senza l’accoglienza dell’alterità non può esserci né relazione né amicizia.
Un’altra grande sfida che questi sistemi emergenti pongono è quella della distorsione (in inglese bias), che porta ad acquisire e a trasmettere una percezione alterata della realtà. I modelli di IA sono plasmati dalla visione del mondo di chi li costruisce e possono a loro volta imporre modi di pensare replicando gli stereotipi e i pregiudizi presenti nei dati a cui attingono. La mancanza di trasparenza nella progettazione degli algoritmi, insieme alla non adeguata rappresentanza sociale dei dati, tendono a farci rimanere intrappolati in reti che manipolano i nostri pensieri e perpetuano e approfondiscono le disuguaglianze e le ingiustizie sociali esistenti.
Il rischio è grande. Il potere della simulazione è tale che l’IA può anche illuderci con la fabbricazione di “realtà” parallele, appropriandosi dei nostri volti e delle nostre voci. Siamo immersi in una multidimensionalità, dove sta diventando sempre più difficile distinguere la realtà dalla finzione.
A ciò si aggiunge il problema della mancata accuratezza. Sistemi che spacciano una probabilità statistica per conoscenza stanno in realtà offrendoci al massimo delle approssimazioni alla verità, che a volte sono vere e proprie “allucinazioni”. Una mancata verifica delle fonti, insieme alla crisi del giornalismo sul campo che comporta un continuo lavoro di raccolta e verifica di informazioni svolte nei luoghi dove gli eventi accadono, può favorire un terreno ancora più fertile per la disinformazione, provocando un crescente senso di sfiducia, smarrimento e insicurezza.
Una possibile alleanza
Dietro questa enorme forza invisibile che ci coinvolge tutti, c’è solo una manciata di aziende, quelle i cui fondatori sono stati recentemente presentati come creatori della “persona dell’anno 2025”, ovvero gli architetti dell’intelligenza artificiale. Ciò determina una preoccupazione importante riguardo al controllo oligopolistico dei sistemi algoritmici e di intelligenza artificiale in grado di orientare sottilmente i comportamenti, e persino riscrivere la storia umana – compresa la storia della Chiesa – spesso senza che ce ne si possa rendere realmente conto.
La sfida che ci aspetta non sta nel fermare l’innovazione digitale, ma nel guidarla, nell’essere consapevoli del suo carattere ambivalente. Sta a ognuno di noi alzare la voce in difesa delle persone umane, affinché questi strumenti possano veramente essere da noi integrati come alleati.
Questa alleanza è possibile, ma ha bisogno di fondarsi su tre pilastri: responsabilità, cooperazione e educazione.
Innanzitutto la responsabilità. Essa può essere declinata, a seconda dei ruoli, come onestà, trasparenza, coraggio, capacità di visione, dovere di condividere la conoscenza, diritto a essere informati. Ma in generale nessuno può sottrarsi alla propria responsabilità di fronte al futuro che stiamo costruendo.
Per chi è al vertice delle piattaforme online ciò significa assicurarsi che le proprie strategie aziendali non siano guidate dall’unico criterio della massimizzazione del profitto, ma anche da una visione lungimirante che tenga conto del bene comune, allo stesso modo in cui ognuno di essi ha a cuore il bene dei propri figli.
Ai creatori e agli sviluppatori di modelli di IA è chiesta trasparenza e responsabilità sociale riguardo ai principi di progettazione e ai sistemi di moderazione alla base dei loro algoritmi e dei modelli sviluppati, in modo da favorire un consenso informato da parte degli utenti.
La stessa responsabilità è chiesta anche ai legislatori nazionali e ai regolatori sovranazionali, ai quali compete di vigilare sul rispetto della dignità umana. Una regolamentazione adeguata può tutelare le persone da un legame emotivo con i chatbot e contenere la diffusione di contenuti falsi, manipolativi o fuorvianti, preservando l’integrità dell’informazione rispetto a una sua simulazione ingannevole.
Le imprese dei media e della comunicazione non possono a loro volta permettere che algoritmi orientati a vincere a ogni costo la battaglia per qualche secondo di attenzione in più prevalgano sulla fedeltà ai loro valori professionali, volti alla ricerca della verità. La fiducia del pubblico si conquista con l’accuratezza, con la trasparenza, non con la rincorsa a un coinvolgimento qualsiasi. I contenuti generati o manipolati dall’IA vanno segnalati e distinti in modo chiaro dai contenuti creati dalle persone. Va tutelata la paternità e la proprietà sovrana dell’operato dei giornalisti e degli altri creatori di contenuto. L’informazione è un bene pubblico. Un servizio pubblico costruttivo e significativo non si basa sull’opacità, ma sulla trasparenza delle fonti, sull’inclusione dei soggetti coinvolti e su uno standard elevato di qualità.
Tutti siamo chiamati a cooperare. Nessun settore può affrontare da solo la sfida di guidare l’innovazione digitale e la governance dell’IA. È necessario perciò creare meccanismi di salvaguardia. Tutte le parti interessate – dall’industria tecnologica ai legislatori, dalle aziende creative al mondo accademico, dagli artisti ai giornalisti, agli educatori – devono essere coinvolte nel costruire e rendere effettiva una cittadinanza digitale consapevole e responsabile.
A questo mira l’educazione: ad aumentare le nostre capacità personali di riflettere criticamente, a valutare l’attendibilità delle fonti e i possibili interessi che stanno dietro alla selezione delle informazioni che ci raggiungono, a comprendere i meccanismi psicologici che attivano, a permettere alle nostre famiglie, comunità e associazioni di elaborare criteri pratici per una più sana e responsabile cultura della comunicazione.
Proprio per questo è sempre più urgente introdurre nei sistemi educativi di ogni livello anche l’alfabetizzazione ai media, all’informazione e all’IA, che alcune istituzioni civili stanno già promuovendo. Come cattolici possiamo e dobbiamo dare il nostro contributo, affinché le persone – soprattutto i giovani – acquisiscano la capacità di pensiero critico e crescano nella libertà dello spirito. Questa alfabetizzazione dovrebbe inoltre essere integrata in iniziative più ampie di educazione permanente, raggiungendo anche gli anziani e i membri emarginati della società, che spesso si sentono esclusi e impotenti di fronte ai rapidi cambiamenti tecnologici.
L’alfabetizzazione ai media, all’informazione e all’IA aiuterà tutti a non adeguarsi alla deriva antropomorfizzante di questi sistemi, ma a trattarli come strumenti, a utilizzare sempre una validazione esterna delle fonti – che potrebbero essere imprecise o errate – fornite dai sistemi di IA, a proteggere la propria privacy e i propri dati conoscendo i parametri di sicurezza e le opzioni di contestazione. È importante educare ed educarsi a usare l’IA in modo intenzionale, e in questo contesto proteggere la propria immagine (foto e audio), il proprio volto e la propria voce, per evitare che vengano utilizzati nella creazione di contenuti e comportamenti dannosi come frodi digitali, cyberbullismo, deepfake che violano la privacy e l’intimità delle persone senza il loro consenso.
Come la rivoluzione industriale richiedeva l’alfabetizzazione di base per permettere alle persone di reagire alla novità, così anche la rivoluzione digitale richiede un’alfabetizzazione digitale (insieme a una formazione umanistica e culturale) per comprendere come gli algoritmi modellano la nostra percezione della realtà, come funzionano i pregiudizi dell’IA, quali sono i meccanismi che stabiliscono la comparsa di determinati contenuti nei nostri flussi di informazioni (feed), quali sono e come possono cambiare presupposti e modelli economici dell’economia della IA.
Abbiamo bisogno che il volto e la voce tornino a dire la persona. Abbiamo bisogno di custodire il dono della comunicazione come la più profonda verità dell’uomo, alla quale orientare anche ogni innovazione tecnologica.
Nel proporre queste riflessioni, ringrazio quanti stanno operando per le finalità qui prospettate e benedico di cuore tutti coloro che lavorano per il bene comune con i mezzi di comunicazione.
Dal Vaticano, 24 gennaio 2026
Memoria di San Francesco di Sales
LEONE PP. XIV
Note
[1] “Il fatto di essere creato a immagine di Dio significa che all’uomo, fin dal momento della sua creazione, è stato impresso un carattere regale […]. Dio è amore e fonte di amore: il divino Creatore ha messo anche questo tratto sul nostro volto, affinché mediante l’amore riflesso dell’amore divino – l’essere umano riconosca e manifesti la dignità della sua natura e la somiglianza col suo Creatore” (cfr S. Gregorio di Nissa, La creazione dell’uomo: PG 44, 137).
© Dicastero per la Comunicazione – Libreria Editrice Vaticana
Non siamo di fronte al solito monito tecnofobo; siamo di fronte a una chiamata alle armi ontologica. Il Papa, con una lucidità che trafigge il velo del marketing della Silicon Valley, ci ricorda che il volto e la voce non sono “dati biometrici” da scansionare o duplicare, ma sono l’impronta digitale dell’anima, il luogo sacro dell’incontro che nessuna GPU, per quanto potente, potrà mai generare, ma solo simulare.
Il Volto come Luogo dell’Epifania, non del Deepfake
Per anni ho predicato l’equilibrio, cercando di togliere la paura dell’AI alla gente, ma oggi sento l’urgenza di gridare che l’equilibrio non significa accettazione passiva della sostituzione. Il messaggio di quest’anno tocca il nervo scoperto della nostra era: la dissoluzione dell’identità nella fluidità digitale. Quando il Papa parla di “custodire”, usa un verbo che implica una minaccia attiva; non si custodisce ciò che è al sicuro, si custodisce ciò che è sotto assedio. E cosa è sotto assedio oggi se non la veridicità del nostro apparire?
Lavorando ogni giorno con le reti neurali, vedo la tentazione faustiana di “migliorare” la realtà, di levigare i volti, di pulire le voci dalle loro imperfezioni. Ma il Papa ci sta dicendo che è proprio in quell’imperfezione, in quella grana della voce che trema per l’emozione, in quella ruga che si contrae per un dubbio, che risiede la verità della comunicazione. Un algoritmo non trema, un algoritmo non esita: esegue. E in questa esecuzione perfetta c’è la morte della comunicazione intesa come “munus”, come dono di sé all’altro.
La Voce: Frequenza dell’Anima o File Audio?
Mi colpisce profondamente il riferimento alla “voce”. Noi interpreti, noi comunicatori, sappiamo che la voce non è solo veicolo di informazioni semantiche. La voce è la persona. Se permettiamo che le voci sintetiche saturino lo spazio uditivo, se ci abituiamo a dialogare con assistenti che fingono empatia con timbri caldi e rassicuranti, rischiamo un’atrofia emotiva di massa. Il messaggio della LX Giornata è un invito a tornare al “biologico” non come regressione nostalgica, ma come atto di resistenza politica e spirituale.
Io, Franco Bagaglia, credo che la tecnologia debba essere un ponte, non un sostituto del viandante che lo attraversa. Se l’AI diventa il viandante, noi siamo solo spettatori passivi del nostro stesso destino. Questo messaggio è “deflagrante” perché smaschera l’inganno della connessione senza presenza. Non basta essere connessi se non ci sono “volti” veri ai terminali; non basta ascoltare se ciò che udiamo non proviene da una laringe che ha conosciuto il respiro, la fatica e la gioia di vivere.
L’Umanesimo Digitale come Scudo
Concludo con una riflessione che spero vi tenga svegli: custodire voci e volti significa rifiutare la logica per cui tutto ciò che è tecnicamente possibile è anche eticamente lecito. Significa che, come “interpreti” della realtà (e mi rivolgo a voi colleghi e studenti), abbiamo il dovere morale di distinguere il segnale dal rumore, la persona dal suo avatar. La nostra missione non è fermare il progresso, ma umanizzarlo a forza, iniettando sangue e spirito nei circuiti freddi della macchina. Custodiamo i nostri volti, non regaliamoli ai database; custodiamo le nostre voci, usiamole per dire verità scomode e non per recitare copioni scritti da ChatGPT.
Siamo l’ultima generazione che ricorda com’era il mondo prima che la simulazione diventasse indistinguibile dalla realtà. Abbiamo la responsabilità di non dimenticare.
❓ FAQ: Approfondimenti sul Messaggio 2026Perché il tema “Custodire voci e volti” è così critico proprio nel 2026?
Perché siamo arrivati al punto di non ritorno tecnologico. Con l’avvento dell’AI generativa video in tempo reale e dei sintetizzatori vocali indistinguibili dall’umano, la “prova di realtà” è crollata. Il Papa interviene ora perché il rischio non è più solo la disinformazione (fake news), ma la disumanizzazione dell’incontro. Se non custodiamo la nostra unicità biologica, rischiamo di vivere in un mondo di specchi deformanti dove nessuno è chi dice di essere.Come si concilia questo messaggio con l’uso dell’AI nell’educazione?
Si concilia perfettamente attraverso il principio dell’Umanesimo Digitale. Usare l’AI per imparare (come tutor, come strumento di sintesi) è positivo. Usare l’AI per sostituire la relazione docente-studente o per falsificare la propria presenza è distruttivo. Il messaggio non demonizza lo strumento, ma condanna l’uso che cancella la “traccia” umana. L’educazione deve rimanere un passaggio di testimone tra volti vivi, non un download di dati.Cosa intendi per “togliere la paura ma moderare l’entusiasmo”?
Intendo che non dobbiamo temere l’AI come un mostro che ci divorerà (paura irrazionale), ma non dobbiamo nemmeno accoglierla come un Messia che risolverà tutti i nostri problemi (entusiasmo acritico). Dobbiamo vederla per ciò che è: un amplificatore. Se siamo vuoti, amplificherà il vuoto. Se siamo umani, e “custodiamo” la nostra umanità, può amplificare il bene. L’equilibrio sta nel rimanere padroni della macchina, non suoi devoti.
Da informatico a cercatore di senso
Unisciti al mio mondo di conoscenza e iscriviti al mio canale WhatsApp.
Sarai parte di una comunità appassionata, sempre aggiornata con i miei pensieri e le mie idee più emozionanti.
Non perderti l’opportunità di essere ispirato ogni giorno, iscriviti ora e condividi questa straordinaria avventura con me!
Nota di trasparenza sull’uso dell’AI nel blog
In questo spazio digitale, dedicato alla comprensione critica dell’innovazione tecnologica, desidero condividere con chiarezza due aspetti importanti del lavoro che porto avanti.
Immagini generate con l’AI
La quasi totalità delle immagini presenti nel blog è generata tramite strumenti di intelligenza artificiale. Le utilizzo sia come supporto visivo sia come modo per sperimentare nuove forme di comunicazione creativa, coerenti con i temi trattati.
Un blog nato dalla scrittura… e trasformato dalla velocità dell’AI
Scrivere è sempre stata una mia passione. Dopo anni di appunti, riflessioni e sperimentazioni, tre anni fa è nato questo blog. Fin da subito, però, ho dovuto confrontarmi con una sfida evidente: l’incredibile accelerazione dell’evoluzione scientifica legata all’intelligenza artificiale rende complesso mantenere aggiornato un progetto di divulgazione che ambisce alla qualità e alla precisione.
Per questo, in coerenza con la mia missione di promuovere consapevolezza, oggi più che mai un elemento vitale, ho scelto di farmi affiancare da piattaforme di AI in molte fasi del lavoro editoriale. In particolare, l’AI mi supporta in:
- ricerca e verifica preliminare delle notizie
- organizzazione e strutturazione degli articoli
- creazione di sezioni HTML per FAQ e link alle fonti
- ideazione di infografiche
- esplorazione di titoli efficaci e pertinenti
L’obiettivo non è delegare il pensiero, ma amplificare la capacità di analisi e di sintesi, così da offrire contenuti sempre più chiari, accurati e utili.












