L’Avvocato, il Giudice e il Pappagallo Stocastico
È successo davvero: un giudice che fonda la sua decisione su precedenti legali inesistenti , un avvocato che deposita un ricorso talmente sconclusionato da sembrare un “fritto misto di concetti senza senso” . Il colpevole? Un copia-incolla frettoloso da un chatbot di Intelligenza Artificiale Generativa.
Questa non è fantascienza. È il sintomo di un problema profondamente umano che la tecnologia ha solo portato a galla. E la recente, drastica decisione del Consiglio Superiore della Magistratura (CSM) di “mettere fuori legge” l’uso dell’IA per i magistrati non è, come molti urlano, un rigurgito di luddismo. È un atto di sano realismo .
Come umanista digitale, e prima ancora come ingegnere, ho sempre creduto nel potenziale della tecnologia per democratizzare il sapere. Ma ho anche sempre sostenuto la necessità di moderare gli entusiasmi facili e, soprattutto, di disinnescare le paure irrazionali. Questo caso è l’esempio perfetto del perché la mia missione è cercare l’equilibrio.
Il Fascino Pericoloso della Scatola Magica
Perché un magistrato o un avvocato, professionisti di altissimo livello, cadono in una trappola simile?
La risposta non è tecnica, ma umana. Nel video che ha ispirato questo mio articolo, il magistrato Cesare Parodi cita Oscar Wilde: “Posso resistere a tutto, tranne che alle tentazioni” . La tentazione, qui, è quella dell’efficienza a tutti i costi.
Viviamo sotto pressione. Abbiamo carichi di lavoro enormi. E all’improvviso, appare uno strumento che promette di fare il lavoro per noi, rapidamente e con un’aura di apparente autorevolezza . Il problema è che, come sottolinea l’host Matteo Flora, si crea un cortocircuito tra la “reale inaffidabilità” dello strumento e la sua “apparente autorevolezza” .
Ci fidiamo. Deleghiamo. Cadiamo vittime di quello che gli psicologi chiamano automation bias : la tendenza a delegare il pensiero critico a una macchina. E nel farlo, non deleghiamo solo la scrittura: deleghiamo la responsabilità .
L’Umanità non è un Bug, è una Funzione
Qui emerge il cuore del problema, quello che tocca le corde del mio essere un umanista. L’Intelligenza Artificiale Generativa, oggi, è un “pappagallo stocastico” ; assembla parole in modo statisticamente probabile, ma non comprende il significato, non possiede coscienza né intenzionalità.
Un giudice, invece, è pagato per motivare ogni singola parola di una sentenza . Come può farlo, se la sua decisione si basa su un algoritmo opaco, una “scatola nera” incomprensibile persino ai suoi stessi creatori ?
La giustizia non è un sillogismo matematico . Se così fosse, basterebbe un foglio di calcolo. La giustizia, nella nostra tradizione giuridica, è umana perché deve comprendere il contesto, le sfumature, il non detto. Come ricordava Calamandrei, il giudice è umano e per questo non è “spietato” . L’IA, ad oggi, manca completamente di questa dimensione.
L’avvocato Giuseppe Vaciago, nel video, solleva un’altra preoccupazione che condivido pienamente: il rischio di un “appiattimento” delle nostre capacità professionali . Se smettiamo di esercitare il pensiero critico, l’intuizione, la capacità di collegare concetti in modo creativo , finiremo per “adagiarci” , diventando esecutori passivi di output generati da una macchina.
La Via Europea: Non Sostituire, ma Aumentare
Ecco perché la mossa del CSM non mi spaventa. Al contrario, la vedo come un’opportunità. Non è un “no” alla tecnologia . È un “no” a questa tecnologia, usata in questo modo, in un settore così critico.
È un primo, fondamentale passo di tech policy che definisce un modello europeo all’IA : non la deregolamentazione selvaggia né il controllo statale, ma l’aumento delle capacità umane (Human Augmentation) all’interno di un perimetro di garanzie .
La richiesta è chiara: volete che l’IA entri nei tribunali? Bene. Ma deve essere trasparente, verificabile e sotto una costante supervisione umana [19:21]. Il sistema deve servire l’uomo, non il contrario .
Abbiamo un Disperato Bisogno di Cultura
Alla fine, la questione non è “Intelligenza Artificiale sì” o “Intelligenza Artificiale no”. La questione, come emerge potentemente dal dibattito, è il nostro “disperato bisogno di cultura digitale a tutti i livelli” .
Dobbiamo, come società, imparare a usare questi strumenti con consapevolezza critica. Dobbiamo comprenderne prima i limiti e poi le potenzialità . E questo vale per i giudici, per gli avvocati, per gli ingegneri e per ogni singolo cittadino.
La mia missione, quella di equilibrare gli entusiasmi e placare le paure, passa da qui: dall’alfabetizzazione sull’IA. Dobbiamo diventare “pastori dell’intelligenza artificiale” , capaci di guidarla e non di subirla.
Il CSM non ha chiuso una porta; ha semplicemente appeso un cartello: “Lavori in corso. Stiamo costruendo le fondamenta etiche e umane prima di inaugurare l’edificio”. E io, da umanista digitale, non potrei essere più d’accordo.
Domande Frequenti (FAQ)
Cosa ha deciso esattamente il CSM sull’Intelligenza Artificiale?
Il Consiglio Superiore della Magistratura (CSM) ha inviato una raccomandazione chiara: i magistrati non devono usare intelligenze artificiali *generative* (come ChatGPT) per scrivere o redigere bozze di sentenze e atti giudiziari. Non è un divieto assoluto su ogni tecnologia, ma un blocco specifico su questi strumenti per la loro attuale e comprovata inaffidabilità.
Perché l’IA è considerata così pericolosa nei tribunali? Il rischio è reale?
Sì, il rischio è molto concreto. Il problema principale sono le “allucinazioni”: l’IA può inventare di sana pianta fatti, precedenti legali e citazioni di leggi che non esistono. È già successo che giudici e avvocati, fidandosi ciecamente dello strumento, abbiano basato le loro argomentazioni su dati completamente falsi, minando la credibilità del processo.
Questo blocco significa essere contro il progresso e l’innovazione?
Assolutamente no. Come spiego nel mio articolo, non si tratta di luddismo, ma di “sano realismo”. La decisione non è un “no” eterno alla tecnologia, ma un “no” a *questa* tecnologia, *ora*, per *questa* funzione critica. È un passo necessario per definire le regole: l’IA sarà un alleato solo quando sarà trasparente, verificabile e costantemente supervisionata dall’essere umano.
Perché gli avvocati possono usarla e i magistrati no?
Questa è una delle attuali contraddizioni. La raccomandazione del CSM vincola i magistrati, che hanno la responsabilità finale della decisione. Gli avvocati, pur essendo parte dello stesso sistema, al momento non hanno un divieto altrettanto stringente, anche se gli Ordini professionali stanno definendo principi di utilizzo responsabile (rispetto privacy, confidenzialità, ecc.). Rimane un’asimmetria su cui riflettere.
Cos’è l'”automation bias” (o bias da automazione)?
È una trappola cognitiva, una tendenza umana molto pericolosa. In pratica, tendiamo a fidarci eccessivamente dell’output di un sistema automatico (come un’IA), delegandogli il nostro pensiero critico. Smettiamo di controllare e verificare, dando per scontato che “se lo dice la macchina, è giusto”. È così che un’allucinazione dell’IA diventa un errore giudiziario.
Qual è la soluzione “umanistica” a questo problema?
La soluzione non è bandire la tecnologia, ma governarla. Serve un “umanesimo digitale”: dobbiamo investire massicciamente in cultura digitale e alfabetizzazione sull’IA per tutti (giudici, avvocati, cittadini). Dobbiamo costruire sistemi che *aumentino* le capacità umane, non che le sostituiscano. La tecnologia deve servire l’uomo e i suoi valori (come la giustizia), non il contrario.
Da informatico a cercatore di senso







