La chiave per comprendere questo fallimento risiede nell’applicazione del modello sociale della disabilità all’ambiente algoritmico. Questo modello, consolidato nelle politiche pubbliche, afferma che la disabilità non risiede nel deficit della persona, ma nell’ambiente che non riesce ad accoglierla (ad esempio, una persona in carrozzina è disabilitata da scale senza rampe).
L’AI generativa, tuttavia, ha operato un pericoloso ribaltamento digitale: riproduce il superato “modello medico”, trattando ogni deviazione da uno standard implicito come un deficit individuale da compensare, invece che come una legittima diversità da accogliere strutturalmente.
L’Ambiente Algoritmico Normo-Centrico: L’Utente Implicito
L’AI di oggi non è “intelligenza per tutti” perché è stata ottimizzata per un profilo cognitivo estremamente ristretto e normo-centrico. Questo standard, che emerge dai dati di training e dalle priorità economiche, è quello del lavoratore cognitivo occidentale, neurotipico, anglofono, di età compresa tra 25 e 50 anni, con elaborazione rapida e preferenza per la frammentazione modulare.
Questa scelta non è stata casuale, ma è dettata dalla logica del mercato B2B: il cliente che paga di più (l’azienda con migliaia di knowledge worker) detta il design.
L’Umanesimo Digitale richiederebbe di progettare per la varietà umana reale, riconoscendo che il potenziale cognitivo si manifesta in modi diversi (neurodiversità, età, contesto culturale). Invece, l’AI esclude strutturalmente:
1. Le Persone Neurodivergenti e con Disabilità Cognitive: Chi necessita di linguaggio letterale invece di metaforico, continuità testuale al posto della frammentazione, o tempi di elaborazione più lunghi, riceve lo stesso output pensato per il trentenne neurotipico. Se non riescono a seguirlo, il problema è localizzato nell’utente (scarsa alfabetizzazione digitale) e non nel sistema che è intrinsecamente disabilitante.
2. Gli Anziani: Con rallentamenti fisiologici e bisogno di tempi più lunghi, vengono trattati come utenti deficitari che devono “imparare a usare l’AI” e “aggiornarsi” a una velocità di interazione pensata per i giovani-adulti, ignorando le loro competenze esperienziali.
3. Gli Adolescenti: Vengono trattati come “adulti incompiuti”. Ricevono sistemi progettati per i trentenni ma poi “castrati” con filtri di sicurezza che non riconoscono la loro legittima modalità cognitiva e la loro fase di sviluppo emotivo.

In tutti questi casi, non è la persona ad avere capacità inadeguate, è l’ambiente algoritmico ad essere cognitivamente disabilitante.
Il Paradosso dell’Accessibilità Cosmetica
Le piattaforme AI dichiarano il loro impegno per l’accessibilità (screen readers, sottotitoli). Tuttavia, queste sono per lo più compensazioni tecniche per disabilità fisiche o sensoriali. L’accessibilità cognitiva, che è il cuore dell’inclusione digitale, è assente come categoria progettuale primaria.
Non esistono funzionalità strutturali essenziali come una “modalità lenta” per chi elabora diversamente, o una “modalità letterale” per chi pensa in modo concreto. Aggiungere uno screen reader non rende un sistema cognitivamente inclusivo se la struttura delle risposte è pensata per un solo tipo di mente. È l’equivalente digitale di costruire un edificio con scale ripide e strette e poi dichiararsi inclusivi per aver aggiunto il corrimano, ignorando la necessità della rampa.

L’AI come Regressione Sociale
Questo approccio rappresenta una regressione cognitiva e sociale. Negli anni ’60, la società definiva il progresso intorno a un lavoratore standard (maschio, bianco, normodotato); le minoranze dovevano adattarsi o rimanere ai margini. Decenni di lotte sociali e normative hanno ripensato gli ambienti fisici (rampe, ascensori) e culturali (riconoscimento della neurodiversità).
L’AI generativa sta ripartendo da zero, ripetendo gli stessi errori. Si progetta per il “Luca trentenne” o “l’Anna quarantenne” standard, e si assume che tale standard sia neutro. Questo è l’anti-Umanesimo in azione: il progresso tecnologico viene mascherato da “democratizzazione dell’intelligenza” mentre in realtà costruisce un mondo digitale che è strutturalmente indifferente alla varietà umana.
La Soluzione Normativa per l’Umanesimo Digitale
Se l’AI è un ambiente che definisce sempre più i nostri contesti lavorativi, educativi e sociali, l’impegno verso l’Umanesimo Digitale non può limitarsi alla retorica. Serve un vincolo normativo forte che obblighi a progettare per la diversità cognitiva reale fin dall’inizio.
Per colmare questo gap normativo è necessario:
1. Obbligo di Documentazione dell’Utente Implicito: Ogni sistema AI deve dichiarare esplicitamente per quale profilo cognitivo è ottimizzato e quali popolazioni rischiano l’esclusione strutturale.
2. Standard di Progettazione Multi-Cognitiva: Non basta l’usabilità tecnica. Bisogna garantire che il sistema offra modalità diverse per stili cognitivi diversi (velocità variabili, linguaggio letterale vs. metaforico, continuità vs. frammentazione).
L’AI è il nostro test di civiltà: non si tratta solo di innovazione, ma di decidere se vogliamo costruire un futuro cognitivamente inclusivo o se ripeteremo gli errori escludenti del passato, costruendo un ambiente disabilitante che dovremo smantellare tra vent’anni con lo stesso imbarazzo con cui guardiamo oggi gli edifici inaccessibili degli anni ’60.
Profilo dell’Autore di questo documento molto interessante Martino Pirella : Martino Pirella | LinkedIn
Da informatico a cercatore di senso






