da un punto di vista umanista digitale Codice di buone pratiche dell’UE sulla disinformazione | Commissione europea
1. L’alba di un’IA regolamentata
Il 10 luglio 2025, la Commissione Europea ha svelato il Codice di Condotta voluntario per l’IA general‑purpose – un gesto coraggioso nel pieno della transizione verso un mondo dominato da sistemi come GPT-4, Gemini, Claude e LLaMA (la Repubblica).
Nato dalla collaborazione di 13 esperti indipendenti e oltre 1 000 stakeholder (tra sviluppatori, PMI, esperti e associazioni civili), il documento è pensato per preparare le aziende alle regole che entreranno in vigore il 2 agosto 2025.
2. Tre capitoli per un equilibrio tra innovazione e sicurezza
Il Codice si articola in tre pilastri fondamentali (la Repubblica, artificialintelligenceact.eu):
- Trasparenza: ogni fornitore deve compilare un “Model Documentation Form”, dichiarando le fonti dati, le modalità di training e l’uso dei modelli.
- Copyright: obbligo di implementare safeguard per evitare che l’IA riproduca contenuti protetti.
- Sicurezza: riservato ai modelli a rischio sistemico (quelli con capacità computazionali estremamente elevate), richiede analisi del rischio e verifiche continue.
3. Volontario ma conveniente
Adottare il Codice non è obbligatorio, ma ha vantaggi importanti:
- minore onere amministrativo,
- maggiore certezza legale,
- un percorso di conformità più rapido rispetto ai non firmatari (PPC Land, la Repubblica, Reuters).
Eppure, non mancano le voci critiche: big tech (Google, Meta, OpenAI), alcune aziende europee (Airbus, BNP Paribas, Mistral) e persino esponenti USA (come il vicepresidente Vance) lamentano un eccesso di regolamentazione che potrebbe soffocare l’innovazione (AI4Business).
4. Un regolatore che non arretra
La Commissione UE ha chiuso le porte a “stop the clock”, confermando che non ci sarà alcun rinvio: l’AI Act procederà secondo la tabella di marcia, con l’entrata in vigore per l’IA general‑purpose dal 2 agosto 2025, e applicazione graduale per i sistemi preesistenti (AI4Business).
5. Una rete normativa sempre più coerente
Questo Codice non è un gesto isolato, ma si inserisce nel percorso normativo europeo:
- Guide preliminari dell’“AI Office” pubblicate ad aprile,
- Normative successive come il pacchetto Digital Omnibus annunciato per novembre 2025,
- Creazione di “regulatory sandbox” nei singoli Stati membri entro agosto 2026 (Arena Digitale, artificialintelligenceact.eu, la Repubblica).
🎯 Perché questo Cammino è significativo per l’Umanesimo Digitale
- Equilibrio tra progresso e coscienza: la trasparenza sui dati e l’attenzione al copyright e alla sicurezza sono un segnale che l’Europa vuole guidare un’IA etica e responsabile.
- Uomo al centro: non si demonizza la tecnologia, ma la si integra in modo armonico e consapevole.
- Empowerment di PMI e startups: un modello volontario che facilita l’accesso alla compliance e supporta la sovranità digitale europea (Strategia Digitale Europea).

Recap di Marco Camisani Calzolari
Oggi è stato pubblicato il Code of Practice dell’Unione Europea sull’intelligenza artificiale generica.
È il primo documento operativo che definisce regole concrete su come vanno progettati, documentati e controllati i grandi modelli di AI come quelli che usiamo ogni giorno: da ChatGPT a Claude, da Gemini a LLaMA.
Ho collaborato alla sua scrittura insieme ad altri esperti europei e internazionali, come membro del gruppo selezionato dalla Commissione. È un passo fondamentale per portare trasparenza, sicurezza e responsabilità in un settore che oggi si muove troppo spesso senza regole. Questi sono i principali punti del documento:
⸻
🔹 1. Trasparenza strutturale
I fornitori dei modelli devono compilare una Model Card ufficiale, un documento tecnico dettagliato che spiega:
quali dati sono stati usati per addestrare il modello
quali sono i suoi limiti e rischi noti
come funziona, in termini tecnici e pratici
a chi è rivolto e per quali casi d’uso è sconsigliato
È un modo per dire basta ai “modelli black box”. Chi integra o regola questi sistemi deve sapere davvero cosa ha davanti.
⸻
🔹 2. Diritti d’autore
Per la prima volta un codice operativo impone regole chiare su quali contenuti si possono usare per addestrare un modello e quali no.
Vietato usare contenuti pirata
Obbligatorio rispettare i file robots.txt e gli opt-out
Obbligo di adottare una policy interna sul copyright, con referenti chiari, procedure di reclamo e prevenzione degli abusi (es. output copiati o non autorizzati)
Una misura storica, che riconosce il valore del lavoro umano anche nel contesto dell’AI.
⸻
🔹 3. Sicurezza e rischio sistemico
I modelli con potenziale impatto sistemico (es. addestrati con oltre 10²⁵ FLOP) devono rispettare regole molto più rigide:
Audit indipendenti, almeno ogni anno
Sistemi interni per prevenire fughe di dati e abusi
Analisi continua dei rischi prima e dopo il rilascio
Obbligo di notificare incidenti e vulnerabilità all’AI Office
È la prima volta che si introduce una responsabilità di safety by design obbligatoria per i modelli più potenti.
⸻
🎯 Cosa cambia da oggi
Il Code of Practice è volontario, ma chi lo adotta verrà considerato conforme all’AI Act (art. 53 e 55).
In pratica:
Meno burocrazia
Maggiore certezza giuridica
Più fiducia da parte degli utenti e delle autorità
È anche un ponte temporaneo: le regole del Code valgono fino a quando non verranno adottati gli standard europei armonizzati (previsti tra 2026 e 2027).
⸻
Questo documento è solo un primo passo. Ma è un passo concreto, scritto, operativo, non una dichiarazione di principio.
Dimostra che regolare l’AI si può. E si deve.
Conclusione
Immagina un gigante silenzioso che cresce: l’IA generativa. L’Europa, con questo Codice, si prepara non a trascinarlo, ma a girarne la rotta verso lidi dove l’etica, la trasparenza e la protezione delle persone restino fari guida. In questo cammino, ogni impresa che decide di firmarlo diventa parte attiva di una rivoluzione digitale responsabile.
Da informatico a cercatore di senso