Il presente report fornisce un’analisi dettagliata dei principi e delle disposizioni della legge, ne esamina il rapporto con il framework europeo, ne valuta i pilastri economici e di governance e ne individua le principali sfide attuative. L’analisi si concentra in particolare sul forte orientamento “antropocentrico” della legge, che subordina l’impiego dell’IA alla tutela dei diritti fondamentali in settori sensibili come la giustizia, il lavoro e la sanità. Vengono inoltre esaminati i meccanismi di sostegno finanziario, come il Fondo da 1 miliardo di euro destinato a ricerca e imprese, e le criticità sollevate da esperti e associazioni di categoria, soprattutto in merito alla clausola di invarianza finanziaria e all’indipendenza delle autorità di vigilanza.

La legge rappresenta un momento storico, segnando la scelta dell’Italia di non rimanere spettatrice ma di assumere un ruolo proattivo e normativo. Tuttavia, la sua reale efficacia dipenderà interamente dalla fase di attuazione e dalla capacità del Governo di tradurre i principi in prassi operative chiare, superando le lacune strutturali e garantendo le risorse necessarie per sostenere un’innovazione che sia al contempo competitiva, sicura ed etica.
1. Il Contesto Normativo: L’Italia nel Quadro Europeo e Globale
1.1 Genesi e Scopo della Legge Italiana D.D.L. n. 1146
La prima legge quadro italiana sull’intelligenza artificiale, il Disegno di Legge n. 1146, nasce dall’esigenza di fornire una cornice normativa a una tecnologia che sta rapidamente trasformando il tessuto sociale ed economico del Paese. L’obiettivo dichiarato del provvedimento è promuovere “un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica” dell’IA, al fine di coglierne le opportunità per migliorare la vita dei cittadini, aumentare la competitività nazionale e rafforzare la posizione dell’Italia nel contesto europeo e internazionale.
L’iter parlamentare è stato un processo lungo e articolato, a testimonianza della complessità e della rilevanza del tema. Il percorso legislativo, iniziato con la presentazione del testo a maggio 2024, ha attraversato tre letture parlamentari. Dopo l’approvazione in prima lettura al Senato il 20 marzo 2025, il disegno di legge è stato trasmesso alla Camera, dove è stato approvato con modificazioni il 25 giugno 2025. Il passaggio finale e definitivo si è concluso al Senato il 17 settembre 2025, con 77 voti favorevoli, 55 contrari e 2 astenuti, un risultato che evidenzia un dibattito acceso e non privo di tensioni politiche sul testo.
Tabella 1: Cronologia e Fasi dell’Iter Legislativo (D.D.L. n. 1146)
Fase | Data | Descrizione | Fonte |
Presentazione | 20 maggio 2024 | Presentazione del Disegno di Legge n. 1146 al Senato. | |
Prima Lettura | 20 marzo 2025 | Il Senato approva il testo modificato e lo trasmette alla Camera. | |
Seconda Lettura | 25 giugno 2025 | La Camera dei Deputati approva il testo con modificazioni. | |
Terza Lettura | 17 settembre 2025 | Il Senato approva in via definitiva il disegno di legge, che diventa legge. |
1.2 Armonizzazione e Specificità: Il Rapporto con l’AI Act Europeo (Regolamento UE 2024/1689)
Il D.D.L. italiano è esplicitamente concepito per coordinarsi e armonizzare il quadro normativo nazionale con il Regolamento (UE) 2024/1689, noto come “AI Act,” il primo quadro giuridico al mondo a stabilire regole sull’IA. L’AI Act introduce un approccio basato sul rischio, classificando i sistemi di IA in base al loro potenziale impatto sui diritti e la sicurezza. Vengono così definiti quattro livelli di rischio: “inaccettabile,” che comprende pratiche vietate come il
social scoring; “elevato,” con requisiti stringenti per applicazioni critiche; “limitato,” per le quali si impongono obblighi di trasparenza; e “minimo,” che sono in gran parte non regolamentati.
A differenza dell’AI Act, che stabilisce una base comune per tutta l’Unione, la legge italiana introduce norme specifiche che ne declinano l’applicazione in settori locali come la giustizia, il lavoro, la sanità e le professioni intellettuali. Questo approccio settoriale, contenuto nel Capo II della legge, è un elemento distintivo che mira a tradurre i principi generali europei nel contesto specifico del “Sistema-Paese”.
Tabella 2: Confronto Normativo: Legge Italiana vs. AI Act Europeo
Caratteristica | Legge Italiana (D.D.L. n. 1146) | AI Act (Reg. UE 2024/1689) | Fonte |
Scopo | Normativa quadro con delega settoriale per il contesto nazionale. | Regolamento generale che stabilisce un approccio basato sul rischio per l’intera UE. | |
Principi guida | Principio “antropocentrico” al centro, che subordina l’IA ai diritti umani e alla dignità della persona. | Approccio basato sul rischio, promozione dell’innovazione e tutela dei diritti fondamentali. | |
Governance | Individua le autorità nazionali (ACN e AgID) con ruoli di vigilanza e promozione. | Stabilisce la necessità di autorità nazionali di vigilanza e un quadro di governance a livello di Unione. | |
Disposizioni settoriali | Norme specifiche per giustizia, sanità, lavoro e professioni intellettuali. | Disposizioni generali, lasciando agli Stati membri la regolamentazione di dettagli applicativi. | |
Profili penali | Introduce reati specifici (es. deepfake) e aggravanti per reati commessi con l’IA. | Prevede sanzioni pecuniarie per le violazioni, lasciando agli Stati membri la disciplina penale. | |
Sostegno economico | Stanziamento di 1 miliardo di euro attraverso il Fondo di sostegno a CDP. | Non stanzia fondi specifici, ma promuove iniziative per l’eccellenza e gli investimenti. |
1.3 Critiche e Rilievi della Commissione Europea
Il percorso di armonizzazione non è stato privo di frizioni. In un parere inviato all’Italia nel novembre 2024, la Commissione Europea ha sollevato diverse criticità sul testo del disegno di legge. Tra i punti principali, spiccavano le preoccupazioni relative all’indipendenza delle autorità nazionali individuate, l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN), la cui natura governativa non sembrava garantire lo stesso livello di indipendenza previsto dall’AI Act per le autorità di controllo. L’atto legislativo italiano non sembra aver recepito pienamente queste osservazioni. Un’altra obiezione riguardava la sovrapposizione tra la normativa italiana e quella europea in materia di
watermark.
Questi rilievi non sono semplici disallineamenti tecnici, ma mettono in luce una potenziale debolezza strutturale nella governance. La Commissione Europea ha un ruolo fondamentale nel garantire un’applicazione uniforme e obiettiva del diritto comunitario. La mancanza di piena indipendenza delle autorità designate potrebbe, in linea di principio, minare la fiducia nella capacità dell’Italia di attuare efficacemente il regolamento e di monitorare i sistemi di IA in modo equo e imparziale. Ciò potrebbe tradursi in una minore credibilità a livello europeo e in una ridotta efficacia nell’applicazione pratica della legge.
2. I Pilastri della Legge: Analisi Approfondita delle Disposizioni Settoriali
2.1 Principi Fondamentali e Governance
La legge italiana si fonda su una chiara visione “antropocentrica” dell’IA, intesa a promuovere un uso etico e responsabile della tecnologia. Questo approccio si traduce in una serie di principi generali che devono guidare lo sviluppo e l’applicazione dei sistemi di IA, come la tutela dei diritti e delle libertà fondamentali, la trasparenza, la proporzionalità e la non discriminazione. Il provvedimento stabilisce che l’uso dell’IA non deve pregiudicare la libertà e il pluralismo dell’informazione, garantendo obiettività, completezza e imparzialità. Per quanto riguarda la tutela della riservatezza, la legge garantisce un trattamento lecito e trasparente dei dati personali, consentendo anche l’uso secondario di dati non direttamente identificativi per la ricerca, previa pubblicazione delle informazioni pertinenti sul sito del titolare del trattamento.
Dal punto di vista della governance, la legge disegna una nuova architettura di supervisione, delegando al Governo il compito di individuare le autorità nazionali competenti. Sebbene il testo individui preliminarmente AgID e ACN come autorità di riferimento, la loro indipendenza, come già evidenziato, è stata oggetto di dibattito e rimane una sfida da affrontare nella fase attuativa.
2.2 L’IA nel Settore Pubblico e nella Giustizia
L’impiego dell’IA nella pubblica amministrazione è finalizzato a migliorare l’efficienza e la qualità dei servizi, riducendo tempi e costi, ma con precisi limiti. La legge impone obblighi di tracciabilità e trasparenza nell’uso degli strumenti intelligenti e prevede percorsi formativi per il personale. Un principio cardine riguarda la sovranità tecnologica: nella scelta dei fornitori, le pubbliche amministrazioni sono indirizzate a privilegiare soluzioni che garantiscano la localizzazione e l’elaborazione dei dati strategici presso
data center situati sul territorio nazionale.
L’uso dell’IA in ambito giudiziario è disciplinato dall’articolo 15, che riserva espressamente al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove, e sull’adozione dei provvedimenti. La legge italiana vieta così di fatto l’impiego dell’IA per la cosiddetta “giustizia predittiva,” limitandone l’utilizzo a funzioni strumentali e di supporto, come l’organizzazione del lavoro e la ricerca giurisprudenziale. Questa scelta legislativa è un’applicazione diretta del principio antropocentrico. Il legislatore italiano ha risposto in modo chiaro alle preoccupazioni sulla possibile disumanizzazione del processo legale. L’obiettivo è evitare che un algoritmo possa prendere decisioni che richiedono un’etica, un giudizio e una responsabilità intrinsecamente umane.
2.3 Lavoro, Sanità e Professioni Intellettuali
Il provvedimento interviene in modo mirato su altri settori strategici. Nell’ambito del lavoro, la legge stabilisce che l’IA debba essere impiegata per migliorare le condizioni lavorative, la produttività e la sicurezza dei dipendenti, nel pieno rispetto della loro dignità e privacy. È fatto esplicito obbligo per il datore di lavoro di informare il lavoratore in caso di utilizzo di sistemi di IA. A tal fine, viene istituito un “Osservatorio lavoro e IA” presso il Ministero del Lavoro e delle Politiche Sociali, con il compito di contenere i rischi e massimizzare i benefici derivanti dall’adozione di tali tecnologie.
Nel settore sanitario, l’IA è promossa come strumento di supporto per la prevenzione, la diagnosi, la cura e la scelta terapeutica, ma la decisione finale rimane sempre e in modo inequivocabile nelle mani del professionista medico. La legge proibisce categoricamente l’impiego dell’IA per selezionare o condizionare l’accesso alle prestazioni sanitarie su base discriminatoria. Inoltre, il provvedimento introduce una piattaforma nazionale di IA per la sanità digitale, gestita da AGENAS, e promuove lo sviluppo di soluzioni che migliorino la qualità della vita delle persone con disabilità.
Per le professioni intellettuali, l’uso dell’IA è consentito solo per attività “strumentali e di supporto”. Un aspetto cruciale è l’obbligo, per il professionista, di informare il cliente in modo chiaro, semplice ed esaustivo sull’impiego di tali sistemi.
In tutti questi settori, il provvedimento ribadisce un tema centrale: la “responsabilità e il primato umano.” La regolamentazione in sanità, lavoro e nelle professioni stabilisce un chiaro confine. Il potenziale dei sistemi di IA di operare come “scatole nere,” rendendo difficile l’attribuzione di responsabilità in caso di errore, è affrontato attraverso una norma che rafforza il ruolo del professionista come ultimo e unico decisore, trasformando l’IA da un possibile sostituto a un semplice strumento ausiliario.
2.4 Sicurezza Nazionale e Cybersicurezza
L’articolo 6 della legge esclude esplicitamente dal proprio campo di applicazione le attività connesse ai sistemi di IA se condotte a fini di sicurezza nazionale, difesa o cybersicurezza, pur ribadendo la necessità di rispettare i diritti e le libertà fondamentali. Questa esclusione non è una semplice deroga, ma un’affermazione strategica che permette all’Italia di mantenere una flessibilità operativa in un ambito considerato di vitale interesse nazionale.
La legge valorizza l’IA come risorsa per rafforzare la cybersicurezza, autorizzando l’Agenzia per la Cybersicurezza Nazionale (ACN) a promuovere iniziative e partnership pubblico-private in tal senso. Questo approccio si inserisce nella visione di un’IA come tecnologia “dual-use” che, oltre a supportare l’innovazione civile, può contribuire in modo sostanziale alla protezione degli asset strategici del Paese.
2.5 Diritto d’Autore e Profili Penali
La legge affronta in modo proattivo questioni emergenti nel panorama tecnologico, come il diritto d’autore e i reati legati all’IA. In materia di copyright, il provvedimento sancisce che un’opera generata con l’ausilio dell’IA è protetta solo se è frutto di un “lavoro intellettuale umano”. Questa disposizione circoscrive la tutela del diritto d’autore alle creazioni che conservano un legame con l’ingegno e l’intento del loro autore, anche quando assistito da strumenti tecnologici.
Sul piano penale, la legge introduce modifiche al codice penale volte a contrastare l’uso illecito dell’IA. Sono previste aggravanti specifiche per reati commessi attraverso l’utilizzo di sistemi di IA e nuove fattispecie di reato per contrastare fenomeni come la manipolazione e la frode, compresa la diffusione illecita di contenuti generati o alterati, comunemente noti come
deepfake. Questo approccio dimostra la volontà del legislatore di reagire non solo alle direttive europee, ma anche a minacce concrete che la rapida evoluzione dell’IA ha portato alla ribalta.
3. Le Leve Economiche: Risorse, Sostegni e Incentivi
3.1 Il Fondo per l’IA: Dettagli e Destinazione degli Investimenti
Per supportare l’ecosistema dell’innovazione, il governo ha stanziato un miliardo di euro attraverso il Fondo di sostegno al venture capital. Il fondo, gestito da CDP Venture Capital, è destinato a supportare sia le piccole e medie imprese (PMI) che le grandi imprese che operano in settori strategici come l’IA, la cybersicurezza, le tecnologie quantistiche e le telecomunicazioni. L’obiettivo dichiarato è quello di rafforzare la filiera industriale e creare le condizioni per lo sviluppo di un “Made in Italy dell’AI,” competitivo e sicuro.
3.2 Sostegno alla Ricerca e alle Imprese
Oltre allo stanziamento principale, la legge prevede una serie di misure volte a stimolare l’adozione dell’IA e la ricerca collaborativa. Vengono menzionati contributi a fondo perduto, crediti d’imposta e sostegni alla formazione per le PMI. Tali misure sono destinate a finanziare l’acquisto di software basati su IA, la consulenza tecnica e la realizzazione di progetti pilota. Un’altra leva strategica è l’istituzione di “spazi di sperimentazione normativa” (
regulatory sandbox), che consentono alle imprese di testare soluzioni innovative in un ambiente controllato, in collaborazione con le autorità.
3.3 La Criticità delle Risorse Finanziarie
Nonostante l’annuncio dello stanziamento di un miliardo di euro, la legge contiene una “clausola di invarianza finanziaria,” che impone l’attuazione delle sue disposizioni con le risorse già disponibili nei bilanci esistenti delle amministrazioni pubbliche. Questa potenziale discrepanza tra un annuncio di investimento e la realtà normativa ha sollevato forti critiche da parte di esperti e associazioni di categoria. Il mondo produttivo, e in particolare Confindustria, ha sottolineato la carenza di fondi dedicati per l’attuazione di una vera e propria strategia industriale e per una governance efficace.
La clausola di invarianza finanziaria rappresenta un punto di contraddizione fondamentale. Un miliardo di euro sembra una cifra cospicua, ma se non si tratta di una risorsa aggiuntiva, la sua effettiva disponibilità e l’impatto reale rimangono incerti. Questo approccio solleva dubbi sulla serietà dell’impegno finanziario del governo per sostenere la trasformazione digitale. Senza risorse adeguate, le misure di formazione, le infrastrutture e gli incentivi rischiano di restare “sulla carta,” compromettendo la capacità dell’Italia di cogliere appieno le opportunità offerte dall’IA e di assumere un ruolo da protagonista nell’economia cognitiva. La legge, in questo senso, potrebbe configurarsi più come una “dichiarazione di intenti” che come un vero e proprio piano operativo.
Tabella 3: Struttura e Contenuto della Legge Italiana (D.D.L. n. 1146)
Capo | Articoli | Contenuto principale | Fonte |
I | 1-6 | Principi generali e finalità (approccio antropocentrico, privacy, sicurezza). | |
II | 7-18 | Disposizioni di settore (sanità, lavoro, giustizia, PA, professioni, cybersicurezza). | |
III | 19-24 | Strategia nazionale, Autorità nazionali e azioni di promozione. | |
IV | 25 | Tutela del diritto d’autore e degli utenti (opere d’ingegno, deepfake). | |
V | 26 | Disposizioni penali (introduzione di nuove fattispecie di reato). | |
VI | 27-28 | Disposizioni finanziarie e finali (clausola di invarianza finanziaria). |
4. Prospettive e Sfide Future: La Fase di Attuazione e Governance
4.1 La Governance e il Ruolo delle Autorità
La vera sfida per l’Italia inizia ora, con la fase di attuazione e di governance. Poiché il D.D.L. è una “legge delega,” spetta al Governo, entro un anno dalla sua entrata in vigore, emanare i decreti attuativi e le linee guida operative che tradurranno i principi in prassi concrete. Il successo di questo processo dipenderà dalla capacità di delineare una governance chiara e non burocratica, superando le criticità legate all’indipendenza delle autorità di vigilanza già sollevate dalla Commissione Europea. Il ruolo delle autorità nazionali sarà cruciale per monitorare i rischi, far rispettare la legge e gestire i
regulatory sandbox.
4.2 Le Reazioni degli Stakeholder
L’approvazione della legge è stata accolta con posizioni diverse. Il Sottosegretario all’Innovazione, Alessio Butti, ha commentato che il provvedimento “allinea l’Italia al quadro europeo” e offre un miliardo di investimenti al settore. Altre figure politiche hanno sottolineato l’importanza dell’introduzione del reato di deepfake come una misura fondamentale.
Tuttavia, il mondo economico e associazioni di categoria come Confindustria, pur apprezzando l’attenzione normativa, hanno sollevato forti dubbi sull’efficacia del provvedimento senza una strategia industriale e risorse dedicate. Le preoccupazioni si concentrano in particolare sulla “clausola di invarianza finanziaria,” vista come un limite strutturale che rischia di rendere le misure di sostegno inefficaci.
Dal punto di vista dell’opinione pubblica, un rapporto del luglio 2025 ha evidenziato che, nonostante l’aumento dell’utilizzo dell’IA nella vita quotidiana, la consapevolezza sui rischi resta limitata. Il 67% degli italiani teme per la propria sicurezza digitale, ma solo il 10% si sente in grado di riconoscere i rischi legati all’IA. Questo dato dimostra l’importanza delle disposizioni della legge che impongono obblighi di trasparenza e chiarezza informativa, come il dovere dei datori di lavoro di informare i dipendenti.
Conclusioni e Raccomandazioni Strategiche
L’approvazione della legge italiana sull’intelligenza artificiale rappresenta un momento di svolta strategico per il Paese. La scelta di adottare un quadro normativo che non si limita a recepire l’AI Act ma lo integra con disposizioni settoriali specifiche e con un forte orientamento etico “antropocentrico,” pone l’Italia in una posizione di avanguardia a livello europeo. L’attenzione a temi cruciali come la giustizia predittiva, la tutela del lavoro e la sicurezza nazionale dimostra una visione proattiva del legislatore di fronte alle sfide poste dalla trasformazione digitale.
Tuttavia, l’analisi evidenzia anche delle criticità che potrebbero comprometterne l’efficacia. La principale sfida risiede nel divario tra l’intenzione dichiarata e gli strumenti pratici di attuazione, in particolare per quanto riguarda l’indipendenza delle autorità di governance e le risorse finanziarie dedicate. La “clausola di invarianza finanziaria” pone un serio interrogativo sulla capacità del sistema-Paese di tradurre le norme in un impatto reale per imprese, ricerca e cittadini.
Per garantire che la legge diventi uno strumento operativo e non una semplice dichiarazione di intenti, si propongono le seguenti raccomandazioni:
- Per il Governo: È imperativo che i decreti attuativi siano definiti con rapidità e chiarezza, garantendo la piena indipendenza delle autorità di vigilanza in linea con i rilievi europei. È inoltre fondamentale che vengano individuati meccanismi di finanziamento che superino i limiti della clausola di invarianza, garantendo le risorse necessarie per la formazione, le infrastrutture e gli incentivi alle imprese.
- Per le Imprese: Le aziende dovrebbero cogliere le opportunità di finanziamento offerte dal Fondo per l’IA e partecipare attivamente agli spazi di sperimentazione normativa per accelerare l’innovazione in modo conforme alle nuove regole. La legge fornisce un quadro di certezza giuridica che può incentivare gli investimenti in un “Made in Italy dell’AI” sicuro e competitivo.
- Per la Società Civile: Le disposizioni sulla trasparenza e gli obblighi informativi sono una leva cruciale per aumentare la consapevolezza sui rischi e sui benefici dell’IA. Il monitoraggio civico e la collaborazione con le autorità saranno essenziali per garantire un’applicazione etica e responsabile della legge, trasformando i cittadini da “soggetti passivi” a “osservatori attivi” del cambiamento tecnologico in atto.
La legge italiana sull’IA è un passo necessario, ma il suo successo non è un dato di fatto. Dipende dalla capacità di superare le sfide attuative e di tradurre l’ambizione legislativa in un piano strategico concreto che renda l’IA uno strumento al servizio del lavoro, delle persone e dell’intero sistema-Paese.
Da informatico a cercatore di senso