Nelle ultime settimane si è parlato molto del nuovo disegno di legge sull’intelligenza artificiale approvato dal Senato. Ma cosa prevede esattamente questo testo? E soprattutto: è davvero allineato con quanto deciso a livello europeo? La risposta è più complessa di quanto sembri, e merita di essere raccontata con chiarezza. Il disegno di legge sull’intelligenza artificiale (ddl AI), così è stato ribattezzato, è il primo tentativo del legislatore italiano di affrontare in modo sistematico il tema dell’intelligenza artificiale. Nasce con l’obiettivo di “rafforzare la tutela” dei cittadini nei confronti di un uso sempre più pervasivo dell’AI, integrando le regole fissate dal recente AI Act dell’Unione europea, approvato ufficialmente a inizio 2024. Il disegno di legge si articola in quattro parti. La prima stabilisce i principi guida e la strategia nazionale sull’AI. La seconda contiene una serie di disposizioni specifiche per settori sensibili: sanità, giustizia, lavoro, pubblica amministrazione, sicurezza nazionale e diritto d’autore. Si tratta di ambiti in cui l’utilizzo dell’intelligenza artificiale può incidere profondamente sui diritti delle persone, e dove il Governo ha scelto di introdurre obblighi più stringenti in termini di trasparenza, tracciabilità e tutela degli utenti. Nella terza parte del testo si affronta il tema della governance, cioè chi controllerà davvero l’attuazione delle nuove regole.
Il ddl indica due soggetti: l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN). Infine, la quarta parte introduce nuove norme penali, con aggravanti per i reati commessi con l’aiuto dell’AI e una nuova figura di reato dedicata alla diffusione illecita dei cosiddetti deepfake. In linea generale il testo è coerente con lo spirito dell’AI Act europeo, che punta a creare un sistema comune di regole per garantire che l’intelligenza artificiale sia “affidabile, sicura e rispettosa dei diritti fondamentali”. Ma non tutto torna. Come già messo in luce dalla Commissione Europea, il ddl italiano, così come già avvenuto per la disciplina sulla privacy, prevede un eccesso di obblighi imposti a categorie come medici, avvocati o magistrati, che rischiano di subire un sovraccarico normativo rispetto a quanto previsto dall’AI Act. Fissare regole rigide ed obblighi stringenti su una materia in continua evoluzione con l’AI non è solo sbagliato ma può, a lungo andare, rivelarsi dannoso. Per questo altri Paesi hanno preferito integrare la normativa con linee guida e stimolato l’adozione di codici etici da parte degli sviluppatori e degli utilizzatori. Anche la scelta di attribuire a due agenzie governative (Agenzia per l’Italia Digitale (AgID) Agenzia per la Cybersicurezza Nazionale (ACN)) i poteri di controllo non rispetta il modello europeo che chiede che le autorità di controllo siano indipendenti dal potere politico.
Il ddl italiano ha anche introdotto elementi non previsti dall’AI Act, come la dimensione penale e la delega al governo per disciplinare l’uso di dati e algoritmi nell’addestramento dei sistemi di AI. Scelte che potrebbero rivelarsi utili, ma che richiedono grande attenzione per evitare incoerenze con il quadro europeo. Intanto, sullo sfondo, rimangono aperte le grandi questioni etiche. Chi è responsabile se un algoritmo sbaglia? Quanto possiamo fidarci di decisioni automatizzate? Come evitare che pregiudizi umani vengano trasferiti nei sistemi digitali?
Nel percorso parlamentare c’è ancora tempo per correggere il tiro, migliorando il testo. L’AI è una delle grandi sfide del nostro tempo: servono regole chiare, istituzioni forti e una visione lungimirante. Non possiamo permetterci di affrontarla con leggerezza.
Bentornato,
Registratiaccedi al tuo account
Tutte le news di Puglia e Basilicata a portata di click!