La questione è anzitutto etica e culturale. Ne è convinto Giuseppe Cannella, avvocato che coniuga la competenza giudiziale ad una significativa esperienza maturata in materia di compliance, con particolare focus sulla privacy e sulle nuove tecnologie, nell’analizzare gli sforzi che tanto l’Italia quanto l’Europa stanno mettendo in campo per regolamentare l’utilizzo dell’intelligenza artificiale.
Avvocato, la diffusione dell’intelligenza artificiale impone un aggiornamento delle normative. L’Europa ci sta provando attraverso un sistema denominato risk-based approach. Di cosa si tratta?
«È basato sulla stima dei rischi relativi a una determinata attività d’impresa e non è una novità nel panorama normativo. Io che mi occupo di compliance, ho iniziato a ragionare in tal senso all’inizio degli anni 2000, quando il Legislatore ha deciso di introdurre la responsabilità da reato degli enti, ovvero il D.Lgs. 231 del 2001. La gestione del rischio (c.d. Risk Management) ha come condizione l’individuazione di tutte le fonti di rischio legate all’attività d’impresa, e come obiettivo la valutazione di queste aree di modo da poterle trattare e gestire attraverso gli strumenti più consoni. Questo approccio è stato ritenuto consono, efficace e quindi è stato adottato anche dal Regolatore europeo nel Gdpr e più recentemente nel Digital Services Act, concernente i servizi digitali. Il passaggio che l’Europa sta tentando di fare, ora, con il nuovo Ai Act è da una logica bottom-up a una top-down. Nell’Ia Act, infatti, l’individuazione delle categorie di rischio – che sono 4, ovvero: inaccettabile, alto, limitato e minimo – e i relativi meccanismi di mitigazione non sono più affidati alla discrezione e alla valutazione dei destinatari del regolamento bensì sulla base di un automatismo imposto dal regolatore stesso».
Perché le attuali leggi non riescono a limitare gli effetti dannosi dell’Ia, ad esempio la violazione del diritto d’autore?
«Forse detto in questi termini è fuorviante. È chiaro che l’uso di questi sistemi comporta alcuni effetti collaterali, pertanto i primi a dover adottare un approccio risk-based siamo proprio noi fruitori. Visto che è stato citato il diritto d’autore volevo specificare che l’intelligenza artificiale fa uso del web scraping, una tecnica di estrazione di dati dalle pagine web poi raccolti in database, quindi partendo dalla creazione di un set di dati quantitativamente enormi, l’Ia permette di creare immagini, musiche, testi e vocalizzazioni in base alle diverse esigenze. Questo chiaramente ha portato vari artisti a lamentare la violazione dei loro diritti».
Un esempio?
«Getty Images, nota agenzia fotografica internazionale, ha accusato un’azienda che usa Ia di aver usato un dato strumento di generazione delle immagini per copiare ed elaborare illegalmente milioni di immagini protette da copyright. Sarà importante monitorare queste prime pronunce giurisprudenziali».
Una delle questioni principali riguarda la privacy. Dobbiamo rassegnarci a un mondo in cui i dati sensibili sono a disposizione di tutti?
«No, non credo. Innanzitutto c’è da dire che la tutela dei dati personali non si risolve solo in una questione normativa. Le aziende (in primis) dovranno adeguarsi rapidissimamente ma soprattutto diffondere una cultura di allineamento alla normativa privacy. Dipendenti, lavoratori, collaboratori, tirocinanti ecc. dovranno essere resi consapevoli dei dati gestiti e dei rischi intrinseci. È indispensabile, poi, che le aziende siano affiancate da esperti qualificati del settore, di modo da implementare informative sempre più trasparenti e procedure idonee per consentire all’interessato di esercitare i propri diritti. Sbrogliare la matassa sarà un compito per niente semplice, però si parte già da buonissime basi. Il Gdpr rappresenta uno standard elevato, il compito del legislatore sarà quello di integrare bene i vuoti normativi con il nuovo regolamento. Io mi aspetto che con le consultazioni in atto si riesca a integrare la bozza sia con una protezione dei dati by design, sia con uno strumento di tutela dei diritti dei fruitori, simile a quanto indicato dall’art. 22 Gdpr. Però, come dicevo prima, non si può pensare che la normativa estinguerà i rischi. È una questione eminentemente culturale ed etica, qui sta la vera sfida».
Tra i primi paesi ad avere una legge sull’ia sarà la Cina, a partire dal prossimo 15 agosto. In che modo pensano di tutelare la proprietà intellettuale?
«Sì, la Cina sarà la prima, non che si tratti di una gara, però dal mese prossimo entrerà in vigore la nuova normativa e sarà interessante osservarne il funzionamento. La Cina intende – così dice il regolamento – promuovere l’utilizzo dell’Ia generativa – si badi – l’unica ad essere regolata. Il nostro Ai Act regolerà tutte le intelligenze artificiali. Dal complesso tenore testuale del testo legislativo, si riesce a cogliere una specifica ratio di intervento, ossia la volontà di tenere sotto controllo le effettive prospettive di sviluppo dell’innovazione tecnologica con una rigida supervisione operativa sulla implementazione dei sistemi di Ia generativa – senza tuttavia vietarne l’utilizzo – nell’ottica di evitare che il relativo funzionamento tecnico possa in qualche modo compromettere la salvaguardia dell’ordine pubblico interno e la sicurezza nazionale del Paese nonché alimentare rovesciamenti del sistema socialista e dell’unità nazionale».
“Abbiamo bisogno di una intelligenza artificiale di cui poterci fidare”, ha affermato Margrethe Vestager, commissaria Ue alla concorrenza. Quali sono, secondo lei, i rischi maggiori che sta correndo l’umanità?
«Credo che la frase in questione debba essere letta come un auspicio di predisporre un regolamento capace di stare al passo con il progresso tecnologico, incredibilmente rapido, non un documento – mi si passi il termine – “già vecchio”. Passando al tema dei rischi, v’è da dire che sicuramente ce ne sono tantissimi, fare un elenco sarebbe riduttivo; la mia riflessione si concentra più che altro sull’orientamento, sulla cultura, sulle abitudini odierne, soprattutto dei giovani. Lì si annidano i rischi che, chiaramente, dipendono anche dal livello effettivo di pervasività di questi strumenti nelle nostre vite. Però, attenzione: anche non usare l’intelligenza artificiale in tutto il suo potenziale ha dei rischi! Per dirne alcuni: perdita del vantaggio competitivo rispetto ad altre regioni del mondo, stagnazione economica, meno opportunità per tutti».
Cosa può fare oggi una persona che vede violato un proprio diritto tramite l’Ia, penso ad esempio all’utilizzo modificato di una propria fotografia personale?
«Come ho già detto al momento la più grande arma per combattere i rischi dell’Ia è la prevenzione. Chiaramente un ruolo importante giocherà il Regolamento dell’Unione europea, che dovrebbe entrare in vigore nel corso del 2024. Ciò non toglie che in alcuni casi le regole già presenti nel nostro sistema sono esaustive nella distribuzione della responsabilità».
Consulta, si accelera per il voto: Francesco Paolo Sisto rimane tra i nomi in pole
Di Flavia Di Maio25 Novembre 2024