Sempre di più sono gli enti, sia pubblici che privati, che ricorrono all’intelligenza artificiale. La domanda che in molti ci stiamo ponendo è: quali sono i vantaggi e quali i rischi legati all’utilizzo dell’IA? Sicuramente sono moltissimi i vantaggi e molti i rischi! Uno dei più rilevante è che l’IA può agevolare la commissione di fatti penalmente rilevanti anche da parte delle società ai sensi del D.lgs 231/01.
La nuova disciplina dell’AI Act
Il legislatore europeo, con l’entrata in vigore dell’AI Act, ha introdotto un quadro normativo innovativo, basato su un approccio graduato al rischio. Tale impostazione prevede una classificazione dei sistemi di intelligenza artificiale in diverse categorie, partendo dal rischio inaccettabile, che ne comporta il divieto assoluto di utilizzo, per poi degradare verso il rischio alto e, infine, verso un livello di rischio più contenuto o limitato. Per prima cosa, quindi, le imprese dovranno eliminare l’utilizzo di AI a rischio inaccettabile (divieto in vigore già da febbraio 2025), mentre per i sistemi che qualificati “ad alto rischio” sarà necessario condurre una valutazione dell’impatto sui diritti fondamentali. Anche i sistemi a “rischio limitato”, seppur consentiti, comportano specifici obblighi di trasparenza: gli utenti dovranno essere informati qualora interagiscano con un sistema di IA o quando i loro comportamenti vengano riconosciuti attraverso strumenti automatizzati. La valutazione del rischio operata dall’AI Act, però, rappresenta, a parere di chi scrive, un elemento cruciale anche per la prevenzione di quei reati previsti dal D.lgs. 231/2001.
Sistemi di IA e abusi di mercato
Tra le varie tipologie di reati che possono essere agevolati dall’uso improprio dell’IA, quelli relativi la manipolazione di mercato e l’insider trading meritano particolare attenzione. Nello specifico, i sistemi di Natural Language Processing (NLP) possono essere impiegati per generare notizie finanziarie false incorporando dati macroeconomici plausibili estratti dal web, risultando difficilmente distinguibili da comunicazioni autentiche. Queste false informazioni, se diffuse strategicamente, possono alterare in modo significativo le decisioni degli investitori e, conseguentemente, i valori di mercato. Per quanto riguarda l’insider trading, i modelli di machine learning possono analizzare enormi quantità di dati per anticipare fluttuazioni di titoli quotati, potenzialmente intercettando segnali di mercato prima che diventino di dominio pubblico. Inoltre, è possibile che questi sistemi, se programmati semplicemente per massimizzare il profitto senza adeguate linee guida etiche, possano autonomamente scegliere di compiere operazioni che costituiscono reato, anche senza un’esplicita istruzione in tal senso da parte degli organi societari.
Una compliance integrata
Oltre a conformarsi all’AI Act, sarà fondamentale per le imprese procedere all’aggiornamento del proprio Modello 231 e del Codice Etico, mappando tutti i sistemi di IA utilizzati e intervenendo sui processi sensibili che la coinvolgono. In ultima analisi, è necessario che ogni ente adotti un modello organizzativo specifico per l’utilizzo responsabile dell’AI, che dovrà essere integrato con gli altri sistemi di compliance, tra cui lo stesso Modello 231, il codice etico e il modello organizzativo per la privacy. In questo contesto, il ruolo degli OdV, preposti al controllo del rispetto delle norme nell’ente, diventa ancora più cruciale: solo portando avanti un approccio di compliance proattiva e integrata, che coinvolga ogni flusso operativo dei processi aziendali, si potrà garantire che l’IA rimanga uno strumento di progresso e non diventi un facilitatore di abusi. Peraltro, l’annunciata riforma del D.lgs 231/01 si muove nella direzione di una necessaria integrazione, non solo tra i diversi modelli di compliance, ma anche con i sistemi di controllo interno. Tali modelli, da un lato, devono valutare i rischi connessi all’impiego dell’IA; dall’altro, possono valorizzarne le potenzialità per rendere più efficaci e tempestivi i controlli esterni.