Turing, nel 1950, pubblica “Computing machinery and intelligence” con una domanda: le macchine possono pensare? Trent’anni dopo le macchine non solo pensano, ma hanno sentimenti e «chiedono vita» e ci si rende conto che «non era previsto che i replicanti avessero sentimenti, e non era previsto neanche che ci fossero i cacciatori di replicanti», ma siamo nel mondo cinematografico di Blade Runner (1982). Il mondo reale in questi anni era ancora fermo alle scene offerte dal cinema e riusciva a esprimere in questo campo, tra le cose più interessanti, Wabot-2, un robot (scarsamente) umanoide in grado di suonare strumenti.
Intelligenza artificiale e umana
Riflettendo su questi temi con Don Giulio Dellavite, mi propone una visione che ho apprezzato: l’IA è il punto di incontro tra l’Artificiale, la macchina, e l’intelligenza, quella umana, ossia dell’uomo che l’ha creata e la usa. La sfida è avere equilibrio tra questi due poli. L’IA oggi è la sintesi del dialogo tra uomo e macchina e la relazione tra IA e Io Algoritmo (IoA) è sempre più vicina. Questo ci porta con la memoria a Io Robot, di Isaac Asimov, e alle sue leggi sulla robotica. Oggi vediamo applicazioni molto diffuse di questa tecnologia in ogni campo: chatbot in grado di imitare magnificamente una conversazione uomo-uomo, in campo sanitario per la diagnostica e le operazioni, per la creazione di contenuti digitali, veicoli a guida autonoma. L’uso della IA, come ogni altra tecnologia a cui affidiamo i nostri dati, dev’essere gestita, soprattutto se a questa affidiamo la possibilità di “automatizzare processi e fare delle scelte”.
I diritti fondamentali
Si apre a questo punto una questione non banale di tutela dei diritti fondamentali. Ma in caso di errore della IA, chi è responsabile? Da febbraio sono in vigore le prime disposizioni dell’AI Act (Regolamento Ue 2024/1689), che vuole introdurre un quadro di norme e principi per l’uso delle tecnologie basate sull’AI in Europa. L’obiettivo principale del regolamento è garantire un mercato più efficiente e sicuro per lo sviluppo, la commercializzazione, l’implementazione e l’utilizzo dei sistemi di IA. L’iniziativa InvestAI lanciata dalla presidente della Commissione Europea, Ursula von der Leyen, vuole mobilitare 200 miliardi di euro per investimenti nell’IA in Europa, con un fondo Ue da 20 miliardi. Numeri non significativi rispetto a quelli messi in campo dagli Usa e dalla Cina, ma comunque interessanti. Sarà da comprendere, però, se questi interventi ci permetteranno di raccogliere le opportunità di un mercato stimato con valori tra i 2-4 trilioni di dollari nei prossimi 10 anni.
Questa crescente attenzione ha generato una grande produzione di modelli e linee guida ed una diversità di approcci. Non citare il documento in consultazione pubblica “Bozza di linee guida per l’adozione di Intelligenza Artificiale nella pubblica amministrazione” di AgID. Ma cosa si deve fare ora? Prima di tutto verifichiamo dove utilizziamo, o vogliamo utilizzare, la tecnologia IA e a quale livello di rischio si colloca il nostro utilizzo rispetto a quelli previsti dalla IA Act (inaccettabile, alto, limitato o basso), facciamo la necessaria formazione e adottiamo un modello interno per la gestione del ciclo di vita dei servizi basati su IA. L’analisi dei rischi è ancora una volta il punto di partenza.
Una piattaforma matura come RiskDIVE può essere la soluzione per non avventurarsi in modelli troppo complessi da utilizzare e manutenere. Il punto è gestire in modo semplice ma accurato il processo di analisi dei rischi, comprese le (nuove) specifiche minacce dell’IA. Non dimentichiamo in ultimo le relazioni naturali con altre compliance, come ad esempio il Gdpr. Questo induce a dover avere un approccio “multi-rischio e multi-compliance”. In organizzazioni articolate questo aspetto può diventare facilmente un elemento di complessità. Sicuramente avremo molti altri aggiornamenti nei prossimi mesi, a partire dalla definizione di una Autorità nazionale di vigilanza indipendente e imparziale.