(Adnkronos) – Anna Ascani, vice presidente della Camera e presidente del Comitato per la documentazione di Montecitorio che si è occupato in questi mesi di Intelligenza artificiale, dall’utilizzo della ‘AI’ derivano più rischi o più opportunità? “Le opportunità sono innumerevoli e inesplorate, potenzialmente l’AI può essere un supporto straordinario nella Sanità, per la tutela dell’ambiente, per le persone fragili. Ma comporta anche rischi inediti, che però per la prima volta sono abbastanza chiari alla quasi totalità dei decisori politici”, spiega all’Adnkronos Ascani, reduce da una missione negli Stati Uniti con incontri con Microsoft, AWS, Salesforce, OpenAI, Google, Meta tra gli altri.
A Londra si è appena chiuso l”AI safety summit’ con una dichiarazione sull’Intelligenza artificiale sicura sottoscritta dall’Ue ma anche da Usa e Cina, tra gli altri. Che giudizio si può dare? “Si tratta di un buonissimo primo passo. La partecipazione al summit non è stata limitata ai Paesi del G7, si andava oltre il fronte dei Paesi occidentali. Ora bisognerà vedere come i principi si traducono in regole. Non è semplice, i vari Paesi hanno sistemi molto diversi tra loro. Pensiamo alla Cina. Le conclusioni del summit fanno pensare a una intesa globale, è l’unica possibilità. Se le regole non sono globali non sono regole. Ma sono stati annunciati altri appuntamenti nel 2024, c’è da essere ottimisti”.
Lei è vice presidente della Camera, quali sono le risposte che il legislatore deve dare per regolare questo settore così innovativo? “Una questione, condivisa dalle grandi compagnie, è l’idea di ‘targhettare’ i contenuti con un ‘watermark’. Su questo c’è disponibilità. Però bisogna trovare lo standard per tutte le piattaforme, in modo che un contenuto prodotto con la AI sia riconosciuto come tale. Questo non è lontano da venire. Ci sono, invece, difficoltà sui dati, sulla trasparenza nella filiera dei dati. Il copyright europeo, per esempio, è più sensibile di quello di altre realtà. Altrove il tema è sentito molto meno. Bisogna trovare delle regole comuni anche sulla tutela delle persone”.
(Adnkronos) – Alla Camera dei deputati quali possono essere le applicazioni dell’Intelligenza artificiale? “Il Comitato ha portato avanti i lavori da aprile a ottobre, faremo un report tra fine 2023 e inizio 2024 nel quale raccoglieremo gli esiti delle audizioni e degli incontri avuti. Poi inizierà la fase 2, quella dell’utilizzo. La Camera già utilizza l’AI per i supporti stenografici ma l’AI generativa, come con Chat Gpt, è un’altra cosa sia in termini di opportunità che di rischi. Può facilitare i lavori parlamentari ma bisognerà valutare che tipo di tecnologia usare, sperimentare. Alcune istituzioni lo stanno già facendo, come il Congresso Usa. Dimostrare che la Camera non si occupa della parte ‘spaventosa’ ma delle opportunità della AI è un buon segnale della volontà di andare fino in fondo”.
Che elementi ha potuto raccogliere dagli incontri con aziende ed esperti avuti nella missione negli Stati Uniti del Comitato, che ha anche svolto un ciclo di audizioni in questi mesi? “C’è un tasso di consapevolezza molto più alto che in passato, mi riferisco all’inizio dei social media, quando era difficile parlare dei rischi. Stavolta tutti hanno molto chiaro che c’è anche una dimensione di rischio, sono disponibili a dialogare con i regolatori. Mi pare sia un atteggiamento molto positivo. Le indicazioni arrivate sono per regole chiare, ma c’è la volontà di supportare le istituzioni”.
E le istituzioni come si devono comportare di fronte all’Intelligenza artificiale? “Ci vogliono grande umiltà e capacità di ascolto, sia di specialisti e di tecnici ma anche di tutto quello che riguarda il risvolto etico. Bisogna fare un grande sforzo per regolare bene perchè regolare male significherebbe fare un grande danno. Credo che il percorso che abbiamo intrapreso, mettendoci all’ascolto per capire quale possa essere la strada migliore, sia l’atteggiamento corretto. Bisogna evitare, per arrivare primi, di commettere errori”.