La diffusione esponenziale delle tecniche di intelligenza artificiale generativa pone con urgenza il tema della definizione di principi etici da cui far scaturire vincoli di natura giuridica in grado di regolamentare un ambito che sta cambiando la nostra vita quotidiana e che influenzerà in modo sempre crescente la nostra vita lavorativa. A questo tipo di riflessione si sta dedicando padre Paolo Benanti, teologo francescano e studioso italiano, consigliere di papa Francesco su intelligenza artificiale, etica e tecnologia. Per fare tesoro delle tecnologie emergenti, infatti, è necessario che siano applicate in modo etico, rispettando la dignità umana e promuovendo il bene comune, sostiene Benanti nei suoi articoli su intelligenza artificiale, biotecnologie, robotica e impatto della digitalizzazione sulla società.
L’intelligenza artificiale
L’etica dell’intelligenza artificiale (Ia) si fonda su principi cruciali quali trasparenza, responsabilità, sicurezza ed equità. Questi principi sono essenziali per garantire che l’Ia sia sviluppata e utilizzata in modo da promuovere il benessere umano e rispettare i diritti fondamentali.
Un know-how scientifico
Benanti si sofferma spesso sul fatto che l’acquisizione di dati, seppur in grandi quantità, non sia sufficiente per prendere decisioni informate e corrette. È essenziale possedere una conoscenza scientifica approfondita che permetta di interpretare correttamente i dati, identificandone i limiti e le potenzialità. Senza questa base epistemologica, c’è il rischio che le decisioni vengano prese su basi inesatte o incomplete, con potenziali conseguenze disastrose. L’importanza di una formazione scientifica adeguata è cruciale per l’uso responsabile ed efficace dei dati.
La dipendenza da software
Un altro tema centrale riguarda la dipendenza crescente dal software proprietario. Spesso, infatti, acquistiamo l’hardware limitandoci ad acquisire in licenza il software necessario per farlo funzionare. Come nel caso delle auto Tesla. Quando si acquista la proprietà di queste auto elettriche, si sottoscrive un contratto di utilizzo del software necessario per farle funzionare, rinunciando all’effettivo controllo del proprio mezzo. Questo esempio solleva questioni importanti sulla sovranità tecnologica e sulla sicurezza. Per evitare di diventare dipendenti da fornitori esterni, Benanti suggerisce che la pubblica amministrazione e i settori strategici sviluppino soluzioni software in-house. Questo approccio garantirebbe, non solo il controllo sui propri dati, ma anche una maggiore sicurezza e autonomia operativa.
Dal mainframe al cloud
Mentre i mega computer, in passato, avevano imposto la centralizzazione del potere di calcolo, i personal computer hanno consentito il decentramento di tale funzione, per poi tornare a una nuova forma di centralizzazione con il cloud. Questa centralizzazione moderna, combinata con l’emergere dei modelli di intelligenza artificiale generativa, rappresenta una sfida significativa. La gestione del potere computazionale è cruciale per il futuro di democrazie e istituzioni. Benanti sostiene che, senza una gestione adeguata, il controllo potrebbe sfuggire dalle mani delle singole entità, rendendole dipendenti da fornitori esterni per l’accesso alle risorse computazionali necessarie.
Le sfide
Possiamo quindi concludere che le tre sfide sopra indicate sono fondamentali per garantire che l’uso dei dati e del potere computazionale rimanga sotto il controllo delle istituzioni e non finisca per servire interessi esterni o diventare uno strumento di oppressione. Perché le tecnologie siano al servizio dell’umanità e non viceversa è essenziale formare specialisti in grado di interpretare i dati con una base scientifica, evitando conclusioni errate; ridurre la dipendenza da software proprietario che può essere pericolosa e sviluppare soluzioni interne per garantisce autonomia e sicurezza; una gestione responsabile dei dati in cloud per evitare che il controllo sfugga alle istituzioni.