Germana Lo Sapio è una giurista con una carriera diversificata che include esperienze come giudice amministrativo, penale e civile, giurista d’impresa e consigliere giuridico ministeriale. La sua passione per l’impatto del digitale affonda le radici nella prima esperienza lavorativa. Il suo percorso le ha permesso di approfondire le sfide normative legate allo sviluppo delle tecnologie innovative e dell’intelligenza artificiale.
Se dovesse indicare le priorità fondamentali, a livello di policy-making, nell’affrontare la sfida dell’intelligenza artificiale in Italia, da quali inizierebbe?
L’AI è una tecnologia digitale complessa, è nata nei laboratori di ricerca ma ha risvolti applicativi concreti in tutti i settori. Occorrerebbe concentrarsi su entrambi questi profili: incentivare le quote – ancora basse in Italia – dei laureati STEM, sostenendo la ricerca scientifica, ma attivando collaborazioni con le MPI che sono l’ossatura dell’economia italiana. Occorre fare rete, tra impresa, università, laboratori di ricerca, poli di eccellenza. Creare delle AI Valley in zone che magari hanno anche potenzialità turistiche inesplorate.
Molti osservatori stanno ponendo l’accento sulla eXplainable AI. Ritiene anche lei che questo tipo di approccio possa limitare l’effetto “black-box” aumentando la consapevolezza umana di ciò che avviene all’interno di una elaborazione algoritmica?
La ricerca di XAI dovrebbe controbilanciare il fenomeno della black box, che effettivamente rischia di limitare l’uso e quindi i benefici dell’AI soprattutto in settori della pubblica amministrazione in cui sono in gioco diritti fondamentali: istruzione, sanità, giustizia. Qui non conta solo cosa, ma anche come. E senza comprensione e spiegazione di come sulla base dei dati si arrivi a certi risultati, non ci può essere tutela. Bisogna però trovare un equilibrio, un trade-off tra efficienza e spiegabilita. D’altra parte anche per le decisioni umane, non si pretende di conoscere nel dettaglio tutti i passaggi sinaptici che fanno i cervelli. Basta una spiegazione che sia ragionevole e verificabile, magari con l’ausilio dei Large Language Model addestrati per gli specifici domini.
Un utilizzo combinato di AI e Blockchain potrebbe, a suo avviso, limitare l’uso indiscriminato delle tecnologie intelligenti?
La combinazione tra tecnologie digitali fa parte del loro DNA. Sono destinate ad arricchirsi reciprocamente. La stessa AI viene utilizzata per aumentare le prestazioni dei sistemi di AI. Si propagano così, innovazioni a catena, basti pensare a tutto il campo crescente della biotecnologia potenziata da AI che promette di dare risposte a malattie ancora incurabili ma solleva anche questioni etiche e, per alcuni, esistenziale su come sarà un ‘essere umano’ potenziato da AI. L’uso indiscriminato non credo possa dipendere dalla combinazione in astratto di tecnologie, ma da come i sistemi vengono progettati, addestrati su quali dati, sviluppati, applicati nei contesti specifici e per quali scopi, benefici o meno. Conta forse di più come si combinano in concreto le competenze diverse nel rapporto uomo-macchina e i ruoli che ciascuno ha lungo tutto il ciclo di vita dei sistemi di AI.
Ritiene possibile una “P.A. aumentata” che punti essenzialmente al potenziamento dei servizi e processi della PA attraverso le prerogative offerta dall’AI, anziché la mera sostituzione di forza lavoro umana con le macchine?
Non solo possibile, auspicabile. C’è ancora molto spazio di miglioramento nella progettazione ed erogazione dei servizi e delle prestazioni, anche nella loro personalizzazione, prima che possa temersi una sostituzione della forza lavoro nella pubblica amministrazione. Bisognerebbe però partire da una effettiva analisi del fabbisogno, orientando i processi mettendosi nell’ottica dei cittadini e non in quella di dover inseguire la tecnologia magari più innovativa: occorre riflettere su dove utilizzarla, per quali obiettivi, come adattare l’organizzazione, come garantire il monitoraggio continuo, come evitare o mitigare i rischi? Soprattutto come formare adeguatamente i dipendenti che devono sentirsi ‘assistiti’ non sostituiti. Accompagnare la rivoluzione digitale nella pubblica amministrazione è la sfida più difficile dei prossimi anni, sapendo che la resistenza al cambiamento è uno dei bias naturali degli esseri umani. Ci sono molto progetti già oggi. Forse occorrerebbe condividerne anche le criticità tra tutte le PA, perché siamo ancora in una fase sperimentale. Questo è l’anno zero, ma correrà veloce.
L’AI sta polarizzando l’attenzione pubblica ma in molti contesti sociali e lavorativi il digital divide è ancora forte. Stiamo rischiando forse di alimentare un ulteriore scollamento tra le fasce sociali? Come faremo a garantire una transizione realmente inclusiva e sostenibile?
Il digital divide rischia di aumentare, non solo tra fasce sociali, ma anche tra zone territoriali, o tra le stesse pubbliche amministrazioni. La formazione è una risorsa chiave, si parla sempre più di AI Literacy in tutte le strutture organizzative, scuole comprese. È necessario acquisire da parte di tutti la consapevolezza che la diffusione di tecnologie con ‘un certo livello di autonomia’ cambia il modo di lavorare, di relazionarsi, di produrre, cambia l’ambiente in cui viviamo. Ma offre anche grandi opportunità di inclusione: ad esempio i Large Language Model (di cui ChatGPT è solo l’esempio più noto) possono rendere più facilmente comprensibili o tradurre in diverse lingue le decisioni amministrative o creare applicazioni di supporto per i bambini disabili nelle scuole. È sempre una questione di governance, di direzione, che spettano (ancora) agli human being e non ad AI.