Rocco Panetta all’Open Day del Master DPO dell’Università Suor Orsola Benincasa
25 Giugno 2024E-mail aziendali, i nuovi vincoli riguardano solo i metadati
1 Luglio 2024di Rocco Panetta e Vincenzo Tiani per Italian Tech
Si è tenuto da poco il G7 a guida italiana in Puglia e, immancabilmente, tra i tanti temi trattati non è mancato quello dell’intelligenza artificiale. È un gran bene che temi capitali come l’impatto dell’AI sulle nostre società, sui sistemi economici, ma soprattutto sui nostri diritti e libertà siano nell’agenda dei Grandi Paesi del pianeta e di questo Governo.
Con una punta di ironia, il più esoterico, e strategico, degli argomenti è stato oggetto proprio dell’intervento del Papa. Non è inusitato che in Italia la Chiesa abbia un ruolo di primaria importanza nella strategia nazionale sull’AI. Padre Paolo Benanti, teologo e professore universitario, oltre ad essere il consigliere del Papa su questi temi è anche Presidente del comitato di esperti del Governo che ha redatto la strategia nazionale sull’AI, nonché l’unico italiano membro del Comitato sull’intelligenza artificiale delle Nazioni Unite.
Il Papa al G7
Nel suo discorso, Papa Francesco ha fatto una disamina dell’enorme potenziale benefico e dei rischi dell’AI ricordando un punto che troppo spesso dimentichiamo quando parliamo di tecnologia. Solo in apparenza gli strumenti della tecnica sono neutri e dipendono dall’uso che se ne fa. “Solo se sarà garantita la loro vocazione al servizio dell’umano, gli strumenti tecnologici riveleranno non solo la grandezza e la dignità unica dell’essere umano, ma anche il mandato che quest’ultimo ha ricevuto di “coltivare e custodire” (cfr Gen 2,15) il pianeta e tutti i suoi abitanti. Parlare di tecnologia è parlare di cosa significhi essere umani e quindi di quella nostra unica condizione tra libertà e responsabilità, cioè vuol dire parlare di etica”. Il Papa ci ricorda che l’AI è uno strumento sui generis, su cui il controllo dell’uomo non è totale come avviene con un oggetto inanimato, ma può modificarsi in base alle istruzioni ricevute e al modo in cui è stata “allenata”. Francesco ha poi citato la minaccia delle armi letali autonome di cui si auspica il bando e ha ricordato che, come i tanti strumenti della tecnica inventati dall’uomo nel corso dei millenni, anche l’AI modellerà l’esistenza dell’essere umano che l’ha inventata.
Non solo, è sempre bene ricordare che se da un lato l’AI ci libererà, prima o poi, dai lavori più usuranti e migliorerà nettamente le nostre vite, potrebbe al contempo aumentare il distacco e la disparità tra quei Paesi che si possono permettere di adottarla e quelli in via di sviluppo che ne subiranno solo le conseguenze.
Si sono citati i possibili usi dell’intelligenza artificiale nella lotta al crimine, e nella sua prevenzione, evindenziando che non ci si deve far tentare dall’idea che l’algoritmo sia la miglior soluzione possibile per prevenire il crimine, perché “l’essere umano è sempre in evoluzione ed è capace di sorprendere con le sue azioni, cosa di cui la macchina non può tenere conto”. Potrebbe sembrare, infatti, che il risultato algoritmico possa essere più oggettivo di una valutazione umana. Tuttavia, ricorda Francesco, esso non è né oggettivo né neutrale in quanto “può esaminare solo realtà formalizzate in termini numerici”. Per questo le risposte delle AI generative non sono fonte di verità assoluta in quanto tendono a ripetere quanto trovano in rete, “dando loro una forma accattivante” e avendo dunque una funzione più rafforzativa che generativa, con il rischio di facilitare la diffusione di fake news.
Proprio perché nessuno strumento è dunque neutrale, per il Papa occorre tornare a concentrarsi sulla persona, offrendo una ispirazione etica alla progettazione dell’AI, dando “sostegno a quella forma di moderazione etica degli algoritmi e dei programmi di intelligenza artificiale […] chiamat[a] algoretica”.
Il Papa ha chiuso dunque il suo intervento con un appello perché la politica si ponga alla guida di questo processo di trasformazione, “coinvolgendo i più diversi settori e i più vari saperi”.
La politica e la partita dell’AI
Il Governo ha di recente approvato un disegno di legge sull’AI che in larga parte riprende i principi dell’AI Act e della necessità di mantenere l’essere umano al centro.
Di davvero rilevante si segnala la formalizzazione del ruolo affidato all’Agenzia per l’Italia Digitale (AgID) e all’Agenzia per la cybersicurezza nazionale (ACN) di autorità di controllo per il rispetto dell’AI Act. In particolare, l’AgID sarà responsabile della promozione dell’innovazione e dello sviluppo dell’IA e della definizione delle procedure, dell’esercizio delle funzioni e dei compiti di notifica, valutazione, accreditamento e monitoraggio degli enti incaricati di verificare la conformità dei sistemi di IA. L’ACN, invece, sarà responsabile della supervisione, comprese le attività ispettive e sanzionatorie, dei sistemi di IA.
L’AgID e l’ACN istituiranno e gestiranno congiuntamente sandbox “finalizzate all’implementazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione Europea, sentito il Ministero della Difesa per gli aspetti relativi ai sistemi di intelligenza artificiale utilizzabili in modo duale“. Le competenze, i compiti e i poteri del Garante per la protezione dei dati personali rimangono inalterati e sappiamo essere tanti e capaci di incidere e molto in questo settore, come le vicende di OpenAI e Replika hanno dimostrato. Sul punto, sarà interessante vedere come gli Stati membri si organizzeranno per applicare la legge sull’IA e come verranno agevolati i rapporti tra le autorità a livello nazionale ed europeo.
Intanto AgID ha pubblicato la propria strategia sull’AI per il triennio 2024-2026. L’Italia punta a investimenti sulla ricerca con progetti interdisciplinari, per trattenere e attirare talenti, necessario per restare competitivi. Si vuole poi adottare l’AI nella pubblica amministrazione per aumentare l’efficienza e la gestione delle risorse pubbliche; sostenere le imprese che vogliono sviluppare o adottare l’AI, attraendo fondi pubblici e privati; creare una infrastruttura che permetta di condividere potenza computazionale ed accesso ai big data necessari per il training dell’AI.
Il G7 dei Garanti privacy a Roma ad ottobre
Infine, ad ottobre si terrà a Roma il G7 dei Garanti dei dati, sotto la guida dell’Autorità italiana, proprio sul tema dell’AI. Sarà un’occasione di confronto sulle tante sfide che le autorità dovranno affrontare, prima di tutte l’evoluzione del proprio ruolo nell’avere a che fare con una nuova tecnologia che costituisce un vero e proprio cambio di paradigma per cui l’integrazione dei principi della protezione dei dati non sempre risulta facile da implementare tecnicamente. Dovranno poi trovare un modo di coordinarsi con le altre Autorità indipendenti (moltissime se si tratta di Paesi dell’Unione europea) perché l’AI non è un settore verticale, ma una tecnologia che sarà sempre più usata in moltissimi settori. Da ultimo, il divario di conoscenza tra Autorità e aziende potrebbe allargarsi notevolmente se i governi non stanzieranno al più presto risorse umane e finanziarie adeguate per affrontare questa nuova sfida.