Written by 12:57 Agenda Digitale, Media

Regole AI, privacy: gli Stati Uniti si svegliano dal sonno

Settimana ricca per regole e intese internazionali sull’AI. C’è il decreto presidenziale del presidente americano Biden e la dichiarazione di 28 Paesi dal summit di Londra. Finalmente il mondo anglosassone capisce il valore delle regole per l’AI. E da qui anche la privacy avrà un’opportunità di fiorire.

Di Rocco Panetta

Alla fine, è arrivato il 30 ottobre il tanto atteso executive order di Biden sull’AI. E, per una simpatica coincidenza, arriva proprio in questi giorni in cui sono a Boston alla prima conferenza sulla AI governance di IAPP, l’associazione internazionale dei professionisti della privacy di cui sono country leader per l’Italia e che conta oltre 80.000 membri nel mondo.

AI Safety Summit LIVE: US Vice President Kamala Harris Speaks at the Global AI Safety Summit

La coincidenza è che, quando ad Aprile Biden organizzò una riunione urgente di gabinetto per capire il da farsi sulle generative AI, dopo il provvedimento del Garante nei confronti di OpenAI, ero a Washington, sul palco di IAPP, a parlarne con Brando Benifei, eurodeputato co-relatore dell’AI Act europeo, e il responsabile del White House Office of Science and Technology Policy, che dovette andare via prima proprio per partecipare a quella urgente e imprevista riunione.

Da allora, i due Paesi finora più restii a muoversi nel difficile settore della regolamentazione tecnologica, Stati Uniti e Regno Unito, sembra abbiano cambiato idea.

L’executive order di Biden nasconde una piacevole sorpresa

L’executive order non è particolarmente innovativo. Come può sembrare ovvio a chi si occupa di regolamentazione digitale da qualche tempo, richiede “che gli sviluppatori condividano i risultati dei loro test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti; che si sviluppino standard, strumenti e test per garantire che i sistemi di IA siano sicuri, protetti e affidabili; che l’AI sia usata con cautela quando utilizzata per progettare materiali biologici pericolosi; che sia stabilito un programma di cybersecurity avanzato per sviluppare strumenti di IA per trovare e correggere le vulnerabilità nei software critici”.


Continua a leggere su Agenda Digitale.

Close