Di Rocco Panetta
Alla fine, è arrivato il 30 ottobre il tanto atteso executive order di Biden sull’AI. E, per una simpatica coincidenza, arriva proprio in questi giorni in cui sono a Boston alla prima conferenza sulla AI governance di IAPP, l’associazione internazionale dei professionisti della privacy di cui sono country leader per l’Italia e che conta oltre 80.000 membri nel mondo.
AI Safety Summit LIVE: US Vice President Kamala Harris Speaks at the Global AI Safety Summit
La coincidenza è che, quando ad Aprile Biden organizzò una riunione urgente di gabinetto per capire il da farsi sulle generative AI, dopo il provvedimento del Garante nei confronti di OpenAI, ero a Washington, sul palco di IAPP, a parlarne con Brando Benifei, eurodeputato co-relatore dell’AI Act europeo, e il responsabile del White House Office of Science and Technology Policy, che dovette andare via prima proprio per partecipare a quella urgente e imprevista riunione.
Da allora, i due Paesi finora più restii a muoversi nel difficile settore della regolamentazione tecnologica, Stati Uniti e Regno Unito, sembra abbiano cambiato idea.
L’executive order di Biden nasconde una piacevole sorpresa
L’executive order non è particolarmente innovativo. Come può sembrare ovvio a chi si occupa di regolamentazione digitale da qualche tempo, richiede “che gli sviluppatori condividano i risultati dei loro test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti; che si sviluppino standard, strumenti e test per garantire che i sistemi di IA siano sicuri, protetti e affidabili; che l’AI sia usata con cautela quando utilizzata per progettare materiali biologici pericolosi; che sia stabilito un programma di cybersecurity avanzato per sviluppare strumenti di IA per trovare e correggere le vulnerabilità nei software critici”.
Continua a leggere su Agenda Digitale.