Written by 17:25 Media, Wired Italia

Il controllo delle chat per fermare gli abusi sui bambini è una battaglia rischiosa per l’Europa

Con l’obiettivo di stroncare la diffusione di materiale pedopornografico, la Commissione europea mette in discussione la cifratura delle conversazioni e rischia di comprometterne la sicurezza.

wired_post

di Vincenzo Tiani

L’ 11 maggio la Commissione europea ha presentato la sua proposta di regolamento per combattere la diffusione di materiale online relativo agli abusi sessuali di minori (Csam, child sexual abuse material) conosciuta dagli addetti ai lavori anche come ChatControl.

I dati sul fenomeno

Come spiegato anche in conferenza stampa dalla Commissaria europea per gli Affari Interni Ylva Johansson, al momento l’individuazione di tale materiale viene fatto dalle piattaforme in modo del tutto volontario e nel 95% dei casi le segnalazioni vengono dalla sola Facebook, la più attiva nel settore. Proprio per questo, quando nel 2019 Zuckerberg annunciò l’intenzione di passare alla cifratura di default anche per Messenger, i governi inviarono una lettera all’ad di Meta per chiedere di non farlo, adducendo come motivazioni che questo avrebbe impedito alle forze dell’ordine di perseguire i crimini. Da sempre infatti terrorismo e tutela dei minori sono i cavalli di battaglia usati da governi e forze dell’ordine per combattere l’adozione della cifratura dei messaggi continuando a proporre la scelta tra privacy e sicurezza.

Ciò non vuol dire che il fenomeno non esista o che non si debba tener conto dei dati: 85 milioni di immagini pedopornografiche scambiate nel mondo nel solo 2021. La Commissaria Johansson ha spiegato che il fenomeno ha registrato una crescita del 64% rispetto al 2020 perché molte delle piattaforme usate per lo scambio di queste immagini richiedono per l’accesso che l’utente ne fornisca di nuove, con un conseguente incentivo a perpetrare nuovi reati.Cosa propone il testo legislativo

La Commissione propone dunque di creare un Centro europeo sull’abuso dei minori che faccia da centrale di coordinamento tra piattaforme e autorità e aiuti le piattaforme a identificare quei contenuti che sono da considerare illegali.

Sul modello del Digital Services Act, i servizi di comunicazione (come i Social o WhatsApp) e gli host provider (come Amazon Web Services che fornisce i server che ospitano i siti che navighiamo) dovranno fare un risk assessment, ovvero dovranno valutare quale sia il rischio che i loro servizi siano usati per lo scambio di questo materiale e dovranno presentare e mettere in atto le misure necessarie per mitigare quel rischio. Questi report saranno valutati da una autorità designata da ciascun Stato membro che, qualora dovesse rilevare la persistenza del rischio nonostante le misure prese, potrà chiedere ad una autorità terza o ad un giudice di emanare un ordine di individuazione di specifici contenuti in un limitato periodo di tempo.

Continua a leggere su Wired Italia

Close