Attenzione! Questo articolo è stato scritto più di un anno fa!
!
Esclusiva

Maggio 4 2022.
 
Ultimo aggiornamento: Maggio 8 2022
Il Digital Services Act detta le regole alle Big Tech e alla disinformazione

L’accordo trovato tra Parlamento e Consiglio UE è la prima legge che impone un controllo esterno sui contenuti all’interno delle piattaforme digitali

Controllare la disinformazione, rendere trasparenti gli algoritmi delle piattaforme digitali come Meta-Facebook, Twitter, Google, Apple e Amazon, Instagram, evitare che le pubblicità occulte discriminino per razzismo, sessismo, identità o politica: il 23 aprile rimarrà una data storica per l’Unione Europea, con l’approvazione del rivoluzionario Digital Services Act. Dopo mesi di discussione è arrivato l’accordo tra Parlamento e Consiglio sulla normativa europea per regolamentare le Big Tech sul territorio dell’Unione. La bozza, in fase di definizione tecnica, verrà approvata a breve, per entrare in vigore nel 2024. Funzionerà come una legge che non andrà approvata dai singoli Stati, ma tutti saranno tenuti a rispettarla. L’obiettivo è facilitare l’individuazione e la rimozione di contenuti illegali o ingannevoli, in particolare sulle piattaforme con più di 45 milioni di utenti nell’Unione.

«Il Digital Services Act riesce dove anche gli Stati Uniti avevano fallito», afferma Costanza Sciubba Caniglia, Direttore dell’Istituto di Geopolitica Digitale, spiegando che la portata della normativa Europea supera di gran lunga i regolamenti parziali varati in altri Stati, come il Canada, in cui il governo attua un controllo sulle pubblicità elettorali, ma solo durante il periodo delle elezioni. Proprio per questo il DSA potrebbe diventare un modello per provvedimenti simili nel resto del mondo.

«Questo accordo rappresenta un cambio di paradigma perché fino a cinque anni fa neanche si pensava a regolare le piattaforme», spiega Irene Pasquetto, docente di Etica delle Tecnologie dell’Informazione all’Università del Michigan. L’effetto della normativa più immediato riguarderà la crescente diffusione dei messaggi d’odio sui social, che al momento è lasciata quasi per intero ai regolamenti interni delle singole aziende. Il Digital Services Act offrirà invece un primo quadro di riferimento chiaro e univoco a cui tutti dovranno fare riferimento, pur con le difficoltà che derivano dal concepire una cornice che tenga in conto le diverse legislazioni nazionali. A differenza di quanto accaduto finora, le piattaforme saranno responsabili in prima persona delle informazioni che diffondono e anche i motori di ricerca «dovrebbero avere l’obbligo di rimuovere i risultati che conducono a contenuti illegali». Dovranno quindi rendere più trasparenti gli algoritmi di raccomandazione e le procedure per la raccolta dei dati sugli utenti, su cui si basano i propri servizi e le scelte di marketing. Il DSA agisce infatti sulle strategie di marketing, puntando non solo a ottenere annunci più veritieri, ma anche meno invasivi, dal momento che le aziende non avranno più la possibilità di sviluppare messaggi pubblicitari rivolti ai minorenni né sfruttare in questo campo profilazioni che prendano in considerazione il sesso e l’etnia dei clienti.

Nonostante il DSA rappresenti «un progresso importantissimo», non è privo di limiti. «La cosa che ritengo più grave», continua Pasquetto, «è che non contenga nessun riferimento al revenge porn, un fenomeno che è invece in continua crescita e sfrutta anche gli ultimi progressi della tecnica. Basti pensare che circa il 95 per cento dei deep fake che circolano su internet riguardano proprio questo campo».

Leggi anche: Il virus della guerra: Microsoft vs gli hacker di Putin

L’altro limite è ciò che il documento si propone di fare in concreto per contrastare la disinformazione, che pure è uno degli obiettivi principali. «Si tratta di un ambito molto più difficile da regolamentare» e non è chiaro come l’Unione intenda agire sui gruppi che creano e diffondo notizie false. Sarà più facile imporre alle piattaforme di impiegare algoritmi di raccomandazione che non continuino a suggerire a catena contenuti fuorvianti. «Questo significa però che questi ultimi saranno soltanto più difficili da trovare, senza però essere eleminati. In questo campo il DSA non risolve il problema alla radice, ma è comunque un ottimo primo passo». Se da questo punto di vista l’efficacia del provvedimento resta incompleta, si tratta però di un limite volto a far sì che il controllo non si trasformi mai in censura.

Il vero interrogativo resta invece se le piattaforme coinvolte saranno disposte a effettuare gli investimenti richiesti per mettere in pratica le nuove norme e a condividere i dati. «Potrebbe accadere che cerchino scorciatoie, limitandosi a fare il minimo indispensabile», spiega Sciubba Caniglia, «ma potrebbe anche non essere così. Dovremo aspettare che il DSA entri in vigore». Le aziende dovranno produrre un report annuale in cui viene valutato se sulle proprie piattaforme ci sia il rischio che vengano condivise informazioni pericolose o fuorvianti. «Ma non è chiaro se in questo provvedimento siano incluse anche le app di messaggistica, come WhatsApp e Messenger, su cui questi contenuti sono più difficili da intercettare». La condivisione e la trasparenza dei dati è necessaria affinché le autorità competenti possano verificare che le Big Tech stiano effettivamente agendo nel rispetto del DSA. «Non è possibile che le piattaforme si rifiutino di condividere le informazioni perché, come detto, stiamo parlando di una vera e propria legge», dice Virginia Padovese, Vice President Partnerships per l’Europa NewsGuard, azienda che verifica l’affidabilità delle fonti di informazione online. «Per chi viene meno agli obblighi è prevista anche una serie di sanzioni che possono arrivare fino all’espulsione dal territorio Europeo». Uno scenario ritenuto però poco probabile perché non converrebbe a nessuna delle due parti in causa.

La cosa chiara è che questo accordo segna l’inizio di una nuova era di regolamentazione delle piattaforme. Ma visto che permangono delle zone d’ombra il principale strumento di difesa a disposizione degli utenti e quello di effettuare sempre una navigazione consapevole e informata. «Nessuna legge può sostituire l’importanza della media literacy», conclude Virginia Padovese. «Ed è proprio per questo motivo che a NewsGuard continueremo a lavorare per offrire ai lettori strumenti per valutare l’affidabilità delle fonti di informazione».