Sono lontani i tempi in cui si attendeva la stampa del giornale per scoprire le notizie più importanti della settimana. Oggi è tutto a portata di click…e di scrolling.
Secondo un’indagine del Parlamento europeo il 42% della popolazione tra i 16 e 30 anni utilizza piattaforme come Instagram, TikTok e YouTube per accedere alle notizie, superando la televisione e la stampa tradizionale. Questa dipendenza dai social media, però, espone i giovani a un rischio maggiore di disinformazione: il 76% degli intervistati, infatti, ha dichiarato di essersi imbattuto in notizie false o ingannevoli.
Nonostante questi dati le piattaforme sembrano andare in un’altra direzione: il fondatore di Facebook, Mark Zuckerberg, ha deciso di sospendere il programma di fact-checking in America e di adottare un modello simile a quello di X, le Community Notes. Si tratta di un esempio di verifica partecipativa lanciato negli Stati Uniti nel 2021 e poi promosso da Elon Musk, che l’ha definito “la fonte di verità più affidabile su Internet”. «La recente svolta di Meta di andare in questa direzione ha una chiara matrice politica dopo l’elezione di Donald Trump perché non c’è nessuna esigenza reale dietro questa scelta. Non è vero che il fact-checking fosse ideologicamente schierato e le bassissime percentuali di errore lo confermano, cosa apprezzata da Meta stesso in tutti i report» afferma Tommaso Canetta, vicedirettore di Pagella politica e Factanews e coordinatore delle attività di fact-checking di EDMO e IDMO.
Il principio su cui si basano le Community è molto semplice: utenti selezionati contribuiscono a migliorare l’accuratezza delle informazioni pubblicate su X, scrivendo “note” che spiegano perché un contenuto è falso, fuorviante o decontestualizzato. Dunque è un modello “decentralizzato” di verifica, da qui il termine di fact-checking “collaborativo”, anche se «io non lo chiamerei così, ma lo definirei una moderazione dei contenuti. Noi portiamo avanti l’idea che il fact-checking sia una cosa seria e professionale, seguendo determinati standard. Quando viene fatto senza rispettare tali criteri si va a comprometterne il significato stesso» aggiunge Canetta.
Le fasi principali sono tre: segnalazione, valutazione e pubblicazione. Nella prima gli iscritti al programma possono associare note esplicative a un post ritenuto problematico, poi queste vengono votate da altri partecipanti che devono valutarne l’utilità. Infine, una nota diventa visibile al pubblico solo se riceve un’alta valutazione da persone con opinioni divergenti, secondo un algoritmo che premia il consenso trasversale. Questo meccanismo, chiamato diversity of perspectives, mira a filtrare le note ideologicamente orientate, così da evitare, almeno nella teoria, la polarizzazione. Inoltre, gli utenti che partecipano sono anonimi al pubblico, per evitare attacchi personali e incentivare la neutralità, anche se l’anonimato rende difficile capire le reali competenze e intenti di chi prende parte alla moderazione.
Questo, però, non è l’unico problema del sistema. La verifica dal basso è perlopiù condotta da persone non specializzate che votano in base alle proprie convinzioni e non all’accuratezza fattuale, con grandi problemi di imparzialità e trasparenza. Inoltre, un panorama come X, dove i contenuti diventano virali anche in pochi minuti, poco si adatta a un lungo processo di verifica: le note richiedono tempo per essere valutate e pubblicate e senza un sistema centralizzato molti contenuti falsi restano online senza correzioni. Quindi questo meccanismo rappresenta più una scommessa ideologica, un’utopia, o un effettivo esempio “virtuoso” di moderazione orizzontale? «Possono essere uno strumento utile per il contrasto alla disinformazione su argomenti non polarizzanti, come le truffe commerciali. Il problema sta proprio nel loro funzionamento – ammette Canetta – anche quando sono fattualmente corrette, non vengono fatte vedere agli utenti o quando questo accade sono ormai passate 48, 72 o anche 96 ore da quando è uscito il contenuto fuorviante, quando ormai i danni sono stati fatti».
Un sistema di cui emergono le falle soprattutto su temi critici e divisivi come le elezioni presidenziali negli Stati Uniti. Molti post contenenti affermazioni false o immagini decontestualizzate sono rimasti senza correzioni per giorni, oppure ne hanno ricevute di contraddittorie e poco chiare. Altre note, seppur approvate, sono risultate imprecise o faziose, alimentando la disinformazione invece che ridurla: l’assenza di una supervisione editoriale o di fonti ufficiali di riferimento rende il sistema vulnerabile alla manipolazione.
Il report How X’s Community Notes System Falls Short on Election Disinformation, pubblicato dal Center for Countering Digital Hate nell’ottobre 2024, ha dimostrato come le Community Notes di X falliscano proprio dove servirebbero di più, ovvero su temi polarizzanti come le elezioni statunitensi. In particolare il CCDH ne ha analizzate oltre 1 milione, concentrandosi su 283 post fuorvianti che hanno raggiunto 2,9 miliardi di visualizzazioni.
«In questo rapporto abbiamo scoperto che il 74% delle note della community accurate sulla disinformazione elettorale statunitense non viene mai mostrato agli utenti. Questo permette a post fuorvianti su brogli elettorali, integrità elettorale e candidati politici di diffondersi ed essere visualizzati milioni di volte» riporta lo studio. I post senza note che promuovono false narrazioni sulla politica statunitense hanno ottenuto miliardi di visualizzazioni, superando di 13 volte la portata delle loro controparti verificate. “I Democratici stanno importando votanti illegali” (1,1 miliardi di visualizzazioni), “I sistemi di voto sono inaffidabili” (574 milioni), “Le elezioni del 2020 sono state rubate” (184 milioni) sono state le affermazioni false più frequenti circolate sul social media.
Il documento sottolinea la lentezza e l’opacità del sistema, in cui la maggior parte della disinformazione circola senza alcuna correzione visibile, mentre l’anonimato e la mancanza di trasparenza impediscono una reale responsabilità. Anche TikTok, che si avvale di partner di verifica come Facta, sta testando in America una funzione simile alle Community Notes chiamata Footnotes: «Parlavo con il rappresentante di TikTok sul fatto che le sperimenteranno, anche se contano di tenere in piedi entrambi i sistemi, quindi sia il fact-checking professionale sia le Community Notes» conclude il vicedirettore della testata.