Attenzione! Questo articolo è stato scritto più di un anno fa!
!
Esclusiva

Marzo 1 2023
Algoritmi e condivisione, come i social favoriscono la disinformazione

A lezione di viralità con il professore Filippo Menczer: «sulle piattaforme non vince sempre l’idea migliore»

Chiunque prema il tasto “Condividi” per pubblicare qualcosa sui social network spera che il proprio contenuto diventi virale. Chi usa le piattaforme per comunicare vuole raggiungere più persone possibile. Per fare incetta di click e visualizzazioni, però, non basta una buona idea. Anzi, «la correlazione tra qualità e viralità è molto bassa» spiega Filippo Menczer, professore di Informatica e computer science all’Università dell’Indiana, negli Stati Uniti. Da anni studioso di disinformazione sui social, in un evento promosso nell’ambito di Fulbright, un programma che favorisce gli scambi accademici tra Italia e Usa, il professor Menczer ha spiegato che «la migliore idea non solo non vince sempre ma è improbabile che diventi virale. Al contrario, è spesso robaccia a raggiungere milioni di persone».

Le fake news circolano più dei contenuti di qualità sui social perché «le piattaforme puntano a coinvolgere gli utenti e non badano alla qualità delle informazioni». L’algoritmo è costruito in maniera tale da diffondere maggiormente i contenuti che creano più reazioni. A ciò si aggiunge che «poi le persone credono che i contenuti più popolari siano anche i migliori e quindi interagisce» continua Menczer. «Così l’algoritmo continua a mostrarli a sempre più utenti e si instaura un circolo vizioso che porta a essere virali». È l’engagement bias, un pregiudizio sia della macchina che dell’uomo di privilegiare i contenuti più gettonati, anche se la loro fortuna si fonda su informazioni false o inventate. Per fare bingo, «basta far credere alle persone e all’algoritmo che il proprio contenuto sia popolare».

Come per un macigno in bilico su una rupe, per farlo rotolare giù è necessario dare una bella spinta. Bisogna avere da subito un buon successo perché l’algoritmo si accorga di noi e ci premi con  una maggiore diffusione. Oppure si può fingere di essere popolari. «Così è nata l’idea dei bot», profili social che imitano persone reali ma che sono governati da processi automatizzati. «Sono account non autentici mossi da persone che hanno intenzione di manipolare la logica dei social a proprio vantaggio» dice Menczer. Spesso decine o centinaia controllati da singole persone o piccoli gruppi, che li usano per aumentare il numero di interazioni con i profili che vogliono promuovere per ingannare macchina e persone.

Filippo Menczer

Ci sono anche altre tecniche, come il seguirsi a vicenda di interi gruppi di persone in modo da aumentare la propria credibilità, ma «è soprattutto grazie ai bot che i contenuti malevoli o di disinformazione riescono a muoversi molto più velocemente sui social network rispetto a quelli di fact checking»: perché gonfiano il numero di mi piace, di seguaci e di condivisioni. Questo determina una sovrarappresentazione dei contenuti di propaganda che spesso sovrastano i contenuti affidabili e di qualità. «Quando notiamo interi gruppi di account che condividono gli stessi contenuti è molto probabile si tratti di bot. Possono rilanciare lo stesso link migliaia di volte in un solo giorno». Alla fine, però, è la condivisione degli utenti reali che determina il successo di tali campagne: il messaggio veicolato mira sempre a influenzare l’opinione delle persone per gli scopi più diversi, spesso politici.

«Vittime più frequenti sono gli utenti con un’attenzione limitata, che spesso non hanno visione d’insieme e subiscono solamente i contenuti del proprio feed sul social di turno», spiega il professore. Il contributo decisivo, poi, lo dà l’emulazione. «Nella maggior parte dei casi le persone devono essere esposte molte volte, su diversi livelli e diverse piattaforme, prima di ricondividere. È il fenomeno del contagio complesso: non basta un solo contatto, ma l’informazione virulenta quando attecchisce si moltiplica esponenzialmente». Così sono fondamentali le casse di risonanza con utenti simili e i cluster, perché si è molto più inclini a condividere se vediamo che i nostri contatti, le persone e gli account simili a noi rilanciano quei contenuti.

Anche in questo modo la stessa struttura delle piattaforme finisce per favorire una logica distorta, che penalizza diversità e il confronto democratico. Le analisi condotte da Menczer «hanno mostrato che anche un gruppo eterogeneo in questo modo nel tempo andrà a dividersi in due cluster totalmente polarizzati e isolati tra loro». Gli utenti finiscono per avere contatti solo con chi rilancia contenuti che confermano quello che già pensano e «queste casse di risonanza politiche sono ambienti ottimali per diffondere disinformazione e negli Stati Uniti sia conservatori che repubblicani sono ugualmente esposti».

Per mettersi al riparo da queste storture, dice Mennczer, serve una «visione più ampia, l’utilizzo di strumenti informatici e più formazione». E che le piattaforme facciano la loro parte: «durante le elezioni del 2020, twitter aveva migliorato la sicurezza, implementato la sua lotta agli account non autentici. La qualità del dibattito era cresciuta di molto. A elezioni finite però tutto è tornato come prima: c’era meno engagement» e minori possibilità di guadagno.