L’ospite conclusivo del primo giorno dell’evento di due pomeriggi Tracking propaganda narratives in media è stato Richard Kuchta, ex coordinatore del progetto Democracy & Resilience. Dopo una serie di importanti ospiti che hanno analizzato le fake news e la loro diffusione, il suo discorso si è incentrato sul coordinated behaviour (comportamento coordinato) riguardo alla diffusione di propaganda e disinformazione.
Ha iniziato la sua discussione spiegando cosa sia il comportamento coordinato. «C’è ambiguità nella comprensione della questione e della terminologia applicata perché vengono utilizzati termini diversi per fenomeni simili». Ha quindi proceduto a descrivere questi diversi fenomeni. Il coordinated inauthentic behaviour (comportamento coordinato non autentico) consiste in sforzi coordinati per manipolare il dibattito pubblico per un obiettivo strategico in cui gli account falsi sono centrali all’operazione, in ogni caso, le persone dietro quest’attività si coordinano tra di loro e usano account falsi per indurre in errore le persone su chi sono e cosa stanno facendo. Il coordinate (link) sharing behaviour (comportamento di condivisione coordinata di link) è il contenuto artificialmente amplificato al di là del suo raggio organico da metodi di amplificazione autentici o falsi. La coordinated harmful activity (attività dannosa coordinata) consiste in gruppi, movimenti o campagne che si impegnano in attività coordinate che comportano danni su e fuori Twitter. Poi c’è l’uso di bot/sockpuppet e c’è anche l’amplificazione del contenuto.
Dopo aver offerto una panoramica dei diversi termini relativi al comportamento coordinato, ha poi evidenziato gli elementi chiave del problema: azione, attore e distribuzione. «L’azione si riferisce a ciò che viene fatto ed è legata al contenuto del messaggio/azione intrapresa. L’attore si riferisce a chi fa qualcosa ed è legato all’autenticità dell’attore. La distribuzione si riferisce a come viene fatto ed è legato alla forma di distribuzione del messaggio».
Il suo discorso ha poi spiegato la differenza tra comportamento autentico e non autentico: «Il primo è caratterizzato da account multipli con identità reale, dal fatto che la coordinazione avviene offline od online, dalla coordinazione di attori multipli attraverso segnali nel loro ambiente condiviso e dall’amplificazione tramite pubblicità. Il secondo è caratterizzato da tecniche di inflazione artificiale, da modi automatizzati di come uno o più utenti possono agire su account multipli e dall’uso di account non autentici».
Ha proseguito offrendo alcuni esempi e casi studio al pubblico per comprendere meglio i diversi fenomeni discussi.
Il primo esempio riguardava il comportamento autentico coordinato. «Circa 90 pagine Facebook affiliate al partito di estrema destra slovacco Kotleba – LSNS hanno mostrato segni di coordinazione in due gruppi di pagine, sono state rilevate strategie simili a quelle utilizzate anche dai partiti democratici. Tale coordinamento diventa problematico quando gli attori amplificano contenuti illegali o dannosi in modo coordinato».
Il secondo esempio riguardava il comportamento non autentico. «Nove pagine Facebook in lingua ungherese, apparentemente non correlate tra loro, sono state viste condividere regolarmente contenuti dalla stessa fonte, Hirextra.info, in un lasso di tempo ristretto. Hirextra.info è un sito web che si dichiara di destra, a supporto di Orban e Putin».
Leggi anche: I dati sono l’ingrediente principale del nuovo giornalismo
Successivamente, ha offerto un esempio italiano in relazione al comportamento coordinato. «Guerrieri ViVi è un gruppo italiano di cospirazione anti-vax che ha coordinato attacchi sia online (FB + TW) che offline (vandalismo). I profili social sono stati segnalati come eliminati da Facebook nel 2021, tuttavia, l’attività di ViVi è stata osservata anche nel 2022. Il coordinamento è avvenuto attraverso Telegram e la raccolta di adesioni al gruppo Telegram».
Ha poi spiegato quale sia la policy response, facendo riferimento al Digital Services Act. Il riferimento è all’articolo 34.2, valutazione del rischio: “Le valutazioni devono anche analizzare se e come i rischi […] siano influenzati dalla manipolazione intenzionale del loro servizio, compreso l’uso non autentico o l’exploit automatizzato del servizio, nonché l’amplificazione e la potenziale diffusione rapida e ampia di contenuti illegali e di informazioni incompatibili con i loro termini di servizio”. È stata fatta anche un altro riferimento al Codice di condotta sulla disinformazione 2022, all’Impegno 14: «Comprendere i comportamenti, gli attori e le pratiche di manipolazione attraverso i diversi servizi, compresa la creazione e l’uso di account che partecipano al comportamento coordinato inautentico».
Questo ha concluso la sua presentazione. «In conclusione, il diavolo è nei dettagli. C’è bisogno di distinguere tra diverse strategie utilizzate per la manipolazione del servizio al fine di aumentare la comprensione e mitigare adeguatamente i rischi. Attualmente, le piattaforme reagirebbero in modo diverso a casi identici di comportamento coordinato. Il DSA offre un ampio quadro per affrontare il problema del comportamento non autentico, tuttavia, dovrebbe esserci una maggiore armonizzazione tra le piattaforme».