Attenzione! Questo articolo è stato scritto più di un anno fa!
!
Esclusiva

Marzo 22 2021.
 
Ultimo aggiornamento: Aprile 12 2021
Deepfake. Nulla è reale, tutto è lecito

Una tecnologia che fa dire qualsiasi cosa a chiunque, grazie alle intelligenze artificiali. Tra dilemmi etici e lacune normative, la parola agli esperti

Zingaretti? «Ha il carisma di bombolo». Conte? «Ha la faccia da cretino. Per carità, dai». Parole e musica di Matteo Renzi, leader di Italia Viva. O forse no. Nessun fuori onda, solo un imitatore aiutato dall’intelligenza artificiale (IA), con la regia del programma tv Striscia la notizia. È il primo deepfake italiano, una tecnica per la sintesi della figura umana basata su IA, che combina e sovrappone immagini e video esistenti ad altri, attraverso l’apprendimento automatico (machine learning).

«Si tratta ormai di una tecnologia in stadio avanzato e molti contenuti sono fatti benissimo: spesso neanche si riesce a distinguere il falso dal vero» spiega Angelo Ciaramella, docente di Intelligent Signal Processing all’università Parthenope di Napoli. «Una volta messi in circolazione, però, ci sono sempre elementi che scatenano il dubbio». Movimento innaturale della bocca, voce in ritardo rispetto al labiale, immagine distorta sono solo alcuni dei possibili campanelli d’allarme. «È uno strumento che può essere utilizzato per manipolare l’opinione pubblica: un po’ come le fake news, ma più realistico». Uno dei primi esempi di deepfake al mondo vide protagonista l’ex presidente degli Stati Uniti, Barack Obama: «Si trattava di un test, era evidente che fosse un falso. Alcune persone, però, credettero a quello che diceva» continua Ciaramella.

Il video di Renzi generò una lunga coda polemica. Nella clip di Striscia, infatti, non veniva precisato che fosse un contenuto falso e furono in molti a pensare che a parlare fosse proprio il senatore di Rignano sull’Arno. Un tema che, secondo Paolo Sironi, Global Research Leader in Banking e Financial Markets dell’organizzazione di ricerca IBM Institute for Business Value, va posto al centro del dibattito: «Se si usa l’intelligenza artificiale per modificare immagini e video storici, è indispensabile chiarire, affinché la loro diffusione fuori dal contesto originale non crei un abuso, che il filmato non è reale. È necessario un impegno collettivo per creare regole chiare che disciplinino il progresso tecnologico».

Non solo satira e disinformazione: dal deepfake sono nate anche nuove forme di pornografia. È il caso di Helen Mort, poetessa e scrittrice britannica, che nel 2019, navigando su internet, ha scoperto di essere la protagonista di alcune foto erotiche. Qualcuno aveva sostituito il suo volto a quello di attrici hard, senza il suo consenso. Era lei, ma non era davvero lei. Si è sentita impotente, nuda. «È come se ti dicessero: “Guardati. Potremo umiliarti ogni volta che lo desideriamo”», ha raccontato al magazine Technology Review.

Con chi se la devono prendere Matteo Renzi ed Helen Mort? «Il deepfake è un sistema come un altro per fare propaganda e commettere reati. Sono le persone a dover sviluppare gli anticorpi: non possiamo impedire a chicchessia di ricorrere a questi strumenti per distorcere l’informazione, tanto ne userebbe altri. Bisogna sensibilizzare la gente ai pericoli del progresso» risponde Giuseppe Russo, direttore del Centro di Ricerca e Documentazione “Luigi Einaudi”. Educare, dunque, ma anche punire. «Ci sono dei limiti per tutto e quando si superano devono scattare le sanzioni. In questo caso, è difficile comminarle perché non esiste una giurisdizione globale: in Italia è presente, ma non è sempre facile rintracciare chi abusa delle IA. E se il criminale risiede all’estero, diventa ancor più difficile perseguirlo. Finché questi comportamenti continuano a sfuggire alla legge, sono destinati ad aumentare».

Responsabili di simili derive tecnologiche anche i governi, colpevoli di aver inseguito l’innovazione, invece di controllarla. Per Giuseppe De Giacomo, professore ordinario di Computer Science and Engineering all’università La Sapienza, «le istituzioni hanno un po’ ignorato il problema, lasciando alle aziende campo libero. Peccato che anche le società siano delle macchine, organizzate per ottimizzare il profitto e non per affrontare dilemmi etici. Oggi, però, gli Stati sembrano aver preso coscienza del problema: l’Europa ha prodotto regolamenti all’avanguardia su temi come la privacy e l’intelligenza artificiale». Grazie all’iniziativa di Bruxelles, nei 27 Paesi dell’Unione europea non si possono più usare algoritmi di cui non si conosca il funzionamento. Questo ne limita i punti oscuri e gli utilizzi illeciti.

Nel mirino del deepfake, anche la comunicazione umana. Il vero problema di questa tecnologia, secondo De Giacomo, è il disorientamento che provoca negli individui, abituati ad affidare ai piccoli movimenti del volto la traduzione delle loro emozioni: «Per noi la faccia è un identificatore perfetto. Oggi non è più così perché può essere manipolata, e con essa ciò che comunica». Colpevole, ancora una volta, chi sta dietro la macchina: «È un po’ come un’arma da fuoco: fa solo quello che gli dici. Non spara da sola».

Leggi l’ultimo numero del periodico Zeta dedicato all’Intelligenza artificiale