Esclusiva

Febbraio 11 2025
Come l’IA sta cambiando il cinema, tra deepfake ed effetti speciali intelligenti

L’intelligenza artificiale è ormai una presenza ineludibile nel mondo del cinema, ma un suo uso indiscriminato potrebbe mettere a rischio il futuro della settima arte

Guardando Here, l’ultimo film di Robert Zemeckis, si ha l’impressione che Tom Hanks e Robin Wright abbiano usato una macchina del tempo per invecchiare e ringiovanire a loro piacimento. In una delle prime scene Hanks, brizzolato e piegato dagli anni, sistema due sedie al centro di una stanza vuota. Qualche fotogramma più in là eccolo ricomparire appena ventenne, il viso roseo e l’entusiasmo che gli sprizza da tutti i pori, mentre abbraccia Wright, anche lei libera da rughe e preoccupazioni.

In questo caso il trucco non c’entra. O meglio, c’è ma è nell’occhio della cinepresa, non sui volti degli attori. Zemeckis, regista sempre all’avanguardia nell’uso delle nuove tecnologie, ha ottenuto questo risultato usando l’intelligenza artificiale sviluppata da Metaphysic ai, azienda specializzata nella creazione di contenuti per il cinema. Grazie a migliaia di foto d’archivio e filmati, il programma è riuscito a ricreare versioni credibili delle facce dei due interpreti, poi applicate sugli attori già in video, durante le riprese, come se fossero un make-up digitale. 

Un esperimento innovativo che proietta il cinema in un futuro che in realtà è già a portata di mano, vista la velocità con cui l’intelligenza artificiale evolve mese dopo mese. Ma la capacità di modificare i volti con l’IA non è una novità. I deepfake, cioè i video e le foto in cui il corpo e il viso di un essere umano sono manipolati per riprodurre in modo credibile i movimenti, le caratteristiche e la voce di un’altra persona, reale o immaginaria, sono comparsi sul web già a partire dal 2017. 

Da quel momento in poi, una tecnologia sviluppata dalla comunità scientifica a fini di ricerca si trasforma in uno strumento sempre più facile da usare, che attira l’attenzione di un numero crescente di utenti. I video pornografici, in cui il viso di una celebrità viene sovrapposto a quello del soggetto inquadrato, diventano il suo primo banco di prova. Poi sui social cominciano a circolare fake buffi ma sempre più accurati di attori e politici, che traggono in inganno milioni di persone, compresi gli algoritmi creati per riconoscere questo tipo di manipolazione. Il rischio di vedere una forma di intrattenimento trasformarsi in un potente strumento di disinformazione è concreto per le intelligence occidentali.

Ma tornando al mondo del cinema, la diffusione dei deepfake e il rapido sviluppo di un’IA tuttofare in grado di aiutare o sostituire l’essere umano nelle diverse fasi creative, dall’ideazione alla post-produzione di un film o una serie tv, ha generato grande nervosismo tra i lavoratori del settore. Gli scioperi di attori e sceneggiatori che hanno paralizzato Hollywood tra il 2023 e il 2024 avevano tra gli obiettivi regolamentare l’uso dell’IA, tutelare il diritto d’autore e riacquistare da parte degli interpreti il controllo della propria immagine. Un problema questo che, in realtà, ha origini ben più antiche dei deepfake.

Forse pochi sanno che già negli anni 2000 gli esperti degli effetti speciali erano capaci di resuscitare i morti. Durante le riprese de Il Gladiatore Oliver Reed, l’attore che interpretava il lanista Proximo, muore a seguito di una caduta. Il suo personaggio, però, è fondamentale nella trama del film e ci sono ancora delle scene da girare. Il problema viene risolto ritagliando il suo volto da scene realizzate in precedenza e usando una controfigura. Questa tecnica, unita ad una ricostruzione dell’antica Roma davvero all’avanguardia per l’epoca, ci suggerisce come la creazione di immagini virtuali verosimili sia un’arte di lungo corso.

«L’intelligenza artificiale è nel nostro lavoro già da tempo» spiega Daniele Tomassetti, Ceo di Blackstone Studio VFX, azienda specializzata in effetti visivi per cinema e serie TV e Direttore artistico del Corso di Visual Effects Supervisor & Producer presso il Centro Sperimentale di Cinematografia di Roma. «Se pensiamo alla proceduralizzazione delle texture, per esempio quando un software “inventa” pattern e dettagli di superficie grazie a parametri matematici o algoritmici, ci rendiamo conto che questi calcoli sono forme di IA». 

Negli anni successivi questa magia si affina, e da esigenza si fa virtuosismo. Durante la realizzazione degli ultimi film della saga di Star Wars è stata fatta una scannerizzazione tridimensionale del volto e del corpo degli attori principali, poi archiviata in hard disk. Questa copia digitale potrebbe essere applicata in ogni momento ad una controfigura ed essere utilizzata all’infinito, come una marionetta. È ovvio che una prospettiva del genere pone una serie di interrogativi e problemi etici: sarà questo il cinema del futuro? Gli attori saranno rimpiazzati dalle loro copie digitali? E soprattutto chi deterrà i loro diritti di utilizzo e per quanto tempo? Che ne sarà di queste copie dopo la morte degli interpreti?       

Con l’AI Act e l’Artificial Intelligence Report, Europa e Stati Uniti stanno cercando di regolamentare il settore, così da garantire il rispetto del diritto d’autore e porre un argine allo strapotere delle aziende che sviluppano sistemi di intelligenza artificiale. Ma trattandosi di un territorio inesplorato e in rapida espansione, molte domande rimangono ancora senza risposta. 

Il debutto di software di IA come Sora e Midjourney, capaci di generare video di buona qualità in pochi minuti a partire da un prompt, ha riportato alla ribalta una vecchia questione. Cioè il braccio di ferro tra artisti e produttori, tra la profondità di un’arte che ha bisogno di tempo e risorse e la pragmaticità di chi ha fatto della velocità e della massimizzazione dei profitti il proprio mantra. 

«È il sogno di certi produttori fare un film con un click. Zero fatica, zero costi. Il problema, però, è che se tutto diventasse davvero automatico, non avremmo più bisogno di competenze, talento e visione artistica» commenta Tomassetti. «Se togliamo la cultura, lo sforzo e la passione dietro un prodotto artistico, otteniamo solo un mucchio di contenuti vuoti e fatti in serie, buoni giusto per passare il tempo. Se decidiamo di percorrere questa strada perderemo la capacità di apprezzare tutto ciò che richiede dedizione, studio e sudore».

Tuttavia, poter creare in pochissimo tempo, senza sforzo e con un minimo esborso di denaro qualcosa che fino a poco tempo fa era un privilegio per pochi spinge molti a parteggiare per l’efficienza del progresso tecnologico: «Clicchiamo sul pulsante, generiamo qualcosa, solo per poterlo postare sui social e dire di aver realizzato una scena epica tutto da soli» continua Tomassetti. «È la stessa logica dell’epoca dei selfie e dei mille video postati continuamente sui social. C’è quasi una sorta di goduria nel mostrare quanto siamo bravi quando in realtà è tutto merito di un prompt inserito in un software». 

Questi nuovi strumenti creativi definiscono un nuovo modo di raccontare e rendono necessaria, per il Ceo di Blackstone Studio, una riflessione sulla formazione dei futuri artisti: «Nella mia esperienza come docente del Centro Sperimentale, vedo che la tentazione di usare l’IA come scorciatoia è in crescita. Ma, dal mio punto di vista, è fondamentale continuare a insegnare in maniera “manuale” e critica, affinché le tecnologie restino ciò che devono essere: strumenti di supporto e non rimpiazzi della creatività umana». 

Nonostante la diffidenza verso le nuove tecnologie, in Italia si sono fatti degli esperimenti interessanti. Nel 2023 è uscito Cassandra, un cortometraggio che gli studenti della Scuola Holden di Torino hanno realizzato con l’aiuto di software di IA generativa. L’esperienza ha avuto come obiettivo quello di «capire come i narratori possono usare questi strumenti per facilitarsi il lavoro, trovare nuovi stimoli e potenziare l’immaginazione» racconta Riccardo Milanesi, co-direttore di Holden.ai Storylab, che ha prodotto il corto insieme a Rai Cinema.

In un’epoca in cui tutto cambia alla velocità della luce, è fondamentale sia per gli addetti ai lavori che per il pubblico fermarsi un momento ad immaginare il cinema del futuro. Se si sceglierà la strada di un intrattenimento che replica schemi collaudati, l’IA diventerà di certo più brava degli esseri umani a scrivere sceneggiature. Se invece si considererà il cinema come «un’arte attraverso la quale sublimare le emozioni e condividere visioni e idee inedite, allora anche in futuro riusciremo a creare capolavori in grado di scuoterci in profondità» conclude Tomassetti. 

Leggi anche: Polvere sui proiettori, le sale di Roma restano al buio