Esclusiva

Aprile 19 2025
Dai deepfake ai droni bomba, la rivoluzione tecnologica del terrorismo

Un report dell’Onu spiega i rischi legati all’uso di intelligenze artificiali da parte di organizzazioni fondamentaliste

Progettò l’attentato di Bali del 2002, quando duecentodue persone morirono per mano del gruppo islamista Jemaah Islamiyah. Ucciso tre anni dopo da un cecchino della polizia indonesiana, Azahari Husin è tornato in vita su TikTok grazie all’intelligenza artificiale. Così i “martiri” della jihad diventano il volto della propaganda, arruolati nell’esercito di deepfake fedeli alle organizzazioni terroristiche. Come l’Isis-K, frangia afghana dello Stato Islamico, che ha creato un notiziario condotto da un avatar per celebrare la strage al teatro Crocus City Hall, a Mosca, del 22 marzo 2024. Secondo il report Algoritmi e terrorismo delle Nazioni Unite, presto il reclutamento sarà affidato ai chatbot, capaci di identificare e contattare soggetti vulnerabili. Dopo aver capito le debolezze dell’interlocutore, la macchina lo spingerà a entrare in un gruppo fondamentalista.

Intanto i social media saranno inondati di contenuti integralisti, generati con AI e condivisi da account automatizzati. Una strategia già osservata dall’Europol, agenzia per la lotta al crimine dell’Unione Europea, nei gruppi di estrema destra per diffondere odio razzista e antisemita. «La tecnologia faciliterà il processo di radicalizzazione dei cosiddetti “lupi solitari”», spiega l’esperto di sicurezza internazionale Fabrizio Minniti. «Mentre una cellula terroristica è esposta ai controlli delle autorità, un individuo può sfuggire alle operazioni di intelligence e controterrorismo», prosegue l’analista. 

Anche gli attentati potrebbero subire una svolta tecnologica. Nel 2016, lo Stato Islamico aveva diffuso il video di un’autobomba controllata da remoto. Lo scopo delle immagini era propagandistico, ma gli esperti non escludono che le macchine a guida autonoma di Google e Tesla possano finire nelle mani sbagliate. Proprio come i droni kamikaze, utilizzati dalla sezione irachena dell’Isis, che si è dotata di un’unità di velivoli senza pilota. «Potrebbe non essere semplice distinguere un drone commerciale, usato dai turisti per fare le foto, da un mezzo pronto a lanciare un attacco», dice Minniti. Secondo l’Onu, il rischio è che gli jihadisti si approprino di sistemi di riconoscimento facciale, per organizzare omicidi mirati dal cielo.

Un terrorista dell'Isis con un drone commerciale (2017, foto di Scott Stewart)
Un soldato dell’Isis con un drone commerciale (2017, foto di Scott Stewart)

Sul fronte del cyberterrorismo, i large language models renderanno gli attacchi informatici più accessibili. Oggi WormChatGtp, una versione illegale di ChatGtp disponibile sulla piattaforma Telegram, permette di creare codici dannosi come malware e ransomware senza avere competenze tecniche. «I gruppi terroristici non hanno le capacità di lanciare cyberattacchi», precisa Minniti, «ma è un problema da monitorare per il futuro». 

I chatbot sono abili nel phishing: adescare dipendenti di aziende e istituzioni, usando link nocivi fare breccia nei sistemi informatici. Così password e dati diventano ostaggi per cui pagare un riscatto. I tentativi di estorsione potrebbero colpire anche cittadini comuni, con il furto di contenuti privati da smartphone e computer per ricattare il proprietario. In assenza di video compromettenti, basterà incollare la faccia della vittima su una scena pornografica. Oppure i terroristi si finanzieranno con truffe telefoniche, usando voci deepfake per impersonare politici o dirigenti aziendali. 

Dall’altro lato del fronte, anche le autorità nazionali e internazionali useranno le intelligenze artificiali per contrastare i pericoli. Intanto i timori segnalati dall’Onu restano in divenire. Occorre però arrivare preparati. 

Leggi anche: AI e pedopornografia: la nuova frontiera del crimine digitale