Bambini che non esistono. Corpi generati da zero. L’intelligenza artificiale cambia anche il volto della pornografia minorile. Bastano un generatore e un prompt ben scritto. Il gioco è fatto: in pochi secondi è possibile ottenere immagini di ragazzini coinvolti in atti sessuali, così perfette da sembrare reali. A complicare la situazione c’è anche la tecnologia deepfake: in questo caso, tramite l’uso dell’AI, vengono manipolate foto di minori in carne e ossa.
«In quest’ultima situazione la presenza del minore, anche se alterata, configura il reato di pedopornografia virtuale, a patto che siano raffigurate parti riconoscibili del corpo della vittima – spiega Francesco Sbisà, avvocato penalista dello studio BonelliErede – Più complicato è il primo caso. L’assenza di una vittima reale ha fatto sorgere in dottrina dubbi sulla rilevanza penale, ma le recenti evoluzioni giurisprudenziali considerano anche questo un reato al pari degli altri».
L’articolo di riferimento è il 600 quater 1 del Codice penale, che punisce la pornografia minorile anche quando l’immagine non riguarda un minore reale, ma è creata attraverso l’uso di tecnologie digitali. Non solo. In tema di tecnologia deepfake a fine marzo è stato approvato dal Senato il Disegno di legge n. 1146 sull’AI. Se approvato anche dalla Camera dei deputati, introdurrà nell’ordinamento un reato specifico. Dal piano interno a quello europeo. Già nel 2011, la Direttiva 93/UE così come la Convenzione sulla criminalità informatica di Budapest consideravano rilevanti anche “immagini realistiche di un bambino inesistente implicato o coinvolto nella suddetta condotta”.
Per contrastare il fenomeno è necessaria una collaborazione tra chi indaga e chi punisce. «L’intelligenza artificiale si evolve di giorno in giorno, per cui diventa sempre più difficile intervenire in modo efficace», afferma il Dott. Marcello La Bella, dirigente del Centro Operativo Sicurezza Cibernetica della Polizia Postale. Grazie a elaborati sistemi di AI, sono state create App che permettono di spogliare digitalmente le persone, partendo da semplici foto. «Parliamo di ragazzi di tredici, quattordici anni che con gli smartphone realizzano immagini di scene sessuali. Le vittime sono quasi sempre compagne di scuola». Video e foto vengono poi diffuse su chat di gruppo, canali Telegram, Facebook ma anche sul dark web, quella parte di Internet non visibile con i comuni browser.
Lo sviluppo continuo dei sistemi di AI richiede tecniche investigative sempre più precise. All’obiettivo di trovare gli autori del reato si affianca la necessità di identificare le vittime di questi abusi. Chi si trova coinvolto in queste vicende spesso non reagisce. Ci si nasconde per vergogna, paura di ritorsioni o, specie nel caso di fotomontaggi, “il tutto può avvenire senza che l’interessato sia consapevole”, come precisa il legale Sbisà. Se poi si sposta l’attenzione sulle immagini “di fantasia” la situazione si complica ulteriormente.
«Noi agiamo spesso sotto copertura. Abbiamo sistemi che ci aiutano a capire se un’immagine con molta probabilità è stata creata artificialmente -– prosegue La Bella – Di recente abbiamo sottoscritto un protocollo di lavoro con l’Università di Catania finalizzato allo sviluppo di programmi che mettano in rilievo le immagini di deep fake».
Le difficoltà processuali derivano anche dalla quantità di contenuti digitali prodotti. La diffusione è rapidissima. Il materiale può essere scaricato, condiviso e nascosto in maniera quasi impossibile da tracciare. «La produzione e detenzione di materiale pedopornografico sta assumendo dimensioni sempre più vaste – precisa Sbisà – Anche soggetti non esperti sanno creare contenuti con l’AI e diffonderli a livello internazionale». Così è avvenuto con l’operazione “Cumberland”, portata avanti dall’Europol, l’agenzia dell’Unione europea di contrasto al crimine. Venticinque le persone arrestate per distribuzione online di contenuti pedopornografici generati dall’intelligenza artificiale. Già a novembre in manette era finito il principale sospettato del caso, un cittadino danese che gestiva una piattaforma online su cui distribuiva il materiale.
«Va precisato che, ad oggi, i software AI diffusi in trasparenza tra il pubblico non permettono di creare simili contenuti. C’è però la circolazione di software “clandestini” addestrati con dataset pedopornografici – conclude Sbisà – L’AI un domani potrebbe fornire un output prodotto su basi illecite anche alla persona che ha inserito un comando lecito. Qui la responsabilità ricadrebbe sullo sviluppatore». Immagini artificiali, conseguenze reali.