Prevenzione: dal latino praeventionem, anticipare qualcosa o qualcuno. Con l’utilizzo dei sistemi di Intelligenza artificiale, immaginiamo di potere presagire la realizzazione di un crimine. È un’ipotesi che in alcuni Paesi, non resta relegata alla mera immaginazione, ma che cosa accade quando l’uso del sistema IA invade la privacy dell’uomo?
«L’individuo è sorvegliato, anche quando non ha precedenti e quindi non è stato accusato di alcun reato in passato». È quello che accade in Cina. Lo spiega Simone Pieranni, giornalista Chora Media e fondatore dell’agenzia di stampa China Files. È la polizia predittiva, un sistema di analisi che recupera dati da diverse fonti, li analizza e utilizza i risultati per anticipare, prevenire i crimini. «L’intelligenza artificiale entra nei tribunali e i giudici accedono rapidamente agli archivi, alle vecchie sentenze, elaborando i casi in modo più veloce, ma poi c’è anche Pegasus, il software israeliano – un programma di sorveglianza avanzato per intercettare le comunicazioni su dispositivi mobili, come telefoni cellulari – che consente di spiare i cittadini in Xinjian», il territorio autonomo nel Nord-ovest della Cina (ndr).
È un altro il programma che emerge dal nuovo regolamento dell’Unione europea sull’Intelligenza artificiale. IA renderà illegale il riconoscimento facciale negli spazi pubblici a fini di controlli di polizia. «In Cina ha trovato molta resistenza della popolazione. È stato rimosso dalle scuole, dai negozi, perché le registrazioni messe online hanno riscontrato poco controllo da parte dei gestori dei negozi».
Aumentare gli standard di sicurezza per i chatbot, come ChatGpt, ma anche impedire l’utilizzo di certe tecnologie in ambito di controllo di polizia, nel rispetto della privacy dei cittadini. Si vuole vietare il ‘predictive policing’, l’attività di polizia predittiva. La normativa europea si impegna a tutelare la privacy dell’uomo e non sembra voler andare oltre sistemi, come X-LAW. È uno dei software di polizia predittiva attivo in Italia che sviluppa modelli ad hoc basati sullo studio della conformazione del territorio e delle dinamiche socio – urbane. La sicurezza della città viene garantita, senza lo studio del numero dei reati commessi o della personalità del singolo individuo.
«Non si può affidare alla macchina la responsabilità di formulare una sentenza processuale». Anche Giuseppe De Pietro – direttore dell’istituto di Calcolo e Reti ad Alte Prestazioni, Cnr-Icar presuppone che il computer possa fornire un supporto nel processo decisionale dei giudici e degli avvocati.
I pericoli del monopolio dell’IA sembrano concernere il «principio di robustezza, la qualità dei dati di addestramento di un computer». È l’insieme di dati che servono per insegnare a un algoritmo di svolgere uno specifico compito (ndr). Lo dice Federico Cabitza, informatico dell’università degli Studi di Milano-Bicocca. La forza di un computer è specificata negli «standard». Sono quei criteri che servono a garantire la sicurezza. Il livello di efficacia deve essere sufficiente, ma «non ci sono ricette di affidabilità». «Il sistema di riconoscimento delle emozioni facciali non funziona, perché la procedura di identificazione del sentimento è variabile nel vissuto». E si rischia che «il processo replichi in modo automatico i bias cognitivi» – delle persone coinvolte nell’addestramento dei dati – che rappresentano delle distorsioni che le persone attuano nella valutazione dei fatti (ndr). È la prospettiva soggettiva che non riproduce la realtà.
Queste dinamiche possono spiegare la preoccupazione, la resistenza dell’ultimo regolamento europeo. Si intuisce lo stesso discorso nelle parole di De Pietro, quando tratta il tema dell’Intelligenza artificiale Generativa. Un tipo di IA crea nuovi contenuti, originali – come immagini, musica, testi e video, attraverso una serie di input che le vengono dati – che sembrano generati da esseri umani. «Come possiamo dire se una voce è stata clonata o se le immagini sono fake?» Un eccessivo controllo affidato all’IA, difficilmente può funzionare, perchè necessita di «un processo che stabilisca con certezza se il risultato ottenuto è vero oppure no», perché il programma potrebbe coinvolgere anche chi non ha precedenti, chi non ha commesso reati in passato. «I precedenti contano, ma bisogna evitare i pregiudizi, la macchina deve essere ininfluente». Per questo bisogna valutare la qualità dei dati di addestramento del computer. Come nel riconoscimento delle emozioni, anche nel caso della predizione dei crimini bisogna evitare la propagazione di bias cognitivi per coltivare sistemi affidabili.
Andrea Rossetti, professore di filosofia del diritto all’università di Milano-Bicocca evidenzia il rischio di «Black-Box: la scatola nera. Posso avere dei buoni risultati, senza riuscire a capire come arrivo dalle premesse alla conclusione». Il problema delle tecniche di Intelligenza artificiale sembra riguardare il ‘come’ questa tecnologia potrebbe agire.
«La macchina principale di IA è la machine learning», un sottoinsieme dell’intelligenza artificiale che addestra i computer ad imparare dai dati e a migliorare l’esperienza (ndr). «Si generano algoritmi, equazioni che non posso comprendere. In questo modo possiamo macinare tanti dati, abbiamo una grande raccolta di materiale che ci permette di profilare la persona e quindi di poter anticipare i suoi comportamenti, ma le informazioni restano nel computer e non sappiamo per quanto tempo e per cosa». Rossetti spiega che l’efficacia di un procedimento si misura, rendendo chiaro il «il ragionamento che porta a una condanna» e quindi evitando che ci sia una «lacuna di trasparenza». Se il funzionamento è criptico, «lo scenario può diventare preoccupante».
Quando la modalità di utilizzo dei dati è conosciuta, «bisogna testare l’efficacia, dimostrando anche la funzione dissuasiva dei potenziali reati». è l’effetto deterrente che si concretizza quando una persona si astiene dal compiere il crimine, perché – chiarifica De Pietro – «il fattore ambientale incide sul comportamento». Come l’illuminazione in luoghi pubblici, in strade, in parchi o in parcheggi, allo stesso modo la presenza di una videocamera può influire sulle scelte di una persona. «È l’ambiente che bisogna controllare».
Con alcuni interrogativi, si inserisce Rossetti: «Quante persone si convincono a non compiere il reato, a causa del sistema di sorveglianza? Quanti delinquenti si spostano altrove per commettere i crimini? Ipotizziamo che le telecamere, installate in una stazione a Milano, consentano di rilevare una violenza cinque minuti prima che l’atto violento avvenga. La macchina non è utile, se le forze dell’ordine non intervengono in maniera tempestiva e adeguata».
Un modello di azione sul territorio che dimezza i tempi di intervento della polizia potrebbe evitare «il pericolo di vedersi proiettati in una serie televisiva, come Black Mirror», afferma De Pietro. Il cittadino viene classificato attraverso punteggi che indicano l’onestà o la disonestà. Nel telefilm ad esempio per comprare una casa devi avere almeno un punteggio di 4.5. «È il funzionamento dei crediti sociali» che è fondato sulla sorveglianza dell’intera popolazione attraverso un voto, calcolato su dati, come il pagamento delle fatture, l’adempimento dei contratti, le preferenze, i comportamenti personali e le relazioni interpersonali.
In Cina è realtà, anche se «viene rappresentata in maniera eccessiva» – dice Pieranni. «Il punteggio non sembra riguardare le singole persone, ma le aziende». Si tratterebbe di un processo di classificazione delle imprese, «in base al loro comportamento».
Tuttavia il Paese sembra prediligere il controllo preventivo dell’uomo, ma «il diritto», sottolinea Rossetti,«non può arrivare prima». Uno dei motivi è la presunzione d’innocenza, principio del diritto penale secondo il quale un imputato è considerato non colpevole sino a condanna definitiva, vale a dire, sino all’esito del terzo grado di giudizio emesso dalla Corte Suprema di Cassazione (ndr).
Il sistema che agisce in sinergia con l’uomo, senza sostituirlo, può orientarsi alla prevenzione.
Ascolta: Il Massacro