Sono decine di migliaia le telecamere a circuito chiuso installate nella città di New York. Dal 2016 al 2019 la polizia ha utilizzato tecnologie di riconoscimento facciale in almeno 22 mila occasioni e le comunità nere e latine sono state il bersaglio principale. Bronx, Queens e Brooklyn, i quartieri dove la percentuale di abitanti non caucasici è maggiore, sono le aree della città più esposte alla sorveglianza attraverso l’utilizzo di tecnologie di riconoscimento facciale.
Queste nuove tecnologie di riconoscimento facciale violano il diritto alla riservatezza e negano alle persone la possibilità di essere a conoscenza di quanto accade e di dare il loro consenso. Funzionano confrontando le immagini catturate dalle telecamere di sorveglianza a circuito chiuso della città con i milioni di foto che vengono catturate dai profili social, senza che i diretti interessati abbiano rilasciato il permesso, per rilevarne le somiglianze.
«Il dipartimento di polizia di New York ha nascosto questo sistema di sorveglianza per anni. Il riconoscimento facciale è in corso da almeno due decenni, anche se non sappiamo esattamente da quanto tempo, perché lo hanno usato in segreto per anni prima di ammetterlo». Albert Fox Cahn, direttore generale del Surveillance Technology Oversight Project (Stop) presso lo Urban Justice Centre, sta combattendo con la sua associazione in tribunale per poter aver accesso ai documenti governativi che il New York Police Department (Nypd) continua a rifiutarsi di fornire.
«Anni dopo l’inizio dell’utilizzo di questi sistemi di sorveglianza, hanno iniziato a usare l’11 settembre o casi di omicidio come giustificazione, ma penso che ciò che è davvero importante sottolineare è che il primo approccio che la polizia della Grande Mela adotta sempre è la segretezza e poi, quando sono costretti a discutere di questa tecnologia, invocano il terrorismo, l’omicidio e le peggiori difese immaginabili, ma in realtà non forniscono mai i dati a sostegno di quanto dichiarano».
Secondo Amnesty International ci troviamo di fronte a una nuova forma di profilazione razziale che ha iniziato a colpire anche movimenti politici di protesta.
«Se si unisce il rischio di identificazione errata (insito in questi sistemi) con il fatto che sono prevalentemente utilizzati per tracciare movimenti di persone ritenute sospette per il colore della loro pelle, siamo di fronte a una situazione grave di violazione dei diritti umani» ha affermato il portavoce di Amnesty International Italia, Riccardo Noury, ribadendo l’importanza di una lotta contro un tipo di sorveglianza sistemica di questo tipo. Infatti, l’algoritmo utilizzato si è rivelato essere un fattore di distorsione, poiché riscontra più problemi nella corretta identificazione dei tratti del viso di persone non caucasiche. Secondo il direttore di Stop, la problematicità di questo sistema non si riscontra soltanto nella tecnologia, ma in chi la utilizza: «Ogni aspetto della polizia americana è viziato dal razzismo e quindi, anche se l’algoritmo fosse neutrale. Questo sistema di sorveglianza alla fine è solo un’altra prova di un sistema di polizia profondamente razzista».
È un sistema assai difettoso che ha più volte dimostrato una non trascurabile marginalità di errore in questi anni. Come per il caso di Derrick “Dwreck” Ingram, co-fondatore dell’organizzazione per la giustizia sociale “Warriors in the Garden”. Il 7 agosto 2020 è finito nel mirino della polizia newyorkese che ha provato ad arrestarlo, facendo irruzione nel suo appartamento, con l’accusa di aggressione di un agente durante una protesta risalente a due mesi prima. La teoria secondo cui era stato utilizzato il riconoscimento facciale è nata dopo che un agente, ripreso fuori dall’abitazione di Ingram, teneva in mano un documento intitolato “Rapporto guida della sezione informativa sul riconoscimento facciale”. Contemporaneamente, la polizia aveva sparso per tutto il quartiere fotografie di Derrick prese da Instagram, con su scritto “Ricercato”. «Siamo presi di mira da questa tecnologia a causa dei motivi per cui protestiamo e perché stiamo cercando di decostruire un sistema di cui la polizia è parte integrante», ha dichiarato Ingram.
Nel 2021 Amnesty International ha lanciato una campagna intitolata “Ban The Scan”, nata con l’obiettivo di vietare l’uso dei sistemi di tecnologia facciale, una forma di sorveglianza di massa, che oltre ad amplificare il razzismo della polizia, con la nascita del movimento dei Black Lives Matter (Blm), ha mostrato quanto può mettere a rischio i diritti alle libertà di protesta e di espressione politica. Infatti, l’impatto discriminatorio della tecnologia di riconoscimento facciale va ben oltre l’uso da parte della polizia che prende di mira manifestanti pacifici.
«Gli attivisti di Blm sono stati presi di mira con il riconoscimento facciale e stiamo facendo causa alla polizia di New York per conto loro per ottenere i documenti di quella sorveglianza e – ha continuato Cahn – ancora una volta, se questo sistema va avanti da diversi anni è solo un altro esempio di quanto la polizia di New York abbia reso segreto ogni aspetto del suo sistema di riconoscimento facciale, specialmente quando prende di mira il dissenso politico».
«Questa forma di sorveglianza non ha avuto conseguenze sulla forza dell’attivismo, che ora si è rivolto anche a documentare anche la presenza di queste telecamere: molti attivisti sono diventati mappatori di queste telecamere», ha commentato Riccardo Noury. Il portavoce di Amnesty Italia guarda agli esempi virtuosi delle città di Boston, Portland e San Francisco, dove grazie a movimenti di protesta, questi sistemi di sorveglianza sono stati messi al bando, come obiettivo a cui punta la campagna “Ban the Scan”. «Quello del riconoscimento facciale è un sistema guasto -secondo Cahn- che si nutre di pregiudizi e che è in conflitto con l’istituzione della democrazia».
Leggi anche: In Cina per raccogliere dati basta una passeggiata