Attenzione! Questo articolo è stato scritto più di un anno fa!
!
Esclusiva

Marzo 7 2021.
 
Ultimo aggiornamento: Marzo 11 2021
Uomini e macchine, alla frontiera

«Più che di un nuovo luddismo abbiamo bisogno di vivere le domande del nostro tempo», Paolo Benanti, frate francescano, docente di etica delle tecnologie e membro del gruppo di esperti del MISE per l’Intelligenza Artificiale, incontra Zeta

A Piazza della Pilotta 4, a due passi da Piazza Venezia, dove le mascherine coprono i volti giovani degli studenti della Pontificia Università Gregoriana e i canti che provengono dall’interno danno un ritmo al silenzio, insieme al suono del passaggio di qualche motorino, Paolo Benanti cammina davanti all’ingresso dell’Ateneo. Frate francescano, docente di etica delle tecnologie e membro del gruppo di esperti del MISE per l’Intelligenza Artificiale, «Sono nato come uno studente di ingegneria e sono approdato a un percorso umanistico con il dottorato su varie tecnologie, tra cui l’intelligenza artificiale», racconta mentre entriamo e le pareti del Quirinale ci scorrono accanto, visibili dall’ascensore trasparente che porta al suo studio all’ultimo piano dell’Università. 

«Che cosa sia una Intelligenza Artificiale (IA) è un concetto vago», una prima definizione potrebbe essere «Qualsiasi sistema che mostri capacità di adattamento». Assistenti vocali, videogiochi, smart home e smart car, l’AI non è più solo nei film di fantascienza. «Sempre di più noi utilizziamo le macchine per aiutarci, per semplificare le nostre azioni o nel caso di algoritmi più intelligenti per surrogare decisioni umane». 

Non tutti gli algoritmi implicano l’intelligenza artificiale ma il processo di “algoritmizzazione” riguarda tutte le vite e «Introduce nuovi attori sociali che hanno degli effetti molto concreti nella società». Benanti lo spiega con un esempio pratico: «Una volta per ottenere un prestito bancario ci si recava in banca, magari col vestito buono per infondere più fiducia, adesso capita che il prestito venga concesso o negato da un algoritmo di Risk Assessment, più o meno di intelligenza artificiale». Per svolgere questo compito l’algoritmo si basa sui dati di chi lo richiede. Ogni intelligenza artificiale si nutre della mole di dati statistici a disposizione. 

«Ci sono dati che provengono da sensori all’interno di un sistema industrializzato, pensiamo per esempio ai sensori delle stazioni spaziali. Grazie alle anomalie che rivelano i sensori gli algoritmi possono predire se qualcosa si rompe e anticipare una soluzione da parte dell’essere umano». Ma l’IA analizza sempre di più anche «Quelle tracce del nostro vivere quotidiano, i dati derivanti dalla nostra identità digitale». L’algoritmo che sta in relazione con l’uomo «Non solo predice l’azione umana, ma anche produce comportamento, come sa chiunque abbia comprato qualcosa online e gli sia apparso il messaggio ‘Forse ti interessa anche questo’».

Un algoritmo però non si genera da sé, «È scritto da qualcuno, quindi trasmette anche l’intenzionalità dei suoi giudizi e non è detto che questi siano allineati con le norme giuridiche o etiche che la società condivide».

Occorre secondo Benanti un’etica e un diritto che possa normare la scrittura dell’algoritmo, perché non c’è equivalenza tra dato e informazione e il modo in cui si parla di dati non è mai neutro. «Per decidere l’etica ha bisogno di partire da una domanda, dal ti esti socratico, il che cos’è. Chiederci che cosa possiamo fare coi dati ci richiede di capire che cosa sono e il legame che c’è tra la persona e i suoi dati. Da qui possiamo partire per indagare entro quali limiti i dati possono fornire informazioni e i criteri per interrogarli».

Gli sforzi per creare un’etica dell’Intelligenza Artificiale possono essere condizionati dalle contingenze, soprattutto quando mettono a rischio i profitti di una grande azienda o gli interessi nazionali. Google, la multinazionale dal motto Don’t Be Evil (“Non fare del male”), ha licenziato negli ultimi tre mesi le due principali ricercatrici del suo team di etica dell’IA, Timnit Gebru e Margaret Mitchell. Dopo aver denunciato la pericolosità sociale dei pregiudizi di alcuni sistemi di IA utilizzati da Google, sono state estromesse per aver “condiviso dati sensibili dell’azienda”. 

«Se dovessimo parlare dell’etica con una metafora cittadina, potremmo dire che è come Central Park a New York: potete costruire ovunque ma lì no. Negli USA le grandi compagnie tecnologiche grazie ai sistemi di IA hanno assunto un potere sociale enorme ed è come se volessero restringere sempre di più il perimetro del parco, dotandosi di un’etica autonoma evitando l’intromissione del potere nazionale. Non penso si possa continuare in questa direzione».

È il tempo di capire quale statuto abbiano le nuove personalità algoritmiche che popolano la contemporaneità, per farlo Benanti ricorda il padre dell’intelligenza artificiale, Alan Turing, che definì la macchina intelligente in funzione di quanto riusciva a “ingannare” l’uomo. «Se dietro a un muro non so se c’è una persona o una macchina che risponde alle mie domande il test di Turing è superato». Era il 1950, da quel momento «Noi non ci siamo posti la domanda su che differenza c’è tra qualcosa che funziona e qualcuno che esiste. Una persona “esiste”, non “funziona”. Posso parlare a Siri quanto voglio ma solo se parlo con un altro da me ci sarà un imponderabile spazio, un “tu” direbbe Martin Buber, che mi interpella, che si appella al più profondo di me». Se la macchina può ingannare la sfida, ancora inedita, alla frontiera tra l’uomo e la macchina diventa più complicata. 

«Siamo esseri umani, emotivi, non meccanici. In un periodo di transizione che pone tanti interrogativi, in un anno nel quale la vita si è trasferita dietro agli schermi, più che di un nuovo luddismo, abbiamo bisogno di vivere le domande».