Per il primo avvocato virtuale il martelletto non batte. Joshua Browder, CEO di DoNotPay, ha comunicato di dover posticipare l’ingresso nei tribunali della loro intelligenza artificiale, attesa in aula per il 22 febbraio. A determinare il ritardo le minacce ricevute da Browder da parte delle associazioni di procuratori statunitensi. “Tante di loro ci hanno minacciato. Una ha persino affermato che sarebbe stato possibile un rinvio all’ufficio del procuratore e il carcere sarebbe stato un’eventualità concreta”, ha scritto su Twitter.
Il progetto, fondato nel 2015, ha lo scopo di rendere la difesa da parte di un avvocato accessibile e universale per chiunque. Durante il processo la chatbot sarebbe in grado di ascoltare le parole della corte e suggerire all’imputato le giuste risposte. Nei primi due anni di attività, DoNotPay è riuscita a contestare 160 mila multe e a rendere più facile e conveniente la possibilità di denunciare qualcuno attraverso la loro app.
La notizia dell’approdo di DoNotPay e della loro chatbot di fronte a un vero giudice ha riempito le pagine dei giornali italiani nella prima metà di gennaio. Proprio in quei giorni Browder gettava in pasto al pubblico una richiesta stravagante. Un milione di dollari a qualsiasi avvocato impegnato in una causa alla Corte Suprema per farsi sostituire dall’intelligenza artificiale.
Poi lo stop. “Non c’è alcun avvocato che salterà fuori dal letto per aiutare per un risarcimento di 400 dollari. Per quanto ami sperimentare, devo rimanere fuori di prigione per poter combattere Comcast – la multinazionale contro cui si sarebbe scontrata la chatbot-”, ha scritto sempre Browder. L’imprenditore non ha però specificato quali capi d’accusa gli sarebbero stati contestati.
Sentito dal giornale statunitense Semafor, il creatore di DoNotPay ha però messo in luce alcuni problemi del progetto. “Il modo in cui parla non va bene per un’aula di tribunale”, dice Browder. “Nel nostro scontro con Comcast, inventa fatti ed esagera. Dal punto di vista della responsabilità, è un incubo”.
A spaventare gli esperti dell’ingresso dell’intelligenza artificiale in certi ambienti lavorativi è quello che viene chiamato “bias di automazione”. Secondo le ricerche, gli esseri umani tenderebbero a preferire la decisione di una macchina piuttosto che la propria, anche ignorando elementi contraddittori. Un problema che, dalle sale dei programmatori, si diffonde fino al terreno di scontro in Ucraina. Infatti entrambi i fronti opposti avrebbero dichiarato di avere a disposizione droni in grado di prendere decisioni in autonomia. Proprio nel momento della scelta, secondo Ingvild Bode, professoressa della University of Southern Denmark, “c’è sempre un operatore ad autorizzare l’uso della forza. Se il sistema dice: ‘Ok, questo bersaglio dovrebbe essere attaccato’, su quale base l’operatore può decidere di dubitare del comando?”.
Per l’analista, sotto il fuoco nemico della guerra o dei tribunali, il pilota, militare o giudice che sia, corre il rischio di considerare il comando della macchina meno come un consiglio e più come un segnale infallibile.
Le immagini presenti all’interno dell’articolo sono state realizzate da Midjourney ©