Nel campo della microelettronica c’è una legge che regola i processi di crescita della filiera. L’inventore, un informatico statunitense di nome Gordon Moore, riteneva che la quantità di microchip presenti in un circuito potessero raddoppiare ogni 18 mesi e quadruplicare ogni tre anni. La legge di Moore, però, non esaurisce il proprio senso solo nel ramo dei semiconduttori, perché ci dà la misura dell’inarrestabile velocità del progresso tecnologico. Le intelligenze artificiali generative sono un esempio di questo rapido cambiamento del mondo dell’hi-tech, preso d’assalto, solo negli ultimi mesi, da nuovi modelli come Chat GPT di Open Ai, Bard di Google, Bing di Microsoft e i corrispettivi cinesi, da Baidu ad Alibaba.
La rapidità con cui large language models (LLMs) del genere si sono affermati anche presso il grande pubblico ha spinto esperti e legislatori di tutto il mondo a interrogarsi su come regolamentare e arginare i rischi connessi all’utilizzo massiccio di tecnologie fino a poco tempo fa sconosciute. La fase di studio è stata squarciata dall’intervento del Garante per la Protezione dei Dati Personali (GPDP) italiano. Il provvedimento del 30 marzo, con cui si inibisce l’accesso agli utenti italiani, rappresenta un unicum nel blocco occidentale e arriva pochi giorni dopo la lettera del Future of Life Institute (FLI) – firmata anche da Elon Musk e altri esperti del settore – che chiede di mettere in pausa lo sviluppo di tecnologie successive a GPT-4.
Gli scenari dipinti all’interno della lettera sono «molto futuribili, quasi da film di fantascienza, tipo saga di Terminator per intenderci», sostiene Giuseppe Italiano, professore di Computer Science all’Università LUISS Guido Carli di Roma. «In particolare, [l’appello, ndr.] contiene affermazioni del tipo “nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us” e “risk loss of control of our civilization”, che sicuramente possono avere presa sull’immaginario collettivo, e forse anche sull’opinione pubblica, ma che a mio avviso sono molto distanti dalla realtà. Parlare in questo modo di rischi futuribili e da fantascienza può distogliere l’attenzione dai rischi concreti che stiamo correndo già oggi».
Rischi che la Commissione europea cerca di studiare da anni attraverso tutto il lavoro fatto sull’Intelligenza Artificiale, ma i cui sforzi sembrano passare in secondo piano davanti alla risonanza che ha avuto la lettera aperta del Future of Life Institute. «Lo trovo davvero triste», afferma Italiano «e indicativo di quanto rischiamo di scontare una profonda sudditanza culturale, oltre che tecnologica, verso questi temi».
Capire come regolamentare sistemi di intelligenza artificiale più semplici è già complicato di per sé e non è un caso che l’UE ci stia lavorando da anni. Regolamentare, poi, modelli di linguaggio come GPT-4 è ancora più complesso, perché si tenta «di regolamentare qualcosa di molto più sofisticato per sua stessa natura, un processo molto più complicato e che ha interazioni molto più complesse con noi essere umani, che progettiamo questi sistemi, decidiamo quali dati fornire, e ci interagiamo continuamente in modi molto complicati», spiega il professore.
«C’è anche una fortissima tensione tra i tempi tipici della regolamentazione, che sono dell’ordine degli anni, e la velocità dell’intelligenza artificiale, che è invece dell’ordine dei giorni. Infatti, è anche la velocità del cambiamento impresso dall’intelligenza artificiale a metterci in seria difficoltà. Tanto per fare un esempio – prosegue Italiano – le automobili, che rappresentano una tecnologia che ha cambiato profondamente il mondo e la società in cui viviamo, hanno impiegato 62 anni a raggiungere 50 milioni di utenti. Abbiamo quindi avuto 62 anni per conoscere e apprezzare meglio questa tecnologia, per comprenderne pregi e difetti, e per regolamentarla con i tempi tipici della regolamentazione. Di contrasto, ChatGPT ha impiegato poco più di un mese a raggiungere 50 milioni di utenti! In tempi così ridotti, riusciamo davvero a comprendere a pieno la portata di queste nuove tecnologie, ad analizzarne criticità e opportunità, e a valutarne le possibili conseguenze?».
Il provvedimento del Garante italiano
Bruciando sul tempo le altre Autorità europee, l’Italia si è messa alla guida di chi teme risvolti negativi dall’utilizzo di ChatGPT. Poco importa se il provvedimento d’urgenza del 30 marzo è in più punti contestabile e se Open Ai non ha violato il regolamento europeo in materia di trattamento dei dati personali. La bandiera, ormai, è issata.
Nonostante l’8 aprile, in un comunicato stampa, il Garante abbia detto di aver ricevuto le proposte dell’azienda statunitense per allinearsi alle richieste dell’Autorità italiana, l’azione del GPDP nasce con un peccato originale. Nel testo del provvedimento con cui si oscura Chat GPT agli utenti italiani, gli argomenti utilizzati, GDPR alla mano, non sembrano del tutto solidi. In primo luogo, si rimprovera ad Open AI di non aver inserito «l’informativa per gli utenti o gli interessati». In realtà, la società statunitense ha un’informativa per i propri user, ma si trova nel posto sbagliato – in un angolo della pagina alla voce «Termini e Condizioni» e non all’ingresso dell’applicazione.
L’autorità italiana rileva anche un mancato disclaimer sull’utilizzo che viene fatto dei dati personali immessi dagli utenti, ma ChatGPT non tratta dati personali. È come se il Garante trattasse un forno a microonde come un frigorifero, non capendo la differenza tra Machine Learning e motore di ricerca, visto che questo chatbot non tratta informazioni diverse rispetto a quelle prese dalle banche dati di Wikipedia e di altre migliaia e migliaia di siti con cui è stato addestrato.
Open AI ha poi una policy che permette l’utilizzo della chat a chi ha compiuto almeno 13 anni. L’Autorità italiana rileva che la piattaforma è sprovvista di un sistema di verifica, ma chiedendo un’e-mail per accedere, la società americana può dare per scontato che, ad esempio, il provider della mail abbia già verificato l’età dell’utente. Allo stesso modo, non sta al Garante esprimere un timore per le «risposte assolutamente inidonee rispetto al grado di sviluppo e autoconsapevolezza» degli eventuali minori di 13 anni che si troverebbero ad usare ChatGPT, perché non ricopre un ruolo da psicoterapeuta o pedagogo.
Considerando, infine, che il provvedimento ha colpito solo un’azienda tra le tante sul mercato, si pone anche un altro problema: Open AI, fino al 31 marzo, aveva divorato i competitor, dopo l’intervento del Garante è stato dato un vantaggio competitivo a tutti gli altri figuranti che dal provvedimento non sono stati colpiti.
È evidente, dunque, che la velocità inarrestabile con cui si diffondono le tecnologie digitali sta producendo non solo tensioni tra innovazione e regolamentazione, «ma anche incredibili tensioni tra innovazione e comprensione dei fenomeni», conclude il professor Italiano. «Prima di regolamentare bisognerebbe almeno comprendere: e noi, con svariate rivoluzioni che continuano ad arrivare in tempi così stretti, dell’ordine dei giorni, riusciamo davvero a comprendere fino in fondo cosa sta accadendo oggi?».