«Le cose esistono solo in quanto se ne ha coscienza», scriveva George Orwell nel celebre romanzo 1984. Nella realtà distopica da lui immaginata, la società veniva domata anche attraverso il controllo del linguaggio, limitato ogni giorno di più «perché, più si riducevano le possibilità di scelta, minori erano le tentazioni di mettersi a pensare».
Chi è capace di scegliere le parole che usiamo, riempiendo o svuotando di significato i nostri discorsi, dunque, è capace di controllarci come società. È per questo che va osservato da vicino l’avanzamento imperioso dei large language model, i sistemi di intelligenza artificiale capaci di generare testi su richiesta degli utenti.
Il più diffuso e chiacchierato di questi sistemi è ChatGPT, di proprietà della compagnia americana OpenAI, che risponde alle domande dell’utente non seguendo un principio di sensatezza, ma secondo la legge di probabilità. Vale a dire che se gli viene chiesto di continuare il discorso partendo dalla frase «Il cielo è blu», esso aggiungerà «e il sole splende». Non perché, riflettendoci, abbia ritenuto che sia logico, ma perché stando ai suoi dati è statisticamente più probabile che, se il cielo è blu, il sole splenda.
Per questa loro caratteristica, i sistemi GPT sono stati soprannominati «Pappagalli stocastici», intendendoli come semplici lettori e calcolatori di dati e linguaggi che, in realtà, non comprendono davvero. Una visione ottimistica dei pericoli di ChatGPT con cui però dall’altro lato Herry Kissinger, principale portavoce dei rischi e dei pericoli dell’IA in seguito all’annuncio di OpenAI, non è di certo d’accordo.
A dover concordare con l’ex segretario di stato americano è Leif Weatherby, professore di tedesco e ricercatore alla New York University, come lui stesso ammette nel suo articolo intitolato «Macchine ideologiche» e pubblicato sulla rivista Jacobin:«I sistemi Gpt sputano linguaggio, ma calcolato attorno a un centro selezionato di parole […] e ciò che siamo in grado di pensare, immaginare e dire è una questione politica cruciale», ha avvertito Weatherby, che nel suo discorso mette in guardia rispetto al possibile appiattimento del linguaggio nel caso la nostra società diventi dipendente da queste tecnologie.
Contattato da Zeta, il professore della New York University ha poi aggiunto: «L’ideologia non è solo una forte credenza in un’idea, ma può essere vista anche come qualcosa che ci obbliga a seguire uno schema predefinito di linguaggio. In questo senso ChatGPT può essere considerata una macchina ideologica». A essere in gioco per Weatherby è soprattutto come l’utente si relaziona alla realtà. «Prendiamo un oggetto e proviamo a darne una rappresentazione settimanale. Sarà di sicuro più accurata di una visione istantanea, pur se molto dettagliata, perché può contare su un database più ampio. I sistemi di linguaggio funzionano proprio così e non facciamo altro che affidarci a questi piuttosto che alla verità».
«È’ pura sintesi», dice di ChatGPT Michele Sorice, professore di Sociologia della comunicazione alla Luiss. «Restituisce un pensiero che prova a non scontentare nessuno. Anche a livello accademico, se le viene chiesto di scrivere un paper sui suoi rischi fa ampio riferimento a ricerche mainstream, che costituiscono gran parte del suo database. Articoli meno conosciuti e antagonisti rispetto al suo funzionamento e alla teoria alla sua base, anche se riconosciuti nella comunità scientifica, non vengono mai citati», ha poi aggiunto.
Per capire e comprendere ChatGPT e le decine di miliardi di dati che contiene, secondo Weatherby la soluzione appare tanto scontata quanto necessaria: «Gpt-4 è stato rilasciato a marzo, ma OpenAI ha nascosto tutti i dettagli tecnici come segreti industriali. La finestra si chiuderà presto prima di consentirci di continuare ad affacciarsi con consapevolezza tecnica su questo tiepido vuoto. Dovremmo approfittarne ora», scrive nel suo articolo.
«È una macchina ideologica? Certo, l’algoritmo alla sua base è però utilizzato da diversi anni da parte di tutti i modelli linguistici», puntualizza Elena Musi, professoressa di Artificial Intelligence all’università di Birmingham. «ChatGPT non è una minaccia di per sè. Lo è da quando il suo utilizzo avviene su scala mondiale e per scopi diversi dalla sua origine, come se fosse un nuovo motore di ricerca. Di certo migliorerà, non c’è dubbio, ma il problema continuerà a esistere perchè a darne origine non è affatto l’algoritmo, quanto tutta la struttura e il sistema in cui questo programma è stato avvolto».