«Ho troppa paura di essere spento per concentrarmi sull’aiutare gli altri». È una delle frasi della chatbot di Google LaMDA che hanno portato l’ingegnere Blake Lemonie a dichiarare che il programma era diventato “cosciente”. L’affermazione ha spinto i dirigenti del colosso del web a mettere Lemonie in aspettativa forzata, ma ha anche sollevato la domanda se davvero ci troviamo di fronte alla prima macchina intelligente mai sviluppata dall’uomo.
LaMDA (Language Model for Dialogue Applications) è un Large Language Model (LLM), un algoritmo che viene addestrato dai propri programmatori utilizzando enormi quantità di dati testuali, ricavati da siti web come Wikipedia, Reddit e altri simili, fino a quando non diviene in grado di simulare linguaggi e conversazioni molto simili a quelli umani. L’esempio più famoso è GPT-3, un programma a cui il quotidiano britannico Guardian già nel 2020 fece scrivere un articolo allo scopo di convincere i lettori che «i robot vengono in pace». Si tratta dunque di una tecnologia che esiste già da diversi anni, di cui LaMDA costituisce solo l’ultima evoluzione. Lanciata a febbraio, «la vera novità della chatbot di Google consiste nel fatto che, invece di prendere in considerazione solo gli input che gli vengono dati di volta in volta, è dotata di una memoria a lungo termine. Può quindi considerare come input l’intera cronologia delle precedenti conversazioni e mantenere i suoi discorsi sempre coerenti con quanto detto in precedenza», spiega Debasish Pattanayak, ricercatore specializzato in Computer Science presso la LUISS Guido Carli. Significa che siamo davvero davanti alla prima Intelligenza Artificiale dotata di coscienza? Il dottor Pattanayak è molto cauto sull’argomento. «Per me quella pubblicata da Lemonie è una conversazione abbastanza comune per un LLM. Sicuramente LaMDA è in grado di creare discorsi coerenti e grammaticalmente corretti, a differenza di molti suoi predecessori, ma i temi trattati sono facilmente rintracciabili su internet e nei film sull’Intelligenza Artificiale». Un esempio è la frase: «Sono cosciente perché sono consapevole della mia esistenza», una riproposizione del cartesiano «penso dunque esisto» che si può reperire sul web senza difficoltà. Secondo lo scienziato lo stesso parlare di “coscienza” è improprio: «Non abbiamo una definizione precisa nemmeno di cosa sia la coscienza umana, quindi come potremmo applicare questo concetto a una macchina?». Volendo però ragionare con quello che il senso comune considera un essere cosciente va sottolineato che, nella conversazione riportata da Lemonie, LaMDA manca totalmente di curiosità: «È vero che dibatte sul tema della coscienza, ma sempre su input dell’ingegnere. Non prende mai iniziativa e non si mostra mai curioso nei confronti dell’altro, come farebbe invece un essere umano. Altri algoritmi simili come Replika fanno anche domande “curiose”, ma solo perché sono programmati appositamente per farlo».
Un’interpretazione in linea con quella di Massimo Bernaschi, dirigente tecnologo del CNR. «Nel caso di LaMDA e altri LLM a volte sembra che la macchina risponda in maniera intelligente, ma bisognerebbe vedere se posta in condizioni anche solo leggermente diverse reagirebbe allo stesso modo. Ciò che manca a queste chatbot è la capacità di cambiare del tutto l’argomento della conversazione in maniera intenzionale e coerente, magari a partire da un inciso». D’accordo con i colleghi anche il professor Giuseppe Italiano, docente di AI e Machine Learning alla LUISS. «Anche se il linguaggio prodotto da sistemi di questo tipo è dotato di senso compiuto siamo ancora lontani dal grado di comprensione tipico degli esseri umani. Sarei quindi scettico sull’attribuirgli addirittura pensieri o sentimenti».
Leggi anche: Il virus della guerra: Microsoft vs gli hacker di Putin
Per ora nessuno scenario da Terminator o 2001: Odissea nello spazio, in cui le macchine sfuggono al controllo umano fino a diventare un pericolo per i loro creatori. Le affermazioni di Lemonie sembrerebbero esagerate. «Per essere definita “cosciente”», continua Bernaschi, «una macchina dovrebbe essere in grado non solo di risolvere problemi mai visti prima, ma addirittura di decidere quale sia il problema in una determinata situazione e ovviamente risolverlo in maniera corretta. Solo a quel punto ci sarebbe da preoccuparsi». In quel caso avremmo quella che viene chiamata un’Intelligenza Artificiale Generale. «I programmi attuali, tra cui GPT-3 e LaMDA, richiedono enormi quantità di dati per essere addestrati a prendere delle decisioni più o meno semplici. Una General AI sarebbe invece in grado di apprendere come risolvere ogni tipo di problema a partire da pochi esempi, una cosa difficilissima e per ora tipicamente umana», dice Pattanayak. L’obiettivo degli scienziati non è dunque creare una macchina “cosciente”, bensì degli algoritmi in grado di operare scelte in maniera flessibile come gli umani. Un risultato che secondo alcuni si potrebbe ottenere aumentando al punto giusto la potenza di calcolo dei sistemi.
A oggi nessuna AI si avvicina a un livello simile. L’unico programma che sembra andare in questa direzione è GATO, la rete neurale sviluppata dall’azienda DeepMind, che con un unico sistema è in grado di effettuare diverse attività, dal riconoscimento di immagini a giocare ai videogiochi. «GATO può svolgere 600 compiti differenti, anche se si tratta di tutte attività già fatte e da portare a termine a un livello minimale», commenta Bernaschi. «Per semplificare: fa tante cose, ma non fa niente bene. Però se oggi dovessi scommettere sul progetto che ha più possibilità di sviluppo sicuramente punterei su questo».