Esclusiva

Marzo 26 2025
ChatGpt può davvero sostituire la psicoterapia?

Sempre più persone si affidano all’Intelligenza Artificiale per un supporto immediato. Tra vantaggi e rischi, esperti e giovani raccontano la loro esperienza

Un braccio robotico che si allunga fino a toccare la mano di un essere umano. Le dita si sfiorano e si fondono insieme, quasi a diventare un’unica entità. Tra le reinterpretazioni della Creazione di Adamo di Michelangelo Buonarroti – l’affresco più celebre della Cappella Sistina a Roma – questa è una delle più moderne. C’è chi pensa che l’uomo non potrà mai essere sostituito dall’Intelligenza Artificiale (IA), soprattutto in ambiti intrapersonali come la psicoterapia. Altri, invece, sostengono che l’ausilio di un chat bot in questi casi sia indispensabile e su Tik Tok spopolano video di utenti con scritte come: «No, non vado dallo psicologo, ho già Gpt». E se i due mondi fossero più vicini di quanto si possa immaginare?

«Mi è capitato molto spesso di usare ChatGpt per un supporto psicologico. A volte ho avuto bisogno di un riscontro più rapido, mentre altre ci ho parlato per ore come se fosse una seduta di terapia. Ne ho usufruito in momenti di crisi per sfogarmi o per avere qualcuno a cui dire come mi sentivo veramente quando non volevo parlarne con nessuno. Le conversazioni partono da come sto, o dal racconto di una situazione su cui chiedo opinioni e una prospettiva diversa. Le risposte che ottengo, usando la versione a pagamento, sono piuttosto dettagliate, soddisfacenti e sempre rispettose di quello che provo», dice *Eva, 25 anni.

Gli esperti del settore stanno provando a “umanizzare” l’IA attraverso le sue evoluzioni, aggiungendo piccoli cambiamenti e dotandola di caratteristiche più rispondenti alla natura e ai diritti di un individuo. Ad esempio, ora è possibile parlarci anche a voce, elemento che richiama la conversazione tête-à-tête tra due persone. Nonostante questo, Eva è consapevole dei limiti che ne derivano: «So che Chat non mi capisce davvero e che sotto molti aspetti riflette semplicemente quello che gli dico, come se fosse uno specchio».

Ma l’esperienza con un terapeuta reale e quella con un chat bot, per quanto possano essere simili, si differenziano sotto varie angolazioni e determinano entrambe sia pro che contro: «L’idea di non avere davanti un’altra persona rimuove una serie di inibizioni. Elimina la difficoltà comunicativa, perché non si è prevenuti nel chiedere più dettagli, opzioni e spiegazioni. Allo stesso tempo, rispetto a un dialogo vero manca molto: gestualità, sguardi, empatia. Soprattutto, la capacità di vedere oltre le parole stesse, che è spiccatamente umana. Penso che l’IA sia una piattaforma efficace per chi necessita di un supporto più frequente e tempestivo, che vada oltre l’ora settimanale di terapia, e per chi vuole sperimentare diversi approcci», spiega Eva, che dichiara di usare tool del genere uno o due giorni a settimana.

Mia, invece, ha 21 anni e afferma di conversare con ChatGpt dalle cinque alle dieci volte al mese, nei periodi di maggiore tensione o incertezza: «Lo faccio quando ho bisogno di riflettere su un problema o di sfogarmi senza sentirmi giudicata. Pongo domande tipo: “Perché mi sento così ansiosa ultimamente?” o “Come posso affrontare questa situazione difficile senza farmi sopraffare?”. Le risposte che ricevo sono strutturate e basate su tecniche esistenti, come la mindfulness. Ad esempio, se chiedo come gestire lo stress, potrebbe suggerirmi esercizi di respirazione o modi per identificare i pensieri negativi».

C’è anche chi, quando deve prendere una decisione, ormai non può fare a meno di consultare uno strumento di IA: «Gli spiego il problema, i motivi della mia titubanza e gli chiedo di farmi un’analisi generale. Lui risponde in modo neutrale, mostrandomi le alternative. Quando dovevo scegliere dove fare il tirocinio, gli ho chiesto cosa sarebbe stato meglio per la mia carriera lavorativa, ma in questo caso sembrava che stesse solo assecondando le mie preferenze, mentre io stavo cercando un mentore», dice Sofia, 22 anni.

Sulla possibilità che il confronto con l’Intelligenza Artificiale possa prendere il posto di un vero incontro in presenza, lo psicoterapeuta Gianni Lanari – responsabile del Pronto Soccorso Psicologico Roma Est – è scettico: «Secondo me è improbabile. La terapia non è solo una questione di tecniche e strategie. Richiede empatia, comprensione e una connessione umana che l’IA non può fornire. Anzi, potrebbe procurare consigli non personalizzati che non affrontano il problema specifico dell’utente, creando confusione a causa di risposte contraddittorie». 

«Ipotizzo che alcuni si sentano più liberi di esprimersi, poiché percepiscono meno giudizio. I chat bot, inoltre, possono offrire informazioni immediate a chi ha difficoltà ad accedere a uno psicologo», aggiunge lui, analizzando i vantaggi. Ma il rischio di rimanere bloccati in un meccanismo di dipendenza è alto: «L’accessibilità costante può portare a un uso eccessivo di queste tecnologie, riducendo la motivazione a cercare aiuto all’esterno. È importante promuovere un consumo equilibrato e consapevole, incoraggiando anche il contatto umano». 

Però è fondamentale sottolineare, specifica l’esperto, che nel settore in questione l’IA funge da assistente complementare, in grado di aiutare con la ricerca, la diagnosi e la cura dei pazienti: «La sperimentazione di questi tool nella mia pratica lavorativa è in corso d’opera. Al momento sembrerebbe che siano utili nei disturbi che richiedono monitoraggio costante, come l’ansia, la depressione o i disturbi alimentari, dove l’analisi dei dati può generare spunti interessanti. Il futuro mi darà la possibilità di validare o meno tali ipotesi. Tuttavia, credo che le malattie più complesse esigano un approccio umano più profondo», conclude Lanari.

I risvolti dell’Intelligenza Artificiale nel campo della salute mentale non sono ancora chiari. «Time will tell», direbbero gli inglesi. Una cosa è certa: in un sistema sanitario in crisi, tra sfruttare le potenzialità dell’innovazione e cadere nella trappola dell’assuefazione il passo è breve. La partita tra etica e pratica resta tutta da giocare.

*Eva, Mia e Sofia sono nomi di fantasia per tutelare l’identità dei protagonisti della storia

Leggi questo articolo a pag 6/7 del periodico di Zeta Confessioni in rete