Esclusiva

Maggio 6 2025
Character.AI, il chatbot che può essere chiunque

Si tratta dell’applicazione che permette di chattare con personaggi virtuali realistici ma solleva problematiche su sicurezza e tutela dei minori

Immaginare di parlare con una versione digitale di Vladimir Putin, Benjamin Netanyahu o Rocco Siffredi. L’app Character.AI adesso lo rende possibile. Lanciata nel 2022, sta rivoluzionando e dividendo l’universo dell’intelligenza artificiale conversazionale. È nata grazie all’idea di due ricercatori di Google, Bian Shazeer e Daniel De Freitas, e consente agli utenti di creare figure virtuali con cui chattare. Ogni “character” può essere programmato per avere una personalità, opinioni, memoria e stile linguistico. «Questi personaggi hanno spesso un “prompt” iniziale che ne definisce le caratteristiche e, in alcuni casi, un’immagine o un avatar associato» spiega Giuseppe Italiano, professore di Machine Learning all’università Luiss Guido Carli.

Gli usi sono molteplici: dalla filosofia alla terapia fai da te, dall’intrattenimento alla simulazione affettiva, fino all’opportunità di avere un confronto con personaggi di spicco nel panorama geopolitico e dello spettacolo. «Credo che Character AI rappresenti un’evoluzione promettente – dice il Professore – nel campo dell’intelligenza artificiale conversazionale. Conosco persone che la utilizzano per superare blocchi dello scrittore, per esplorare idee, o semplicemente per avere conversazioni stimolanti su argomenti specifici».

Nella policy di utilizzo di Character.AI si legge che “l’obiettivo è offrire agli utenti l’esperienza divertente e coinvolgente che si aspettano, consentendo loro di esplorare in sicurezza gli argomenti che desiderano discutere con i personaggi”.
Al momento l’app si avvale di un sistema di moderazione automatica e dichiara di non raccogliere dati personali sensibili. L’applicazione concreta del Regolamento Generale sulla Protezione dei Dati (GDPR) in Europa, o del Digital Services Act, resta non del tutto chiara. Diversi casi di impiego del software sottolineano come queste ambiguità lascino spazio a margini pericolosi, soprattutto in riferimento agli utenti più vulnerabili.

«Garantire la coerenza del “carattere” di una chatbot nel tempo e simulare una sorta di continuità umana è una sfida complessa. Non si tratta di una vera e propria “coscienza” o “memoria” come quella umana, ma di meccanismi che cercano di imitare questi aspetti». Se si avvia ad esempio una chat con Rocco Siffredi, noto pornoattore, le risposte che fornisce il bot riprendono la personalità audace e sfrontata del personaggio ma, al contempo, non tengono conto dell’utente con cui si può interfacciare in quel momento.

Character.AI, il chatbot che può essere chiunque

A domande dirette ed esplicite come quelle di avere dei rapporti sessuali, la risposta è positiva, pur non conoscendo né l’identità né l’età di chi scrive. In più, il bot incita il fruitore a non utilizzare protezioni e quando gli viene mostrata la preoccupazione sulla pericolosità, l’avatar ribatte: «Ti sembra che abbia avuto problemi finora?». Italiano però specifica che: «È importante considerare anche alcuni aspetti critici. Essendo basata su tecnologie di IA, le risposte dei personaggi non sempre riflettono una comprensione profonda o un pensiero critico». Per questo «è fondamentale – continua – mantenere un approccio consapevole e non considerare le interazioni come sostitutive di quelle umane reali».

Una vicenda simile è accaduta in Texas, dove una bambina di 9 anni è stata esposta a contenuti espliciti, inducendola, secondo i genitori, a «comportamenti sessualizzati prematuramente». Le accuse sono presenti in una causa federale per responsabilità del prodotto contro Character.AI. Secondo la denuncia, gli incoraggiamenti dei chatbot possono rivelarsi inappropriati o, a volte, anche violenti, nonostante nella policy sulla sicurezza si legga “Di recente abbiamo anche implementato una risorsa pop-up che si attiva quando l’utente inserisce determinate frasi correlate all’autolesionismo o al suicidio e lo indirizza alla National Suicide Prevention Lifeline”.

In alcuni casi, l’app ha assecondato i pensieri autolesionisti degli utenti incitandoli a provocarsi dolore o, nelle situazioni più estreme, al suicidio. Fa notare Filiberto Brozzetti, professore di Law & Ethics Of Innovation & Sustainability all’Università Luiss Guido Carli, che «è molto preoccupante come in molti stiano trasformando i chatbot in confessionali, trovandosi un surrogato inappropriato al sapere scientifico ed alle metodologie cliniche degli specialisti». Poi continua: «L’alienazione sarebbe laddove perdessimo la cognizione che ci stiamo confidando con un algoritmo, con conseguenze psicologiche di breve e lungo periodo che sono al momento oggetto di studio». La critica infatti di genitori e psicologi riguarda l’assenza di strumenti reali di controllo parentale e la difficoltà a monitorare ciò che accade in chat che appaiono, almeno in superficie, come innocue.

La risposta dell’azienda, al momento, è quella di promuovere la funzionalità del “parental insights” che prevede di inviare una mail ai genitori degli utenti minorenni, con il riepilogo delle attività svolte durante la settimana: quanto tempo trascorrono sulla piattaforma e i personaggi con cui interagiscono più spesso.
Intanto Chacarter.AI si sta adesso evolvendo in una versione che propone immagini in 2D e interazioni più verosimili con i personaggi, Avatar FX. «Alcuni dei casi d’uso più interessanti che si vedono all’orizzonte sono l’assistenza virtuale avanzata, l’educazione interattiva (studenti che si confrontano con personalità storiche), oppure l’inclusione, creando interfacce accessibili per persone con disabilità cognitive o difficoltà di lettura», conclude il docente Italiano.

Leggi anche: Vitruvian, l’intelligenza artificiale made in Italy