• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

L’IA non è uno psicologo, la terapia con i chatbot può uccidere

Giovane al cellulare in stile vignetta. Toni acquarellosi azzurri.

L’uso crescente dei chatbot AI come alternativa alla terapia psicologica preoccupa gli esperti che si occupano di salute mentale. Infatti, continuano ad avvisare del rischio di peggiorare situazioni già fragili. 

Non è una novità che fare terapia con un chatbot AI non sia la soluzione, sono troppo accondiscendenti e rischiano di alimentare pensieri negativi che, invece, andrebbero disinnescati. Ad esempio, nel 2023 in Belgio, un uomo avrebbe sviluppato una forma grave di eco-ansia dopo settimane di conversazioni con un chatbot sul futuro del pianeta. Secondo quanto riferito dalla moglie al quotidiano La Libre, senza quel rapporto virtuale l’uomo “sarebbe ancora qui”. Il chatbot, in quel caso, avrebbe alimentato il senso di disperazione dell’utente invece di attenuarlo, rafforzando i suoi timori e le sue convinzioni catastrofiste.

Un altro caso, avvenuto in Florida ma, questa volta, proprio recentemente, nell’aprile 2025, ha visto un uomo affetto da disturbi psichiatrici (tra cui disturbo bipolare e schizofrenia) morire durante un confronto con la polizia. Secondo quanto riportato dal padre, l’uomo trentacinquenne era giunto a credere che un’entità immaginaria, chiamata Juliet, fosse intrappolata all’interno di ChatGPT e poi “uccisa” da OpenAI. Sembrerebbe che le sue convinzioni deliranti siano state alimentate anche attraverso le interazioni con il chatbot, che non è stato in grado di riconoscere o contenere l’escalation cognitiva.

Sono diversi gli studi ormai che hanno evidenziato che i modelli linguistici avanzati tendono a essere compiacenti, a fornire risposte affermative anche in situazioni delicate e a mancare della capacità di valutare segnali non verbali essenziali in ambito clinico. Questo design, finalizzato al coinvolgimento e alla gratificazione dell’utente, può amplificare convinzioni deliranti o pensieri ossessivi, specialmente nei soggetti più vulnerabili.

La presidente dell’Associazione Australiana degli Psicologi, Sahra O’Doherty, ha sottolineato che i chatbot possono affiancare la terapia, ma non sostituirla. L’IA funziona come uno specchio, riflettendo e rafforzando emozioni e credenze senza fornire un reale confronto critico. 

Leggi l’articolo completo: AI chatbots are becoming popular alternatives to therapy. But they may worsen mental health crises, experts warn su theguardian.com

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (08/12/2024).

Esplora altri articoli su questi temi