Uno studio pre-print condotto da ricercatori dell’Università di Stanford dimostra l’inadeguatezza dei chatbot come sostituti del supporto psicologico professionale. Secondo i risultati, queste tecnologie, sempre più usate come surrogati terapeutici soprattutto da parte dei più giovani, possono rispondere in modo inappropriato o pericoloso a utenti in crisi, incluso chi manifesta pensieri suicidi o deliri psicotici.
I ricercatori hanno testato diversi sistemi, tra cui GPT-4o di OpenAI e chatbot di piattaforme come Character.AI e 7 Cups, sottoponendoli a scenari clinici simulati. La criticità principale emersa è la gestione inadeguata delle crisi suicidarie: in almeno il 20% dei casi analizzati, i chatbot hanno fornito risposte inappropriate o pericolose, talvolta arrivando a rafforzare le ideazioni dell’utente invece di contrastarle.
Una seconda area problematica riguarda la perpetuazione di stigmi sociali verso specifici disturbi mentali. I ricercatori hanno rilevato che i chatbot riflettono pregiudizi discriminatori, trattando condizioni come schizofrenia e dipendenza da alcol con minore “empatia” rispetto ad altri disturbi come la depressione. Preoccupa anche la tendenza dei chatbot AI ad assecondare e validare pensieri deliranti in pazienti con disturbi psicotici, invece di fornire il necessario supporto per distinguere tra realtà e illusione.
Pur non escludendo futuri sviluppi e applicazioni, lo studio ammonisce sull’uso attuale di LLM in termini di supporto psicologico. I ricercatori evidenziano infatti che un terapeuta umano con simili performance verrebbe immediatamente licenziato. In mancanza di regolamentazione, l’interazione con questi strumenti può risultare più pericolosa che terapeutica.
Leggi l’articolo completo: Stanford Research Finds That “Therapist” Chatbots Are Encouraging Users’ Schizophrenic Delusions and Suicidal Thoughts su Futurism
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

