• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Chatbot IA e supporto psicologico, i rischi secondo Stanford

persona seduta da sola su una poltroncina con lo smartphone in mano. Stile disegno acquarello dai toni azzurri e blu.

Uno studio pre-print condotto da ricercatori dell’Università di Stanford dimostra l’inadeguatezza dei chatbot come sostituti del supporto psicologico professionale. Secondo i risultati, queste tecnologie, sempre più usate come surrogati terapeutici soprattutto da parte dei più giovani, possono rispondere in modo inappropriato o pericoloso a utenti in crisi, incluso chi manifesta pensieri suicidi o deliri psicotici.

I ricercatori hanno testato diversi sistemi, tra cui GPT-4o di OpenAI e chatbot di piattaforme come Character.AI e 7 Cups, sottoponendoli a scenari clinici simulati. La criticità principale emersa è la gestione inadeguata delle crisi suicidarie: in almeno il 20% dei casi analizzati, i chatbot hanno fornito risposte inappropriate o pericolose, talvolta arrivando a rafforzare le ideazioni dell’utente invece di contrastarle.

Una seconda area problematica riguarda la perpetuazione di stigmi sociali verso specifici disturbi mentali. I ricercatori hanno rilevato che i chatbot riflettono pregiudizi discriminatori, trattando condizioni come schizofrenia e dipendenza da alcol con minore “empatia” rispetto ad altri disturbi come la depressione. Preoccupa anche la tendenza dei chatbot AI ad assecondare e validare pensieri deliranti in pazienti con disturbi psicotici, invece di fornire il necessario supporto per distinguere tra realtà e illusione.

Pur non escludendo futuri sviluppi e applicazioni, lo studio ammonisce sull’uso attuale di LLM in termini di supporto psicologico. I ricercatori evidenziano infatti che un terapeuta umano con simili performance verrebbe immediatamente licenziato. In mancanza di regolamentazione, l’interazione con questi strumenti può risultare più pericolosa che terapeutica.

Leggi l’articolo completo: Stanford Research Finds That “Therapist” Chatbots Are Encouraging Users’ Schizophrenic Delusions and Suicidal Thoughts su Futurism

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi