L’uso dell’IA Conversazionale in psicoterapia solleva interrogativi sulla natura dell’empatia e sulla qualità della relazione terapeutica.
Chatbot come WoebotHealth e Wysa offrono supporto basato su modelli cognitivo-comportamentali, ma la loro capacità di comprendere il paziente risulta essere piuttosto limitata. Infatti, sembrerebbe non colgano il contesto e le sfumature emotive, operando esclusivamente su analisi testuali.
L’antropomorfismo porta a percepire queste tecnologie come empatiche, ma si tratta di un’illusione che rischia di ridurre la capacità di distinguere tra interazione umana e simulazione. Sebbene l’IA possa migliorare l’accessibilità ai servizi di supporto, la mancanza di una vera alleanza terapeutica e il rischio di risposte inadeguate sollevano dubbi sulla sua affidabilità, soprattutto in casi critici.
Inoltre, l’aspetto commerciale di questi strumenti pone questioni di privacy e sicurezza dei dati. La comunità scientifica riflette su modelli ibridi in cui l’IA affianchi la figura del terapeuta senza sostituirlo, mantenendo il contatto umano come elemento centrale del processo terapeutico.
Leggi l’articolo completo: L’Intelligenza Artificiale in psicoterapia – Tra alleato e simulacro su controversie.blog.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

