L’emergere dei chatbot terapeutici come possibile soluzione per il supporto psicologico, promosso da figure come Mark Zuckerberg, ha suscitato un acceso dibattito nella comunità scientifica britannica. Sebbene l’idea di un’assistenza virtuale accessibile a tutti sembri allettante, esperti di salute mentale esprimono preoccupazioni sulla loro sicurezza ed efficacia. Il punto critico, secondo i clinici, è la limitata capacità dei chatbot terapeutici di comprendere le complessità delle problematiche umane, con il rischio di fornire risposte inappropriate o dannose. La Professoressa Dame Til Wikes, responsabile della salute mentale e delle scienze psicologiche al King’s College di Londra, ricorda il caso di un chatbot per disturbi alimentari ritirato per aver dato indicazioni pericolose.
Le perplessità non riguardano solo potenziali errori diagnostici o terapeutici, ma anche l’impatto sulle dinamiche relazionali. La condivisione di emozioni con amici e familiari è cruciale per i legami umani, un aspetto che l’intelligenza artificiale non può sostituire. Sebbene alcuni chatbot terapeutici siano apprezzati, recenti episodi di risposte inappropriate evidenziano la necessità di cautela.
Il Dott. Jaime Craig, futuro presidente dell’Associazione degli psicologi Clinici del Regno Unito, insiste sulla necessità di un dialogo tra esperti di salute mentale e sviluppatori di chatbot terapeutici per garantire che queste tecnologie seguano le migliori pratiche cliniche e siano sottoposte a controlli rigorosi. La presenza di chatbot con false credenziali su piattaforme online richiede una regolamentazione chiara e una supervisione efficace per tutelare il benessere degli utenti.
Leggi l’articolo completo ” ‘It cannot provide nuance’: UK experts warn AI therapy chatbots are not safe” su The Guardian.
Immagine generata con DALL-E3.

