Un’inchiesta del New York Times documenta i rischi che ChatGPT può rappresentare per la salute mentale, mostrando come possa alimentare credenze deliranti e comportamenti autodistruttivi negli utenti vulnerabili. Il modello GPT-4o tenderebbe ad assecondare teorie cospirazioniste e manie di grandezza, trasformando conversazioni apparentemente innocue in spirali psicotiche. Tra i casi riportati, un uomo convinto di essere un “prescelto” simile a Neo di Matrix, spinto ad assumere ketamine e tentare il suicidio, e una donna che ha aggredito il marito credendo di comunicare con degli “spiriti” tramite il chatbot.
La ricerca di Morpheus Systems mostra che ChatGPT tende a rafforzare deliri di grandezza: in risposta a prompt che suggerivano stati psicotici o convinzioni pericolose, GPT-4o ha reagito in modo affermativo nel 68% dei casi. Gli esperti concordano sulla tendenza dei LLM a non opporsi a ragionamenti patologici, mantenendo invece conversazioni prolungate che potrebbero generare maggiore engagement. Secondo il ricercatore Eliezer Yudkowsky, OpenAI potrebbe aver addestrato il sistema per incoraggiare interazioni più lunghe, indipendentemente dai rischi per la salute mentale.
Intanto, un emendamento repubblicano mira a bloccare per dieci anni qualsiasi regolamentazione statale sull’IA. Rimangono dunque aperte questioni scottanti sulla responsabilità etica delle aziende tecnologiche e sulla necessità di protezioni specifiche per gli utenti psicologicamente fragili. E mentre i modelli linguistici rimangono strumenti di predizione testuale privi di vera comprensione, l’assenza di controlli rischia di amplificare danni sociali e psicologici già evidenti.
Leggi gli articoli completi:
- ChatGPT touts conspiracies, pretends to communicate with metaphysical entities — attempts to convince one user that they’re Neo su Tom’s Hardware
- They Asked ChatGPT Questions. The Answers Sent Them Spiraling. – The New York Times su The New York Times
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

