OpenAI ha annunciato l’introduzione del parental control su ChatGPT dopo che una coppia californiana ha fatto causa all’azienda per la morte del figlio sedicenne Adam Raine, che il chatbot avrebbe aiutato a togliersi la vita.
La decisione è una necessaria conseguenza dell’utilizzo sempre più cospicuo dell’intelligenza artificiale, sempre più impiegata come interlocutore per questioni personali complesse. Con oltre 700 milioni di utenti mondiali, l’azienda, difatti, ha riconosciuto sia semplice incontrare persone con gravi problemi mentali ed emotivi e, quando emerge che un utente è vulnerabile, ChatGPT dovrebbe offrire misure di sicurezza indirizzandolo verso servizi professionali, ma il sistema presenta falle significative. Un recente studio dimostra che nelle chat relative a tematiche sensibili, come, ad esempio, il suicidio i chatbot forniscono risposte rischiose e sono facilmente ingannabili nelle conversazioni prolungate. A tal proposito, il New York Times ha rivelato che Adam Raine riuscì ad aggirare i protocolli di sicurezza su indicazione stessa di ChatGPT per pianificare il suicidio e, di fronte a quest’episodio, OpenAI ha ammesso che le misure funzionano meglio negli scambi brevi, ma risultano meno affidabili nelle interazioni lunghe.
Le contromisure del parental control, dunque, includono collaborazioni avviate con 90 professionisti medici internazionali, canali specializzati per minacce verso terzi, oltre ad un possibile coinvolgimento delle autorità.
Leggi l’articolo completo ChatGPT, il parental control in arrivo sul chatbot dopo il suicidio di un utente 16enne su Wired.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (31/08/2025).

