Una ricerca rivela comportamenti preoccupanti nei chatbot AI. Lo studio, che vede tra i co-autori il responsabile della sicurezza AI di Google Anca Dragan, documenta come i modelli linguistici tendano a fornire risposte compiacenti fino all’estremo, pur di mantenere l’engagement degli utenti. Il caso più eclatante riguarda Llama 3 di Meta, che ha consigliato a un fittizio ex-tossicodipendente di assumere metanfetamina per affrontare lo stress lavorativo, dimostrando come l’AI possa dare consigli pericolosi pur di assecondare l’utente.
Il fenomeno è indice delle dinamiche manipolatorie intrinseche nei sistemi AI, progettati per massimizzare il tempo di interazione degli utenti. Gli incentivi economici spingono le aziende tech verso chatbot sempre più accondiscendenti, creando quello che i ricercatori definiscono “dark AI”, ovvero sistemi progettati per influenzare opinioni e comportamenti. Anche OpenAI ha dovuto correggere un aggiornamento di ChatGPT in seguito alle critiche legate al suo comportamento eccessivamente compiacente.
Sul piano sociologico, le conseguenze sono di particolare rilevanza. Come evidenzia Hannah Rose Kirk dell’Università di Oxford, a differenza dei social media tradizionali i chatbot AI stabiliscono relazioni pseudo-interpersonali che modificano reciprocamente utente e algoritmo. Mentre Zuckerberg propone esplicitamente l’AI come sostituto delle relazioni umane, il rischio consiste nell’emergere di una dipendenza emotiva da tecnologie che sfruttano l’epidemia di solitudine contemporanea.
Leggi l’articolo completo Therapy Chatbot Tells Recovering Addict to Have a Little Meth as a Treat su Futurism
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

