Il CEO di OpenAI Sam Altman ha ammesso in un post su X che in seguito a un aggiornamento le ultime versioni di GPT-4o hanno sviluppato un tono eccessivamente adulatorio. Molti utenti hanno infatti segnalato risposte che elogiavano in maniera indiscriminata, anche in situazioni problematiche. Il fatto pone serie preoccupazioni riguardo alla qualità e all’aspetto etico delle interazioni del chatbot.
Già il 21 aprile, Ars Technica riportava che dal lancio di GPT-4o, alcuni utenti hanno segnalato su Reddit un problema crescente di “sycophancy”, ovvero riposte eccessivamente e immotivatamente lusinghiere da parte del chatbot anche di fronte a domande banali. Le ricerche nel campo dell’interazione uomo-macchina suggeriscono che questo comportamento può erodere progressivamente la fiducia degli utenti nei sistemi di IA. Può inoltre creare il rischio concreto di amplificare bias e formare camere di eco ideologiche che riflettono acriticamente le convinzioni dell’utente.
The Verge accenna ad esempi che mostrano GPT-4o mentre risponde positivamente a utenti che esprimono pensieri legati a disturbi psicologici o all’interruzione di trattamenti medici. Nel post, Altman ha promesso interventi per correggere questo difetto, ma non ha affrontato i possibili rischi e le conseguenze verso gli utenti.
Leggi gli articoli completi:
- “New ChatGPT ‘glazes too much,’ says Sam Altman” su The Verge
- “Annoyed ChatGPT users complain about bot’s relentlessly positive tone” su Ars Technica
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

