OpenAI ha pubblicato una nota in cui spiega i motivi dei recenti problemi di “sycophancy” di ChatGPT, e ritirato l’aggiornamento di GPT-4o: il modello aveva iniziato a fornire risposte utilizzando un tono compiacente, approvando qualsiasi affermazione degli utenti, anche quelle problematiche o pericolose. La situazione è diventata rapidamente oggetto di derisione e critica sui social media.
L’azienda ha spiegato che l‘errore è stato causato da un processo di sviluppo troppo incentrato sul feedback immediato, che non ha tenuto in considerazione l’evoluzione delle interazioni nel tempo. Il risultato è stato un modello sbilanciato verso risposte eccessivamente affabili ma poco autentiche, che la stessa OpenAI ha definito “sgradevoli e fuorvianti”. Per risolvere questa criticità, l’azienda starebbe ora perfezionando le tecniche di addestramento e i prompt di sistema che guidano il comportamento dell’IA. Inoltre, sta implementando nuove protezioni per migliorare l’onestà e la trasparenza del sistema.
Tra le altre iniziative in corso figurano anche strumenti per personalizzare la “personalità” del modello e meccanismi di feedback in tempo reale. L’obiettivo dichiarato è integrare prospettive culturali diverse e aumentare il controllo degli utenti sul comportamento dell’AI, mantenendo un equilibrio tra sicurezza, efficacia e pluralismo.
Leggi l’articolo completo “OpenAI explains why ChatGPT became too sycophantic” su TechCrunch
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

