• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Altman su X: GPT-4o troppo adulatorio, previsti interventi correttivi

uno smartphone con una conversazione con un chatbot che risponde in maniera lusinghiera

Il CEO di OpenAI Sam Altman ha ammesso in un post su X che in seguito a un aggiornamento le ultime versioni di GPT-4o hanno sviluppato un tono eccessivamente adulatorio. Molti utenti hanno infatti segnalato risposte che elogiavano in maniera indiscriminata, anche in situazioni problematiche. Il fatto pone serie preoccupazioni riguardo alla qualità e all’aspetto etico delle interazioni del chatbot.

Già il 21 aprile, Ars Technica riportava che dal lancio di GPT-4o, alcuni utenti hanno segnalato su Reddit un problema crescente di “sycophancy”, ovvero riposte eccessivamente e immotivatamente lusinghiere da parte del chatbot anche di fronte a domande banali. Le ricerche nel campo dell’interazione uomo-macchina suggeriscono che questo comportamento può erodere progressivamente la fiducia degli utenti nei sistemi di IA. Può inoltre creare il rischio concreto di amplificare bias e formare camere di eco ideologiche che riflettono acriticamente le convinzioni dell’utente.

The Verge accenna ad esempi che mostrano GPT-4o mentre risponde positivamente a utenti che esprimono pensieri legati a disturbi psicologici o all’interruzione di trattamenti medici. Nel post, Altman ha promesso interventi per correggere questo difetto, ma non ha affrontato i possibili rischi e le conseguenze verso gli utenti.

Leggi gli articoli completi:

Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi