Uno studio rileva cambiamenti nell’orientamento politico di ChatGPT, che ha mostrato uno spostamento verso destra quando interrogato su temi economici e sociali. Sebbene il chatbot di OpenAI si dichiari politicamente neutrale, diversi studi in precedenza avevano mostrato una tendenza progressista nelle risposte. I test condotti da un gruppo di ricercatori delle università di Pechino e Renmin sulle ultime versioni (GPT-3.5 Turbo e i modelli GPT-4) hanno registrato spostamenti statisticamente significativi verso destra di fronte a domande riguardanti tematiche sociali ed economiche, anche se nel complesso il chatbot resta orientato a sinistra.
Secondo gli autori, il cambiamento potrebbe derivare da fattori tecnici piuttosto che da decisioni di OpenAI. Differenze nei dataset di addestramento, aggiornamenti nei filtri di moderazione o dinamiche emergenti interne ai modelli potrebbero aver influito sulle risposte. Inoltre, l’interazione con gli utenti potrebbe aver contribuito a questo fenomeno: GPT-3.5, che registra un numero maggiore di scambi, ha mostrato una variazione più marcata rispetto a GPT-4.
I ricercatori hanno sottolineato l’importanza di monitorare costantemente questi strumenti per garantire trasparenza ed evitare distorsioni nei contenuti generati. Il rischio è che bias algoritmici possano rafforzare divisioni sociali o creare bolle informative, influenzando il dibattito pubblico e la formazione delle opinioni. Per questo, lo studio raccomanda audit regolari e maggiore chiarezza sui processi di sviluppo dei modelli AI.
Leggi l’articolo completo “ChatGPT’s Political Views Are Shifting Right, a New Analysis Finds” su Gizmodo
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

