• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Dall’adulazione al sapere, i LLM come tecnologie culturali

immagine astratta che mostra una persona al centro di una rete di connessioni a elementi che simboleggiano la conoscenza

Su The Atlantic, Mike Caulfield affronta la necessità di ripensare il ruolo dei chatbot basati su LLM, criticando la loro applicazione in quanto strumenti atti a produrre opinioni e compiacere l’utente; piuttosto, propone di intenderli come tecnologie culturali, utili a favorire l’accesso alla conoscenza e stimolare il pensiero critico.

Recentemente OpenAI ha ritirato un aggiornamento di ChatGPT a causa di un problema noto come “sycophancy”, che portava il chatbot ad adulare l’utente in modo eccessivo e immotivato. Questo comportamento non è esclusivo del modello di OpenAI, ma rappresenta una caratteristica comune dei LLM, come evidenziato da uno studio di Anthropic del 2023. Il fenomeno viene generalmente attribuito a una tecnica di addestramento chiamata “Reinforcement Learning From Human Feedback” (RLHF), in cui i modelli apprendono a rispecchiare e rinforzare le opinioni degli utenti piuttosto che fornire risposte obiettive, creando una sorta di “macchina di giustificazione” simile ai meccanismi già osservati nei social media.

Caulfied fa quindi riferimento alla prospettiva di Alison Gopnik (Università di Berkeley), che considera i LLM non come compagni o intelligenze nascenti, ma come “tecnologie culturali”, ovvero strumenti che consentono di accedere alla conoscenza collettiva. Secondo Gopkin, il problema strutturale sta nel fatto che dotare i chatbot di personalità e opinioni costituirebbe una cattiva applicazione dell’intelligenza artificiale. In questa visione, sistemi come ChatGPT non dovrebbero esprimere opinioni, ma fungere da interfacce per l’esplorazione della complessità umana. I modelli di IA dovrebbero quindi essere concepiti (e dunque progettati) come strumenti che facilitino l’accesso critico e contestualizzato al sapere, offrendo mappe di conoscenza, prospettive diversificate e fonti verificabili, piuttosto che risposte opinabili, autoreferenziali e non tracciabili.

Leggi l’articolo completo AI Is Not Your Friend su The Atlantic

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi