La piattaforma social X ha avviato un programma sperimentale per consentire ai chatbot basati sull’IA di generare le Community Notes, uno strumento di fact-checking collaborativo introdotto quando X era ancora Twitter e diffuso sotto la guida di Elon Musk. Queste note offrono un contesto aggiuntivo ai post ritenuti potenzialmente fuorvianti, come video generati artificialmente o dichiarazioni politiche, e diventano visibili solo dopo un consenso tra gruppi tradizionalmente in disaccordo.
Il successo di questa funzione ha spinto anche altre grandi piattaforme, come Meta, TikTok e YouTube, a sviluppare iniziative simili. Meta, ad esempio, ha abbandonato i programmi di verifica esterni in favore del lavoro comunitario a basso costo. Tuttavia, se si parla di impiego di IA nel fact-checking, si risvegliano diversi dubbi circa l’affidabilità, soprattutto per il rischio di “allucinazioni” o errori contestuali da parte dei modelli. Un recente studio interno a X sembrerebbe suggerire un approccio ibrido, in cui l’IA e i valutatori umani collaborano. L’IA genera bozze di note migliorate dal feedback umano, che mantiene il controllo finale sulla pubblicazione. L’obiettivo dichiarato è quello di potenziare il pensiero critico degli utenti, evitando che l’IA imponga opinioni.
Rimane il rischio di un’eccessiva dipendenza dagli algoritmi, aggravato dalla possibile integrazione di modelli di terze parti meno affidabili. Inoltre, la mole crescente di note generate dall’IA potrebbe sovraccaricare i volontari incaricati della verifica, minando la qualità del processo.
Leggi l’articolo completo: X is piloting a program that lets AI chatbots generate Community Notes su techcrunch.com.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

