Un recente studio del Tow Center for Digital Journalism ha analizzato otto strumenti di ricerca basati su IA generativa, riscontrando importanti criticità nel modo in cui gestiscono e citano le fonti giornalistiche. L’analisi ha testato 1.600 query su articoli di venti editori, mostrando che i chatbot forniscono risposte errate in oltre il 60% dei casi, spesso con un tono di ingiustificata sicurezza.
Contrariamente a quanto ci si potrebbe aspettare, i modelli premium come Perplexity Pro e Grok 3 risultano più inclini a fornire risposte sbagliate rispetto alle versioni gratuite. Inoltre, diverse piattaforme sembrano aggirare i protocolli di esclusione dei robot (robots.txt), accedendo a contenuti che gli editori avevano espressamente bloccato. Le autrici riferiscono che i chatbot utilizzano la credibilità delle testate giornalistiche per legittimare le proprie risposte ma spesso citano articoli errati o generano link non funzionanti, rischiando di danneggiare la reputazione degli editori. Inolte, i chatbot IA citano spesso versioni ripubblicate o non ufficiali degli articoli, privando le fonti originali della corretta attribuzione e del traffico referral e influenzando la corretta ricerca delle informazioni. È emerso anche che l’eventuale presenza di accordi di licenza tra società di IA ed editori non garantisce citazioni più accurate.
L’analisi conferma quanto emerso nello studio precedente, evidenziando problemi sistemici che danneggiano sia i produttori che i consumatori di notizie. Le autrici hanno inoltre sottolineato come gli strumenti di ricerca basati su IA generative riducano la trasparenza e l’autonomia degli utenti, amplificando problemi di bias e disinformazione.
Leggi l’articolo originale “AI Search Has A Citation Problem – We Compared Eight AI Search Engines. They’re All Bad at Citing News.” su Columbia Journalism Review
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

