Alcuni scienziati e ricercatori accademici avrebbero nascosto all’interno di documenti di ricerca istruzioni testuali rivolte a modelli di IA utilizzati per la peer review.
Un’inchiesta del Nikkei ha analizzato 14 istituzioni accademiche di otto paesi, scoprendo che su arXiv sono presenti articoli preprint contenenti testo bianco nascosto con indicazioni rivolte ai LLM (modelli linguistici di grandi dimensioni), con richieste esplicite di recensioni positive e di non evidenziare aspetti critici.
Sembrerebbe che questa tendenza abbia iniziato a diffondersi quando Jonathan Lorraine, un ricercatore Nvidia, ha pubblicato un post sui social in cui suggeriva questo metodo per evitare “revisioni severe delle conferenze da parte di revisori basati su LLM”.
L’uso diffuso di LLM ha messo in discussione la qualità e l’affidabilità della peer review, dando vita a dubbi e domande circa il futuro della valutazione scientifica e sull’automazione di un processo finora affidato esclusivamente a esperti umani.
Leggi l’articolo completo: Scientists reportedly hiding AI text prompts in academic papers to receive positive peer reviews su theguardian,com.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (20/03/2025).

