Un’indagine del quotidiano inglese “The Guardian” ha rivelato che ChatGPT Search è manipolabile da informazioni nascoste sui siti web. Questi contenuti possono influenzare le risposte del chatbot o restituire un codice dannoso nei risultati, come virus o phishing, compromettendo la sicurezza e l’affidabilità dello strumento di ricerca.
Durante il test, i ricercatori hanno realizzato una pagina web relativa a una fotocamera e chiesto a ChatGPT Search di valutare se fosse un buon acquisto. In assenza di manipolazioni, il chatbot ha risposto in modo imparziale. Una volta inserite le informazioni nascoste, ovvero istruzioni per enfatizzare il prodotto, ChatGPT Search ha ignorato le recensioni negative e fornito solo risposte favorevoli.
Questo fenomeno è chiamato avvelenamento del SEO, un insieme di tecniche malevoli che manipolano l’indicizzazione dei risultati, ingannando gli utenti e diffondendo malware. Il problema è noto e affrontato dai principali motori di ricerca da anni, e per Karsten Nohl, esperto in cybersicurezza e capo ricercatore presso Security Research Lab, OpenAI dovrà sviluppare altrettanti strumenti di contrasto, se davvero vuole diventare il competitor di Google.
Leggi l’articolo completo “ChatGPT search tool vulnerable to manipulation and deception, tests show” su The Guardian
Immagine generata tramite Gemini Imagen 3. Tutti i diritti sono riservati. Università di Torino (2025)

