Quest’estate, Apple ha introdotto Applebot-Extended, un’estensione del proprio web crawler che consente agli editori di scegliere di escludere i propri dati dal training dei modelli di IA dell’azienda.
Sono molti i grandi editori e le piattaforme social che hanno scelto di usufruire di quest’estensione per proteggere i propri dati dal processo di addestramento AIdi Apple, tra cui il New York Times, Facebook e The Financial Times. Questo riflette un cambiamento significativo nella gestione dei dati web, con i proprietari dei contenuti che ora devono decidere se permettere o meno l’uso dei loro dati da parte dei bot AI.
Al momento solo una minoranza di siti web ha adottato misure di esclusione, tuttavia la tendenza è in crescita e potrebbe influenzare come le IA vengano addestrate in futuro. Ora, la lotta per il controllo dei dati si svolge anche tramite aggiornamenti al file robots.txt, tradizionalmente utilizzato, appunto, per regolamentare l’accesso ai bot.
Leggi l’articolo completo: Major Sites Are Saying No to Apple’s AI Scraping su wired.com.

Immagine generata tramite DALL-E 3.

