OpenAI introduce nuovi controlli per gestire i propri doppelganger digitali su Sora, ma l’aggiornamento arriva quando ormai la piattaforma ha già contribuito a inondare internet di contenuti generati dall’intelligenza artificiale. L’obiettivo dichiarato è dare agli utenti maggiore controllo su come e dove le versioni deepfake di loro stessi possono apparire nell’app.
I nuovi strumenti fanno parte di un pacchetto più ampio di aggiornamenti lanciati nel weekend per stabilizzare Sora e arginare il caos nel feed della piattaforma. Di fatto, Sora funziona come un vero e proprio “TikTok per deepfake“, permettendo di creare video di dieci secondi su praticamente qualsiasi tema, incluse versioni generate artificialmente di se stessi o di altri, complete di voce sintetica. OpenAI chiama queste apparizioni virtuali “cameo“, ma i critici le vedono come un disastro annunciato per la disinformazione. Bill Peebles, a capo del team Sora, spiega che ora gli utenti possono limitare l’uso delle proprie versioni generate che compaiono: si può impedire che la propria immagine digitale appaia in video politici, bloccare determinate parole o evitare contesti specifici.
Dunque, nonostante la bontà di queste misure, l’esperienza con altri sistemi suggerisce che qualcuno troverà comunque il modo di aggirarle dato che questo problema è emerso chiaramente già alla prima settimana dal lancio in cui i controlli iniziali troppo permissivi hanno trasformato la piattaforma in terreno fertile per contenuti discutibili.
Leggi l’articolo completo Sora provides better control over videos featuring your AI self su The Verge.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (09/09/2025).

