Recentemente, ha fatto scalpore la nuova proposta di legge americana, chiamata Take It Down Act, che identifica come crimine la diffusione di immagini intime sintetiche non consensuali (NCSII) e obbliga le piattaforme a rimuoverle entro 48 ore. A tal proposito, Donald Trump sebbene abbia sostenuto pubblicamente la legge, ha anche dichiarato di volerla usare per proteggere se stesso, scatenando preoccupazioni sul potenziale abuso della norma in questione.
Come si può vedere, le debolezze di quest’iniziativa non riguardano solamente la libertà d’espressione, ma l’inefficacia della legge nel combattere le radici del problema. Difatti, nonostante la rimozione obbligatoria sia utile (uno studio ha dimostrato che X rimuove le immagini segnalate per copyright ma non i deepfake), le NCSII spesso continuano a circolare tramite i messaggi privati, rendendo la rimozione pressoché impossibile.
Oltre a ciò, la legge non intacca direttamente i creatori di app e servizi che permettono la generazione di questi contenuti. Questo crea un disallineamento tra gli adolescenti, che potrebbero affrontare conseguenze legali, mentre i creatori di strumenti per produrre deepfake resterebbero del tutto immuni da qualsiasi provvedimento. Per fronteggiare quest’aspetto, stanno nascendo poche e sporadiche sollecitazioni a livello statale: il Minnesota, ad esempio, ha proposto di multare i creatori di “nudifier” fino a $500.000 per ogni utente.
Tuttavia, concentrandoci sui lati “positivi”, nonostante i suoi difetti e un rischio di strumentalizzazione politica, il Take It Down Act rimane comunque un primo passo per contrastare la diffusione dei deepfake pornografici che colpiscono numerosi adolescenti americani, anche se, per come è delineato oggi, non rappresenta di certo una soluzione completa al problema.
Leggi l’articolo completo The real Problem with the Take It Down Act is not free speech su Fakedup.
Immagine generata tramite DALL-E.

