Recentemente, un gruppo di importanti aziende tecnologiche, tra cui Adobe, Anthropic, Cohere, Microsoft e OpenAI, ha annunciato un impegno significativo per contrastare la diffusione di immagini a sfondo sessuale dannose generate dall’IA. Le aziende si sono accordate per escludere le immagini di nudo dai set di dati utilizzati per addestrare i loro modelli di IA, in risposta a preoccupazioni crescenti sull’uso abusivo di tali immagini.
Questo accordo, facilitato dall’amministrazione Biden, rientra in una campagna più ampia per combattere gli abusi sessuali basati sulle immagini, che colpiscono in particolare donne, bambini e persone appartenenti alla comunità LGBTQI+. L’ufficio per la politica scientifica e tecnologica della Casa Bianca ha denunciato l’aumento esponenziale di tali contenuti, sottolineando il loro impatto negativo.
Common Crawl, un’importante fonte di dati per la formazione di IA, ha annunciato un impegno a gestire i suoi set di dati in modo più responsabile per prevenire abusi. Inoltre, un’altra alleanza tra aziende, tra cui Bumble, Discord, Match Group, Meta, Microsoft e TikTok, ha presentato principi volontari per prevenire gli abusi sessuali basati sulle immagini, in coincidenza con il 30° anniversario del Violence Against Women Act.
Leggi l’articolo completo: Tech companies commit to fighting harmful AI sexual imagery by curbing nudity from datasets su apneas.com.
Immagine generata tramite DALL-E 3.

