• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Uno studio attacca Instagram: diffonde l’autolesionismo tra i giovani

Un recente studio accusa Meta di contribuire attivamente alla diffusione di contenuti legati all’auto-lesionismo. Per quanto l’azienda abbia i mezzi necessari, il sistema di moderazione dell’algoritmo di Instagram si è infatti rivelato “estremamente inadeguato”.

Il ricercatori hanno creato un gruppo privato su Instagram composto da profili fake di adolescenti. Al suo interno hanno poi condiviso 85 immagini esplicite contenenti sangue, rasoi e frasi che incitavano all’autolesionismo. Nonostante Meta affermi di aver migliorato i processi di moderazione tramite l’IA, lo studio ha dimostrato che la piattaforma non solo non rimuove le immagini esplicite ma incoraggia gli utenti che interagiscono con tali contenuti a entrare in contatto tra loro.

Secondo Digital Ansvar, un’organizzazione che promuove lo sviluppo digitale responsabile, lo studio ha mostrato che il sistema di moderazione non si attiene alle norme europee. Il Digital Service Act obbliga infatti i grandi servizi digitali a identificare e prevenire rischi sistemici. Il CEO Ask Hesby Holm ha sottolineato che il mancato intervento di Meta nella moderazione di questi contenuti potrebbe avere conseguenze gravi, poiché sono altamente associati ad episodi di suicidio.

Leggi l’articolo completo “Instagram actively helping spread of self-harm among teenagers, study finds” su The Guardian

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2024)

Esplora altri articoli su questi temi