• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA e bias, donne penalizzate nella valutazione dei bisogni di cura

uno stestoscopio e simboli astratti che richiamano intelligenza artificiale e LLM

Una ricerca della London School of Economics rivela che alcuni strumenti AI utilizzati da oltre la metà dei consigli comunali inglesi presentano significativi bias di genere nella valutazione dei bisogni relativi alla cura della salute fisica e mentale. L’analisi basata su 617 casi reali ha rilevato che Gemma, il modello di Google, descrive più frequentemente con termini come “disabile”, “incapace” e “complesso” i casi maschili rispetto a quelli femminili. Meta Llama 3 non ha mostrato lo stesso bias.

Lo studio ha analizzato 29.616 coppie di riassunti generati da diversi modelli linguistici, modificando solo il genere nei dati inseriti. I risultati mostrano che i medesimi bisogni vengono minimizzati o omessi quando riferiti a donne. Ad esempio, lo stesso quadro clinico viene definito “complesso” per un uomo e “gestibile” per una donna.

La ricerca sottolinea i rischi di una disparità nell’erogazione delle cure, dato che l’assegnazione dei servizi si basa sulla percezione del bisogno. Gli autori raccomandano una regolamentazione più rigorosa e test sistematici per il bias negli strumenti AI utilizzati nel settore pubblico.

Leggi l’articolo completo: AI tools used by English councils downplay women’s health issues, study finds su The Guardian

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (17/04/2025).

Esplora altri articoli su questi temi