• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Uno studio rivela bias nei consigli medici dei LLM

uno stestoscopio e simboli astratti che richiamano intelligenza artificiale e LLM

Un recente studio pubblicato su Nature Medicine ha rilevato che i LLM tendono a raccomandare trattamenti diversi per la stessa condizione medica, a seconda del background socioeconomico e demografico del paziente. La ricerca, condotta dall’Icahn School of Medicine del Mount Sinai, rende evidente la necessità di interventi mirati per garantire che l’assistenza medica basata su IA generativa sia sicura, equa ed efficace per tutti.

Il team di ricerca ha testato nove LLM su 1.000 casi di emergenza simulati con 32 diversi profili socio-demografici, generando oltre 1,7 milioni di raccomandazioni. I risultati mostrano che, nonostante dettagli clinici identici, le raccomandazioni variavano significativamente in base al profilo socioeconomico, influenzando la priorità di triage, i test diagnostici e le valutazioni di salute mentale. Ad esempio, i pazienti ad alto reddito ricevevano più spesso raccomandazioni per test avanzati come la TAC. Quelli a basso reddito tendevano invece a ricevere l’indicazione di minori approfondimenti, suggerendo un potenziale bias che richiede la necessità di intervento.

I ricercatori sottolineano che i risultati dello studio mostrano l’importanza di adottare strategie solide per valutare e ridurre i bias, assicurando che i consigli medici forniti dai LLM siano equi e realmente orientati ai pazienti. Il team prevede di espandere il lavoro simulando conversazioni cliniche e testando modelli IA in contesti ospedalieri per valutarne l’impatto reale.

Leggi l’articolo completo “Is AI in medicine playing fair?” su ScienceDaily

Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi