• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Chatbot sanitari: lo studio rivela limiti nelle autodiagnosi mediche

Un medico che chiede ad un chatbot una diagnosi medica

Uno studio guidato dall’Università di Oxford rivela che i chatbot non migliorano la qualità delle decisioni sanitarie. Nonostante un americano adulto su sei li utilizzi mensilmente per consigli medici, la ricerca ha evidenziato problemi significativi nella comunicazione bidirezionale.

Lo studio, condotto su 1.300 partecipanti britannici, ha dimostrato che gli utenti di chatbot come GPT-4o, Command R+ e Llama 3 erano meno efficaci nell’identificazione delle condizioni mediche e tendevano a sottovalutarne la gravità rispetto a chi utilizzava metodi tradizionali.

Adam Mahdi, co-autore dello studio, ha osservato che i partecipanti spesso omettevano informazioni cruciali nelle loro richieste e ricevevano risposte di difficile interpretazione, con un mix di consigli validi e inadeguati.

Pertanto, mentre aziende come Apple, Amazon e Microsoft sviluppano soluzioni IA per il settore sanitario, sia l’American Medical Association che i principali sviluppatori di IA sconsigliano l’uso dei chatbot per diagnosi cliniche. Gli esperti, difatti, raccomandano di affidarsi a fonti d’informazione affidabili e suggeriscono che i sistemi di IA dovrebbero essere testati nel mondo reale prima della loro implementazione, simile a quanto avviene per i trial clinici dei farmaci.

Leggi l’articolo completo People struggle to get useful health advice from chatbots, study finds su TechCrunch.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi