L’adozione dell’IA in ambito medico è in forte crescita, ma il processo di test e validazione di questi strumenti sembrerebbe dimostrarsi spesso inadeguato.
Infatti, centinaia di algoritmi medici sono stati approvati con dati clinici limitati, sollevando dubbi sulla loro efficacia e sicurezza. Certamente esistono esempi positivi, come l’iniziativa di Devin Singh, pediatra e informatico, che ha sviluppato un modello di IA per ridurre i tempi di attesa nei pronto soccorso. Tuttavia, questo successo non è rappresentativo del panorama generale.
La realtà è che la maggior parte dei dispositivi basati sull’IA, inclusi quelli approvati dalla FDA, non passa attraverso rigorosi studi clinici, creando potenziali rischi per i pazienti. I ricercatori sono concordi sul fatto che la validazione clinica sia essenziale, ma il processo è complesso e costoso, spesso ostacolato da interessi economici che privilegiano il profitto rispetto alla sicurezza.
Alcuni ospedali, come il SickKids di Toronto e l’Amsterdam University Medical Center, stanno prendendo l’iniziativa di testare autonomamente gli strumenti di IA per garantirne l’affidabilità. Tuttavia, questi sforzi sono ancora pochi e non esistono standard globali condivisi.
Un’altra questione importante è l’interazione tra l’IA e gli operatori sanitari, algoritmi precisi possono fallire se i medici ignorano i loro suggerimenti o se gli strumenti non sono adattati alle diverse realtà cliniche. Anche il coinvolgimento dei pazienti e il loro consenso informato sono aree che necessitano di maggiore attenzione, specialmente con l’introduzione di strumenti che potrebbero bypassare il medico.
Leggi l’articolo completo: The testing of AI in medicine is a mess. Here’s how it should be done su nature.com.

Immagine generata tramite DALL-E 3.

