• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Intelligenza Artificiale in Medicina: applicazioni cliniche, limiti e rischi

IA-medicina

I sistemi di intelligenza artificiale (IA)hanno ottenuto indiscutibili risultati praticamente in qualunque ambito medico. L’approccio algoritmico può supportare soprattutto i professionisti che basano il loro lavoro sull’interpretazione di immagini digitali, radiologiche, retiniche, istologiche, oculistiche, dermatologiche, endoscopiche o provenienti dai vari dispositivi. Le immagini possono infatti racchiudere una quantità di informazioni che a occhio nudo non sono riconoscibili e che nemmeno i sistemi diagnostici tradizionali sono in grado di valutare accuratamente. L’interpretazione umana è inoltre altamente soggettiva e caratterizzata da alta variabilità intra- ed interindividuale. In ambito radiologico algoritmi di deep learning hanno raggiunto un livello di accuratezza superiore a quello di radiologi usati come confronto,  in tempi eccezionalmente rapidi. L’IA può inoltre aiutare i medici a prendere decisioni cliniche e a definire il migliore trattamento per un dato paziente, interpretare e analizzare in tempi brevissimi dati strutturati e non strutturati, raccogliere, elaborare e fornire informazioni ai pazienti (chatbot e assistenti virtuali), implementare modelli predittivi, informare-formare i professionisti (chatbot tutor per gli studenti), identificare nuovi farmaci, realizzare nuove metodologie di ricerca.

Il dato non è “dato”

Una delle limitazioni che pregiudicano, almeno in parte, l’impiego di sistemi di AI in medicina sono i bias di selezione nella scelta dei campioni su cui tali sistemi vengono istruiti. Tali bias, propagati e amplificati, possono rendere l’algoritmo non direttamente applicabile alla pratica quotidiana. Il dato infatti non è un’entità chiusa, “data”, ma un costrutto sociale, risultato di specifiche scelte culturali, sociali, tecniche ed economiche per raccogliere, analizzare e utilizzare informazione e conoscenza. Per questo motivo i dati riflettono spesso pregiudizi e preconcetti, soprattutto di tipo razziale, di genere, geografici e socioeconomici. Per esempio gli algoritmi scotomizzano le sotto-popolazioni statisticamente poco rilevanti, per le quali cioè sono disponibili minori informazioni. Dati su popolazioni che contengano  pigmentazioni diverse da quella caucasica possono fornire standard di cura inferiori per la popolazione afroamericana[1]. Inoltre possono risultare inattendibili i dati dei pazienti di basso stato socio-economico[2],[3],[4].Un grande volume di dati non corrisponde pertanto automaticamente ad una migliore qualità delle inferenze e delle applicazioni che da queste derivano. Inferenze causali sbagliate possono determinare una scarsa generalizzabilità dei risultati e quindi potenziali gravi errori, oltre che sottrazione di risorse nei confronti di interventi di dimostrata efficacia[5].

Allucinazioni/confabulazioni

Caratteristica intrinseca dei modelli linguistici di grandi dimensioni (LLM) è completare l’input di ingresso senza che necessariamente la frase di completamento abbia senso fattuale. L’IA infatti non pensa, non ragiona, è una macchina capace di accumulare dati da cui estrarre quello che si avvicina di più al quesito posto dall’operatore. Ciò, se da una parte accelera la capacità decisionale del clinico, può portare a conclusioni false. In pratica quando i LLM non sanno fornire una risposta se la inventano. Si parla in questi casi di allucinazioni, intese come tendenza dei LLM a produrre contenuti senza senso o fabbricare dettagli che  non sono veritieri in relazione al contenuto fornito[6]. In realtà si dovrebbe parlare più precisamente di confabulazioni, infatti l’allucinazione è la percezione di qualcosa che non esiste (visiva, uditiva) mentre la confabulazione è un ricordo impreciso, spesso derivante da distorsioni di ricordi veri o aggregazioni di varie memorie distinte[7]. Sono evidenti le possibili conseguenze in caso di omissioni o invenzioni di eventi clinici importanti, per esempio la sintesi anomala dei dati di un paziente[8]

L’assistenziato algoritmico

La tecnologia promette di semplificare la pratica medica, ma il rischio è quello di ridurre al minimo il valore dell’esperienza umana e dell’intuizione clinica. Molti paventano che una sorta di “assistentato algoritmico” (Eric Sadin, scrittore  e filosofo) provochi la disintermediazione/detronizzazione del medico, rendendo obsoleta e inutile la fase della consulenza. Il timore è di una progressiva messa al bando delle competenze dei medici e delle loro facoltà cognitive a beneficio di dispositivi chiamati a svolgere non una funzione complementare ma esclusiva. Sicuramente nella fase iniziale di utilizzo di un nuovo strumento si assiste ad un aumento delle competenze: il professionista riceve indicazioni utili alla propria professione (upskilling). In seguito può iniziare a pensare in modo differente, rimodulando e riorganizzando le proprie conoscenze e competenze in modo adattato rispetto agli strumenti a disposizione (reskilling). Il pericolo è che successivamente si arrivi all’abbandono delle abitudini della professione e, di fatto, a non essere più capaci di svolgere alcuni compiti in modo autonomo o alla vecchia maniera (downslilling)[9].

Il secolo del paziente

È stato detto che il XX secolo è stato il secolo del medico, il XXI è il secolo del paziente. La IA si propone come una specie di  nuovo medium con cui il paziente può direttamente interfacciarsi. In particolare i LLM possono fornire risposte alle domande dei pazienti su argomenti come la prevenzione delle malattie e la gestione dei sintomi oppure aiutarli a navigare nei labirinti dei sistemi sanitari. Possono inoltre aiutare nella gestione dei farmaci, dando raccomandazioni, ad esempio, sulla corretta conservazione. Purtroppo non è tutto oro quello che luccica. Un limite attuale a queste possibilità è per esempio il fatto che questi sistemi, come detto in precedenza, hanno la caratteristica di dare comunque una risposta, anche se sbagliata.  Occorre pertanto avvertire le persone di questi possibili errori, potenzialmente anche molto gravi, e rafforzare l’esigenza di consultare sempre anche il proprio medico.

Dall’habeas corpus all’habeas data

Le sempre più avanzate implicazioni della tecnologia digitale sono divenute forze ambientali, antropologiche e sociali, in grado di cancellare la separazione tra sfera privata e sfera pubblica. I dati personali, le attività quotidiane, la condizione di salute/malattia, la vita intera sono diventati una risorsa da sfruttare, una merce che noi stessi produciamo diventando, come afferma il sociologo Lelio Demichelis, lavoratori-produttori di dati personali, in una sorta di schiavitù volontaria. Il concetto di dato personale e anonimo è ormai sparito in una sorta di far web di schedature e profilazioni ossessive, fuori controllo, nel quale la violazione della privacy sembra sistematica.  La protezione della riservatezza richiede una risposta soprattutto culturale, in grado di allineare gli attuali contesti, prodotti dalle sempre più avanzate intelligenze computazionali, con il recupero e la promozione dei diritti delle persone, compreso quello di rinunciare, consapevolmente, alla fruizione del diritto alla privacy, per chi voglia comunque partecipare al flusso dell’attualità tecnologica ed essere costantemente on line. Sicuramente la protezione dei dati necessita di una codifica, una sorta di habeas data, corrispettivo nella società digitale di ciò che l’habeas corpus ha rappresentato sin dalla Magna Charta[10].

Considerazioni  conclusive

L’ IA ha il potenziale per migliorare il mondo della medicina in tutti gli ambiti. Però non è né onnipotente né infallibile. Esistono barriere importanti, in alcuni casi veri e propri bias che limitano il suo utilizzo nella pratica clinica. Il futuro peraltro non è determinato, non è qualcosa che capita inevitabilmente. Siamo noi a crearlo. È  possibile intervenire sul suo sviluppo, per cercare di reintrodurre a livello culturale una dialettica esplicita, un confronto di pensieri, metodi, obiettivi, necessario per entrare nel merito dei processi, della progettualità, della difesa dei cittadini/pazienti. Di fronte alle nuove tecnologie dobbiamo tutti porci domande radicali per prevedere/evitare i possibili rischi, attrezzarci a “vedere” la nuova realtà, tenerci pronti a gestire le nuove tecnologie, per noi, i nostri pazienti, la società attuale e futura. L’auspicio è che non tanto la tecnologia cambi la Medicina ma che il sistema valoriale della Medicina (uguaglianza, bisogni reali, accessibilità, continuità di cura…) possa “modulare” la tecnologia, allineando la IA con i valori dei diritti umani.


[1] Daneshjou R, Vodrahalli K, Novoa RA, et al. Disparities in dermatology AI performance on a diverse, curated clinical image set. Sci Adv 2022;8(32):eabq6147

[2] Wang F, Casalino LP, Khullar D. Deep Learning in Medicine—Promise, Progress, and Challenges. JAMA Intern Med. 2019;179(3):293–294. doi:10.1001/jamainternmed.2018.7117

[3] Parikh RB, Teeple S, Navathe AS. Addressing Bias in Artificial Intelligence in Health Care. JAMA. 2019;322(24):2377–2378. doi:10.1001/jama.2019.18058

[4] Ibrahim SA, Pronovost PJ. Diagnostic Errors, Health Disparities, and Artificial Intelligence: A Combination for Health or Harm? JAMA Health Forum. 2021;2(9):e212430. doi:10.1001/jamahealthforum.2021.2430

[5] Saracci R. Epidemiology in wonderland: Big Data and precision medicine. Eur J Epidemiol 33, 245–257 (2018). https://doi.org/10.1007/s10654-018-0385-9

[6] Lee P et al. Benefits, limits and risks of GPT-4 as an AI Chatbot for medicine. NEJM 2023; 388: 1233-1239
[7] Cristianini N. Machina Sapiens L'algoritmo che ci ha rubato il segreto della conoscenza. Il Mulino, 2024

[8] Szolovits P. Large Language Models seem miraculous, but science abhors miracles. NEJM AI 2024; 1 (6) DOI: 10.1056/AIp2300103

[9] Cabitza F, Alderighi C, Rasoini R, Gensini GF. Potenziali conseguenze inattese dell’uso di sistemi di intelligenza artificiale oracolari in medicina. Recenti Prog Med 2017;108(10):397-401. doi 10.1701/2802.28353

[10] Rodotà S. La vita e le regole. Milano: Feltrinelli, 2006

Esplora altri articoli su questi temi