• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA in sanità: chi è responsabile quando qualcosa va storto

Un braccio robotico che assiste un chirurgo mentre sta operando

L’intelligenza artificiale sta trasformando la medicina, ma potrebbe rendere molto più complicato stabilire le responsabilità quando qualcosa non funziona. È l’allarme lanciato da un gruppo di esperti in un rapporto che esamina le implicazioni legali del boom degli strumenti sanitari basati sull’IA.

Gli algoritmi per interpretare le scansioni, i sistemi di supporto alla diagnosi, i software per ottimizzare la gestione ospedaliera: le applicazioni dell’IA in sanità si moltiplicano rapidamente. Ma dietro i potenziali benefici si nascondono problemi spinosi, dalla scarsa validazione scientifica alle questioni di responsabilità legale. “Ci saranno sicuramente casi in cui qualcosa andrà storto e le persone si guarderanno intorno per incolpare qualcuno“, avverte Derek Angus dell’Università di Pittsburgh. Il problema, però, è che stabilire le colpe sarà tutt’altro che semplice, in quanto i pazienti danneggiati dovranno dimostrare l’errore nell’uso o nella progettazione dell’IA, ottenere informazioni sul suo funzionamento interno e scovare il nesso causale con l’esito negativo.

Oltre a quanto detto, il quadro peggiora se si pensa che molti strumenti IA sfuggono alla supervisione degli enti regolatori che rende superflua la prova di un’effettiva efficacia clinica creando il seguente paradosso: gli strumenti testati e valutati sono i meno adottati, mentre quelli più diffusi sono i meno testati.

Leggi l’articolo completo AI could make it harder to establish blame for medical failings, experts say su The Guardian.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (14/10/2025).

Esplora altri articoli su questi temi