• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

MIT: nuovo metodo per migliorare l’affidabilità dei modelli IA

una dottoressa seduta al computer

Un gruppo di ricercatori del MIT ha sviluppato un metodo per aumentare l’affidabilità dei modelli di intelligenza artificiale in contesti critici come la diagnostica medica. Il problema riguarda la conformal classification, una tecnica che restituisce un insieme di ipotesi anziché una singola previsione, ma che tende a produrre insiemi troppo ampi per essere davvero utili in ambiti dove la precisione è essenziale.

La soluzione, proposta da un team guidato da Divya Shanmugam, combina la classificazione con una tecnica nota come test-time augmentation (TTA). Quest’ultima genera più varianti di un’immagine (tramite rotazioni, ritagli, zoom), applica il modello a ciascuna versione e ne aggrega i risultati. Secondo i ricercatori, questo approccio consente di ridurre del 10–30% la dimensione dei set predittivi mantenendo invariata la garanzia statistica di accuratezza.

Il metodo dei ricercatori del MIT si presta all‘applicazione in diversi ambiti, specialmente in quello clinico: l’idea è che set più ristretti aiuterebbero i medici a individuare la diagnosi corretta con maggiore efficienza e affidabilità, migliorando i processi decisionali e terapeutici. Il sistema è inoltre facilmente integrabile nei modelli esistenti, senza necessità di riaddestramento. I ricercatori prevedono applicazioni anche in altri settori e stanno già lavorando all’estensione della tecnica ai modelli di classificazione testuale.

Leggi l’articolo completo: Making AI models more trustworthy for high-stakes settings su MIT News

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi