• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

SciGuard e SciMT-Safety: proteggere la scienza dai rischi IA

Chimico astratto con microchip ai in mano

Ricorrere all’IA nella ricerca scientifica consente di aprire prospettive interessanti e rilevanti per l’innovazione, ma serve prestare attenzione a non utilizzarla in modi impropri. 

Un recente studio analizza i rischi associati all’adozione dei modelli di IA in ambito scientifico, con particolare attenzione al settore chimico, dove tali strumenti potrebbero essere utilizzati, ad esempio, per progettare sostanze dannose o aggirare vincoli normativi. A partire da casi concreti, gli autori dello studio evidenziano la necessità di sistemi di controllo specifici e propongono due strumenti che potrebbero rispondere a questa esigenza. Il primo è SciGuard, utile per monitorare e limitare quanto possibile i rischi, ma senza comprometterne l’efficacia in contesti di utilizzo legittimo. Il secondo è SciMT-Safety, un benchmark di red-teaming il cui obiettivo è quello di valutare la sicurezza dei modelli. In pratica, si tratta di un test che serve a controllare se una determinata IA possa essere usata in modo pericoloso, simulando cosa potrebbe fare una persona con cattive intenzioni.

Lo studio auspica un approccio integrato e interdisciplinare per promuovere un impiego responsabile dell’IA nella scienza, invitando a una riflessione condivisa e al dialogo tra ricercatori, professionisti, politici e società civile. 

Leggi lo studio completo: Control Risk for Potential Misuse of Artificial Intelligence in Science su arxiv.org.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi