Ricorrere all’IA nella ricerca scientifica consente di aprire prospettive interessanti e rilevanti per l’innovazione, ma serve prestare attenzione a non utilizzarla in modi impropri.
Un recente studio analizza i rischi associati all’adozione dei modelli di IA in ambito scientifico, con particolare attenzione al settore chimico, dove tali strumenti potrebbero essere utilizzati, ad esempio, per progettare sostanze dannose o aggirare vincoli normativi. A partire da casi concreti, gli autori dello studio evidenziano la necessità di sistemi di controllo specifici e propongono due strumenti che potrebbero rispondere a questa esigenza. Il primo è SciGuard, utile per monitorare e limitare quanto possibile i rischi, ma senza comprometterne l’efficacia in contesti di utilizzo legittimo. Il secondo è SciMT-Safety, un benchmark di red-teaming il cui obiettivo è quello di valutare la sicurezza dei modelli. In pratica, si tratta di un test che serve a controllare se una determinata IA possa essere usata in modo pericoloso, simulando cosa potrebbe fare una persona con cattive intenzioni.
Lo studio auspica un approccio integrato e interdisciplinare per promuovere un impiego responsabile dell’IA nella scienza, invitando a una riflessione condivisa e al dialogo tra ricercatori, professionisti, politici e società civile.
Leggi lo studio completo: Control Risk for Potential Misuse of Artificial Intelligence in Science su arxiv.org.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

