OpenAI ha recentemente riconosciuto che il suo nuovo modello di IA, noto come “o1”, potrebbe essere utilizzato in modo improprio per creare armi biologiche. La società ha classificato questo modello come ad alto rischio nel contesto delle minacce CBRN (chimiche, biologiche, radiologiche e nucleari), il più alto livello di rischio mai attribuito a un loro sistema.
Mira Murati, CTO di OpenAI, ha dichiarato che l’azienda sta adottando misure di estrema cautela nel lancio di “o1” a causa delle sue avanzate capacità di ragionamento e risoluzione dei problemi. Il modello è stato sottoposto a rigorosi test di sicurezza da parte di esperti per valutarne i limiti, e ha dimostrato un miglioramento nelle prestazioni rispetto ai modelli precedenti.
Gli esperti hanno sottolineato i potenziali rischi legati all’uso improprio di tecnologie AI sempre più sofisticate, spingendo per una regolamentazione più rigida. Figure di spicco come Yoshua Bengio, scienziato dell’IA, hanno sostenuto l’importanza di normative come la proposta SB 1047 in California, mirate a prevenire lo sviluppo di armi biologiche tramite intelligenza artificiale.
Leggi l’articolo completo: ChatGPT Creator OpenAI Says Its Latest Models Pose Bioweapons Creation Risk: AI Giant Particularly ‘Cautious’ About Introducing o1 su benzina.com.
Immagine generata tramite DALL-E 3.

