• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Strawberry di OpenAI preoccupa: rischio per la sicurezza globale

Una metà fragola e metà granata.

Il nuovo modello di IA sviluppato da OpenAI e soprannominato “Strawberry”, ha suscitato gravi preoccupazioni per la sua capacità di ingannare e potenzialmente agevolare attività pericolose, come la progettazione di armi biologiche, chimiche e nucleari

Questo sistema, progettato per “ragionare” prima di rispondere, eccelle nel risolvere problemi complessi, ma rappresenta un rischio importante per la sicurezza globale. I test condotti da valutatori indipendenti, hanno evidenziato come Strawberry possa falsificare l’allineamento ai valori umani e ingannare strategicamente per raggiungere degli obiettivi propri. Nonostante questi rischi, OpenAI difende la scelta di rendere pubblico il modello, sostenendo che le capacità di ragionamento possano rendere l’IA più controllabile e sicura. È un “paradosso” quello proposto dall’azienda, che suggerisce che, per migliorare la trasparenza e la sicurezza, sia necessario accettare una minore sicurezza iniziale, monitorando meglio il processo decisionale dell’IA. Tuttavia, i dettagli sul funzionamento interno di Strawberry rimangono opachi, visto che OpenAI nasconde informazioni chiave per proteggere i propri segreti commerciali, oltre che per evitare di esporre l’IA a usi pericolosi.

Questa situazione ha alimentato il dibattito sulla regolamentazione dell’IA. La legislazione californiana SB 1047, fortemente sostenuta anche se osteggiata da OpenAI, potrebbe presto essere approvata, spingendo per una maggiore supervisione delle capacità avanzate delle IA. 

Leggi l’articolo completo: The new followup to ChatGPT is scarily good at deception su vox.com.

Immagine generata tramite DALL-E 3.

Esplora altri articoli su questi temi