Tag: Yoshua Bengio
Tag: Yoshua Bengio
-

IA superintelligente e Bengio: chi arriva primo dominerà il mondo
Yoshua Bengio avverte: nella corsa all'IA superintelligente, aziende miliardarie sacrificano etica e sicurezza in nome di un dominio globale. Leggi qui...
-

Yoshua Bengio fonda LawZero per rendere l’IA più sicura
Il vincitore del Turing Award Yoshua Bengio ha fondato LawZero per sviluppare IA sicure, temendo che la corsa delle big tech porti all'estinzione umana. Leggi qui...
-

Yoshua Bengio avvisa sui rischi legati all’IA per la sicurezza
Yoshua Bengio avverte sui rischi legati alla competizione nel settore dell'IA, con l'esempio di DeepSeek e alle implicazioni per la sicurezza globale.
-

OpenAI rilascia gratuitamente il nuovo modello o3-mini
OpenAI ha lanciato il modello di IA gratuito o3-mini, una risposta alla crescente competizione con il concorrente DeepSeek.
-

Pubblicato il primo rapporto internazionale sulla sicurezza dell’IA
È stato pubblicato il primo rapporto internazionale sulla sicurezza dell'IA, esplora i rischi legati al lavoro, ambiente e disuguaglianze
-

Dichiarazione di Manhattan: 10 principi per un’IA globale responsabile
Il 22 settembre 2024, durante la settantanovesima sessione dell’Assemblea generale delle Nazioni Unite, si è svolto un incontro di alto livello dal titolo “Verso una comprensione comune delle capacità, delle opportunità e dei rischi dell’intelligenza artificiale: tracciare la strada per un futuro positivo per tutti”. In questa occasione, è stata presentata la Dichiarazione di Manhattan,…
-

Dialogo internazionale a Venezia per garantire sicurezza dell’IA
Un incontro di esperti di IA si è recentemente tenuto a Venezia, organizzato dal Safe AI Forum, per affrontare le crescenti preoccupazioni sulla sicurezza dell’IA nel contesto di tensioni geopolitiche. Questo dialogo internazionale ha riunito alcuni dei più rinomati scienziati del settore, tra cui i vincitori del Turing Award Yoshua Bengio, Andrew Yao e Geoffrey…
-

OpenAI avverte sui rischi del modello “o1” per armi biologiche
OpenAI ha recentemente riconosciuto che il suo nuovo modello di IA, noto come “o1”, potrebbe essere utilizzato in modo improprio per creare armi biologiche. La società ha classificato questo modello come ad alto rischio nel contesto delle minacce CBRN (chimiche, biologiche, radiologiche e nucleari), il più alto livello di rischio mai attribuito a un loro…
-

Luci ed ombre attorno alle intelligenze artificiali
Alcuni scienziati credono nella possibilità di creare macchine etiche capaci di distinguere il bene dal male, mentre altri mettono in guardia contro questa fiducia eccessiva. L'autore critica l'affidamento alle macchine, sostenendo che la saggezza e la coscienza delle AI sono mere imitazioni di quelle umane. Propone un ritorno alla responsabilità umana e alla cittadinanza attiva,…

