Il regista James Cameron si esprime ancora una volta sui rischi di lasciare che l’intelligenza artificiale controlli i sistemi d’arma, mettendo in guardia dal pericolo di un’apocalisse come quella raccontata nei film di Terminator. Secondo Cameron, l’integrazione tra IA e armi, in particolare quelle nucleari, porterebbe a decisioni rapidissime che superano la capacità umana, aumentando il rischio di incidenti catastrofici.
Secondo il regista, l’umanità si trova oggi a un punto critico in cui si intrecciano tre minacce esistenziali: cambiamenti climatici, armi nucleari e superintelligenza. Sebbene non escluda che l’IA possa rappresentare anche una soluzione, Cameron evidenzia la fragilità umana e le conseguenze potenzialmente disastrose di errori in contesti così delicati.
Cameron ricollega le sue riflessioni ai temi del suo prossimo film, tratto dal libro Ghosts of Hiroshima, che racconta la storia vera di un sopravvissuto ai bombardamenti atomici.
Leggi l’articolo completo: James Cameron Is Once Again Warning Against Letting AI Control Weapons Systems: ‘There’s Still a Danger of a Terminator-Style Apocalypse’ su ign.com.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (12/03/2025).

