L’integrazione dell’intelligenza artificiale nei sistemi di difesa nucleare preoccupa sempre più gli esperti di deterrenza, secondo un’inchiesta di Politico. Mentre alcuni test rilevano che i modelli tendono ad amplificare i conflitti anziché ridurli, il rischio sta nella possibilità che i decisori umani finiscano per affidarsi in modo acritico alle indicazioni degli algoritmi.
Jacquelyn Schneider (Università di Stanford) spiega che i test di wargaming mostrano che l’AI, messa alla prova in scenari di crisi, tende sistematicamente ad aumentare i livelli di conflitto, senza mostrare capacità di de-escalation, creando scenari apocalittici che gli umani avrebbero evitato. Il fenomeno resta inspiegabile dal punto di vista tecnico, ma evidenzia i rischi di affidarsi a tecnologie opache in contesti critici.
La questione diventa ancor più complessa se inserita in un contesto geopolitico ed economico in cui le spinte all’innovazione rapida superano i vincoli di sicurezza e governance. Il Pentagono continua a rassicurare sul mantenimento del controllo umano nelle decisioni nucleari, ma la pressione competitiva, soprattutto di fronte a Russia e Cina, rischia di erodere questo principio, già compromesso dalla crescente dipendenza dalle raccomandazioni algoritmiche.
Leggi l’articolo completo: Experts Concerned AI Is Going to Start a Nuclear War su Futurism
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (12/06/2025).

