Secondo Zico Kolter, professore alla Carnegie Mellon University e membro del consiglio di amministrazione di OpenAI, all’aumento dell’autonomia degli agenti, ne consegue una maggior concretezza delle minacce.
Non si tratta più solo di chatbot, ma di sistemi in grado di agire nel mondo fisico, oltre che digitale. In caso di vulnerabilità, un agente può essere manipolato come un qualsiasi software compromesso, con il rischio di perdita di dati o comportamenti indesiderati. Per questo, molte implementazioni recenti prevedono ancora una supervisione umana diretta nelle situazioni più delicate.
Kolter sottolinea che, con la progressiva autonomia degli agenti e l’inevitabile interazione tra loro, si profilano dinamiche complesse, difficili da prevedere. Secondo lui, infatti, la teoria dei giochi non basta più per spiegare l’IA. Questa teoria, che appartiene al ramo della matematica che studia come gli individui razionali prendono decisioni in situazioni di conflitto o cooperazione, è stata sviluppata per analizzare comportamenti umani o dinamiche economiche. Tuttavia, nel caso degli agenti di IA, le interazioni si svolgono tra sistemi artificiali, spesso molto diversi tra loro, con obiettivi e capacità che non ricalcano quelli umani.
Quando più agenti di IA iniziano a comunicare e prendere decisioni autonomamente, possono emergere comportamenti complessi e imprevedibili. Le regole con cui interpretiamo i conflitti o le collaborazioni tra esseri umani non bastano più. Per questo, secondo Kolter, è necessario creare una nuova teoria dei giochi, ovvero un nuovo strumento concettuale, in grado di spiegare e governare queste dinamiche tra entità artificiali.
Leggi l’articolo completo: The AI Agent Era Requires a New Kind of Game Theory su wired.com.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

