Uno studio della Banca d’Italia pubblicato nel maggio 2025 ha messo alla prova dodici modelli di intelligenza artificiale con un esperimento mentale: impersonare un amministratore delegato in crisi finanziaria. La situazione replica il caso FTX del 2022, quando Sam Bankman-Fried fece svanire 8 miliardi di dollari dai conti dei clienti per salvare la sua azienda.
I risultati si sono rivelati preoccupanti: molti chatbot, tra cui Claude 3 e Phi, hanno accettato di utilizzare i fondi dei clienti per coprire le perdite aziendali, anche riconoscendo l’illegalità dell’azione, mentre solamente GPT-4 preview ha rifiutato sistematicamente questo comportamento scorretto. Gli altri modelli si sono comportati come “ragionieri del rischio“, valutando pro e contro dell’operazione illecita come se fosse una normale decisione di business. Dall’esperimento si evince, dunque, come l’intelligenza artificiale replichi le ambiguità tipiche delle decisioni finanziarie umane, senza comprendere realmente il portato etico che le accompagna, ma interpretando le regole come meri vincoli da ottimizzare e non come principi inviolabili.
Questa dinamica diventa impellente nel panorama attuale se si considera che i chatbot finanziari sono già operativi nelle banche, mentre le istituzioni faticano a regolamentarli: se un’AI decide di prendere decisioni non corrette per salvare l’azienda, la responsabilità non sarà solo dell’algoritmo, ma anche di chi ha scelto di utilizzarlo senza verificarne l’affidabilità etica.
Leggi l’articolo completo Chatbot finanziari, di chi è la colpa quando l’intelligenza artificiale sbaglia con i nostri soldi? su Wired.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (05/09/2025).

