I modierni sistemi di apprendimento automatico, addestrati su dati, sono così efficaci che li abbiamo invitati a vedere e sentire per noi e a prendere decisioni per nostro conto. Ma i campanelli d’allarme stanno suonando. Negli ultimi anni si è assistito a un’esplosione di preoccupazioni per i progressi dei modelli di apprendimento automatico. Quando i sistemi che cerchiamo di addestrare non fanno quello che vogliamo o che ci aspettiamo, emergono rischi etici e potenzialmente esistenziali. I ricercatori chiamano questo problema allineamento ed è quello che Brian Christian affronta nel suo nuovo libro The Alignment Problem. Machine Learning and Human Values.
I modelli matematici e computazionali che guidano questi cambiamenti variano in complessità: da soluzioni che possono essere contenute in un foglio di calcolo a sistemi complessi che potrebbero essere definito “intelligenza artificiale”. Stanno progressivamente sostituendo sia il giudizio umano che il software esplicitamente programmato.
Nell’avvincente resoconto dell’autore Brian Christian, incontriamo i “primi soccorritori” del problema dell’allineamento e apprendiamo il loro ambizioso piano per risolverlo prima che le nostre mani siano completamente fuori dal timone. In una miscela magistrale di storia e reportage sul campo, Christian ripercorre la crescita esponenziale del campo dell’apprendimento automatico e ne analizza i risultati.
Maggiori informazioni su The Alignment Problem. Machine Learning and Human Values sul sito dell’autore Brian Christian.

