• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

The Alignment Problem. Machine Learning and Human Values

La copertina del libro The Alignment Problem. Un disegno astratto, sui colori del bul, mostra delle linee spezzate nella parte alta della copertina, e un andamento sinusoidale in quella inferiore.

I modierni sistemi di apprendimento automatico, addestrati su dati, sono così efficaci che li abbiamo invitati a vedere e sentire per noi e a prendere decisioni per nostro conto. Ma i campanelli d’allarme stanno suonando. Negli ultimi anni si è assistito a un’esplosione di preoccupazioni per i progressi dei modelli di apprendimento automatico. Quando i sistemi che cerchiamo di addestrare non fanno quello che vogliamo o che ci aspettiamo, emergono rischi etici e potenzialmente esistenziali. I ricercatori chiamano questo problema allineamento ed è quello che Brian Christian affronta nel suo nuovo libro The Alignment Problem. Machine Learning and Human Values.

I modelli matematici e computazionali che guidano questi cambiamenti variano in complessità: da soluzioni che possono essere contenute in un foglio di calcolo a sistemi complessi che potrebbero essere definito “intelligenza artificiale”. Stanno progressivamente sostituendo sia il giudizio umano che il software esplicitamente programmato.

Nell’avvincente resoconto dell’autore Brian Christian, incontriamo i “primi soccorritori” del problema dell’allineamento e apprendiamo il loro ambizioso piano per risolverlo prima che le nostre mani siano completamente fuori dal timone. In una miscela magistrale di storia e reportage sul campo, Christian ripercorre la crescita esponenziale del campo dell’apprendimento automatico e ne analizza i risultati.

Maggiori informazioni su The Alignment Problem. Machine Learning and Human Values sul sito dell’autore Brian Christian.

Esplora altri articoli su questi temi