Gemini ha segnalato un’immagine di un venditore di cammelli mediorientale come incitante all’odio, molesta e sessualmente esplicita. Perché è successo se l’immagine ritraeva solo l’individuo che parlava?
Questo caso evidenzia il problema dei bias nelle IA, pregiudizi che semplificano il processo decisionale come scorciatoie mentali, dannosi però quando usano informazioni inappropriate, come il genere di una persona per valutare la sua idoneità per un lavoro. Così, vengono prodotti risultati discriminatori.
La difficoltà di questo tema risiede nel fatto che i bias si possono infiltrare in diverse fasi dello sviluppo delle IA: dai sistemi preesistenti di IA usati per costruirne nuovi senza considerare la differenza di contesto, ai dataset usati per l’addestramento delle IA che possono di per sé già contenere bias, fino alla struttura stessa dei modelli e ai meccanismi di controllo post-generazione dei risultati, difficili da implementare.
L’obiettivo non è eliminare i bias, ma renderli espliciti, controllabili e accettabili. Per questo, la trasparenza è la chiave per affrontare il problema: conoscere ogni passaggio della creazione, sviluppo ed uso delle IA permette di identificare i bias, mantenere il controllo e correggere il risultato discriminatorio. Soluzioni tecniche, come il tracciamento dei dati di addestramento che influenzano gli output, e pratiche di sviluppo che promuovano la trasparenza, come la pubblicazione del codice sorgente e i dati di addestramento, sono fondamentali per mitigare questi rischi e garantire l’equità nelle IA.
Leggi l’articolo completo “A look at Bias in Generative AI” su Artificial Intelligence Made Simple.
Immagine generata con Chat Gpt 4.0.

