Tag: pregiudizi
Tag: pregiudizi
-

SHADES: nuovo set di dati per contrastare i pregiudizi nell’IA
Il set di dati SHADES, sviluppato dal team di Hugging Face, è progettato per contrastare i pregiudizi nei modelli linguistici AI. Leggi qui
-

Come ridurre i bias nei chatbot di IA generativa
Esiste la possibilità di ridurre i bias nei chatbot di IA generativa con dei prompt anti-bias e la selezione di strumenti più imparziali.
-

Il misuratore AI di parzialità introdotto nel Los Angeles Times
Il Los Angeles Times annuncia l'introduzione di un misuratore di parzialità basato sull'IA per valutare le fonti negli articoli.
-

Bias nelle IA: la trasparenza come chiave per superarli
Gemini ha segnalato un’immagine di un venditore di cammelli mediorientale come incitante all’odio, molesta e sessualmente esplicita. Perché è successo se l’immagine ritraeva solo l’individuo che parlava? Questo caso evidenzia il problema dei bias nelle IA, pregiudizi che semplificano il processo decisionale come scorciatoie mentali, dannosi però quando usano informazioni inappropriate, come il genere di…
-

L’intelligenza artificiale ispirata alla biologia
L’Intelligenza Artificiale (IA), pur avendo raggiunto numerosi traguardi, presenta ancora criticità sia concettuali, legate ai modelli teorici (simbolici o connessionisti), sia operative, come la limitata robustezza e capacità di generalizzazione. L’IA ispirata alla biologia e al funzionamento del cervello offre la prospettiva di superare alcune di queste limitazioni, integrando dettagli biologici per migliorare le sue…
-

Razzismo nell’IA sanitaria, una sfida etica prioritaria
L’IA sta trasformando il settore sanitario, ma emergono preoccupazioni significative riguardo al razzismo nei suoi algoritmi. Affrontare il razzismo come una questione etica è essenziale per sviluppare un’IA sanitaria equa e affidabile. Questo richiede un’esplorazione approfondita di come il razzismo strutturale influenzi la raccolta e l’uso dei dati, nonché la progettazione degli algoritmi, per garantire…
-

I chatbot alimentano i pregiudizi? Uno studio della Johns Hopkins svela il rischio di polarizzazione
Un team della Johns Hopkins University ha scoperto che i chatbot possono rafforzare i pregiudizi degli utenti, contribuendo a un pensiero più polarizzato su questioni controverse. Lo studio, presentato alla conferenza CHI dell’Association of Computing Machinery, ha coinvolto 272 partecipanti che hanno utilizzato chatbot e motori di ricerca tradizionali per informarsi su temi come assistenza…
-

Google e i nazisti generati dall’IA: riflessioni sull’inclusione tecnologica
Di recente, Google ha suscitato scalpore con il suo nuovo software di intelligenza artificiale generativa, Gemini, che ha mostrato una serie di soldati nazisti germanici con una varietà di etnie e generi, suscitando critiche e derisione. L’azienda ha chiarito che il suo intento era quello di promuovere la diversità nelle rappresentazioni, ma il risultato ha…


