• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Builder.AI fallisce: dietro l’AI c’erano 700 ingegneri indiani

una sala di annotatori

La startup londinese Builder.AI è fallita lo scorso maggio dopo aver mascherato per anni il lavoro di 700 ingegneri indiani dietro un presunto sistema di AI, Natasha. Sostenuta da investimenti per 445 milioni di dollari incluso il supporto di Microsoft, Builder.AI prometteva soluzioni di sviluppo automatizzato di app e siti web. Le numerose recensioni negative e i ritardi nelle consegne hanno rivelato l’inganno, portando al ritiro dei finanziatori e al conseguente collasso.

Il caso rientra nel più ampio fenomeno della fauxtomation. Il termine è stato coniato da Astra Taylor nel 2014 per descrivere tecnologie che si presentano come automatizzate ma si basano in realtà su lavoro umano invisibile. Pratiche simili sono state documentate in Amazon Go, dove migliaia di addetti indiani verificavano manualmente gli acquisti nei negozi “senza casse”, o nel progetto Facebook M di Meta, poi dismesso per l’eccessiva dipendenza da operatori umani.

La fauxtomation rivela una contraddizione strutturale dell’industria tech: dietro la promessa di efficienza e innovazione si cela spesso manodopera invisibile, sottopagata e delocalizzata. Secondo Irina Raicu, direttrice del programma di etica di Internet alla Santa Clara University, questo approccio “nasconde il lavoro umano e gonfia falsamente il valore della soluzione automatizzata”. Non si tratta solo di un problema etico, già di per sè rilevante. Riguarda anche la trasparenza dell’industria tech e l’affidabilità dei modelli di investimento in intelligenza artificiale.

Leggi gli articoli completi:

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

Esplora altri articoli su questi temi