Ex dirigenti di importanti aziende tecnologiche come OpenAI, Meta e Google hanno esortato il Congresso a implementare una regolamentazione chiara per garantire la sicurezza e la trasparenza nello sviluppo dell’IA.
Helen Toner, ex membro del consiglio di OpenAI, ha testimoniato a favore di requisiti di trasparenza per i sistemi di IA ad alto rischio, tra cui obblighi legati ai dati di addestramento, ai test di sicurezza e alle pratiche di gestione dei rischi. Ha anche suggerito l’istituzione di un ecosistema di audit indipendenti per valutare e certificare i sistemi di IA, richiedendo verifiche periodiche e autorizzazioni federali per gli auditor.
David Evan Harris, ex membro del team AI di Meta, ha sottolineato che una regolamentazione nazionale chiara non solo proteggerebbe il pubblico, ma faciliterebbe l’innovazione, evitando che le aziende debbano conformarsi a leggi statali frammentate.
Margaret Mitchell, ex ricercatrice di Google AI, ha denunciato che l’attuale cultura aziendale incentiva velocità e innovazione a discapito della sicurezza. Secondo Mitchell, è difficile per i dipendenti concentrarsi sulla sicurezza e ottenere promozioni in aziende che premiano la rapidità nel lanciare nuovi prodotti. Questa pressione, ha spiegato William Saunders, ex funzionario di OpenAI, spinge le aziende a sottovalutare i rischi, con incentivi economici che premiano la leadership di mercato piuttosto che la diligenza.
Nonostante ci siano attualmente più di 120 progetti di legge relativi all’IA in discussione al Congresso, nessuno ha ancora avuto un impatto significativo. Senza una regolamentazione federale, la frammentazione normativa a livello statale rischia di rallentare l’innovazione e aumentare la confusione legale, ha avvertito Harris.
Leggi l’articolo completo: Former OpenAI, Meta, Google officials urge Congress to adopt AI safety, transparency rules su transparencycoalition.ai.

Immagine generata tramite DALL-E 3.

