L’industria dell’IA sta cercando di ridefinire cosa significhi “intelligenza artificiale open source“. L’Open Source Initiative (OSI) ha recentemente pubblicato una definizione che ha suscitato forti critiche, affermando che consenta l’uso di dati e meccanismi di training segreti. Questa definizione di “open source” è stata descritta come priva di senso. Tuttavia, è vero che molti modelli di IA definiti “open source”, come LLAMA, sono in realtà effettivamente accessibili solo parzialmente. Si pensa perciò che l’OSI stia cedendo alle pressioni delle grandi aziende del settore che cercano, appunto, di mantenere segreti i loro processi di sviluppo pur sfruttando l’etichetta di “open source”.
Nonostante ciò, risulta urgentemente necessaria una vera IA pubblica, che possa essere realmente sviluppata in modo aperto e trasparente. Tuttavia, l’open source non è sempre praticabile, soprattutto in contesti come l’IA medica, dove la privacy e le leggi sulla protezione dei dati rendono impossibile la condivisione totale dei dati. In questi casi, potrebbe essere utile parlare di “pesi aperti” piuttosto che di open source, per riflettere una definizione più precisa e rispettosa delle normative.
Leggi l’articolo completo: AI Industry is Trying to Subvert the Definition of “Open Source AI” su schneider.com.
Immagine generata tramite DALL-E 3.

