I ricercatori di Microsoft hanno presentato BitNet b1.58 2B4T, sostenendo che si tratti del più grande modello di IA a 1 bit realizzato finora. Rilasciato con licenza open source MIT, è progettato per funzionare su CPU standard, incluso Apple M2, senza richiedere dunque hardware specializzato. I BitNet rappresentano una categoria di modelli AI compressi specificamente concepiti per operare su dispositivi con risorse computazionali limitate.
BitNet b1.58 2B4T è stato addestrato su una quantità di testo equivalente a circa 33 milioni di libri e si distingue in quanto modello particolarmente leggero, grazie alla cosiddetta quantizzazione. Questa tecnica riduce i pesi del modello a pochissimi valori possibili, in questo caso a 1 bit. In altre parole, invece di utilizzare dati numerici complessi per i suoi parametri interni, opera con soli tre valori (-1; 0; 1). Questa semplificazione permette un’efficienza notevolmente superiore rispetto ai sistemi “tradizionali”, pur riuscendo competere con prodotti simili di Meta, Google e Alibaba in vari test di benchmark di ragionamento e comprensione. Ha inoltre mostrato velocità di elaborazione doppie a fronte di consumi di memoria ridotti.
Va però segnalato che l’ottimizzazione massima del modello richiede l’utilizzo del framework proprietario di Microsoft bitnet.cpp, attualmente incompatibile con le GPU che costituiscono l’infrastruttura standard per l’IA. Questa limitazione tecnica costituisce un ostacolo importante per una tecnologia che promette di rendere l’intelligenza artificiale accessibile su hardware più comune e meno specializzato.
Leggi l’articolo completo “Microsoft researchers say they’ve developed a hyper-efficient AI model that can run on CPUs” su TechCrunch
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

