• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

IA più sostenibile: SpikingBrain introduce i neuroni a spike nei LLM

Chip AI in mezo a piante e fiori. Immagine astratta in stile acquarello dai toni blu e azzurro.

Un gruppo di ricercatori ha presentato SpikingBrain, una nuova famiglia di modelli di intelligenza artificiale ispirati al cervello umano e progettati per superare i principali limiti di efficienza dei grandi modelli linguistici (LLM). Infatti, gli attuali sistemi basati su Transformer richiedono risorse computazionali enormi: i costi di addestramento crescono in modo quadratico con l’aumento della lunghezza del testo e l’uso della memoria cresce linearmente, rendendo l’elaborazione di contesti molto lunghi lenta e costosa.

SpikingBrain adotta un approccio diverso. Sviluppato sulla piattaforma GPU di MetaX, combina architetture di attenzione lineare e ibrido-lineare con neuroni a spike adattivi, che imitano il funzionamento dei neuroni biologici. Il progetto introduce anche una pipeline di addestramento compatibile con gli LLM esistenti e un’infrastruttura software personalizzata, ottimizzata per hardware non NVIDIA, un ostacolo rilevante per molti gruppi di ricerca.

Più precisamente, sono stati sviluppati due modelli: SpikingBrain-7B, un LLM lineare, e SpikingBrain-76B, un modello ibrido Mixture-of-Experts. Pur essendo stato addestrato con “soli” 150 miliardi di token, ossia molto meno rispetto ai modelli più diffusi, il sistema ottiene risultati comparabili a quelli open source di punta. Le prestazioni sono notevoli, SpikingBrain-7B può gestire sequenze fino a 4 milioni di token con una velocità 100 volte superiore nella generazione del primo output, mantenendo un addestramento stabile su centinaia di GPU MetaX.

Grazie al suo schema a spike, il sistema raggiunge inoltre oltre il 69% di sparsità, riducendo in modo significativo i consumi energetici.

Leggi l’articolo completo: SpikingBrain Technical Report: Spiking Brain-inspired Large Models su arxive.org.

Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (16/01/2025).

Esplora altri articoli su questi temi