Mark Zuckerberg ha rivelato in una recente conference call con investitori e analisti che Meta sta addestrando il nuovo modello Llama 4 su un cluster di GPU che è il più grande mai utilizzato, composto da oltre 100.000 chip Nvidia H100. Questa strategia è parte di un impegno significativo dell’azienda, che prevede di spendere fino a 40 miliardi di dollari per potenziare data center e infrastrutture nel corso dell’anno.
Sebbene Meta si posizioni attualmente come leader nella corsa per l’IA generativa con modelli scaricabili gratuitamente, la società deve affrontare sfide ingegneristiche uniche e requisiti energetici enormi per gestire un’infrastruttura così complessa. Il CEO ha accennato a “nuove modalità” e “ragionamenti più forti” per Llama 4, previsto per un lancio all’inizio del prossimo anno.
OpenAI e Google stanno anche loro sviluppando i loro modelli, ma Meta punta su un approccio open source, nonostante le preoccupazioni legate alla sicurezza nell’uso di un’IA potente. Sono oltre 500 milioni di utenti mensili che usano il chatbot Meta AI, infatti l’azienda vede un potenziale significativo per monetizzare le sue nuove capacità attraverso la pubblicità.
Leggi l’articolo completo: Meta’s Next Llama AI Models Are Training on a GPU Cluster ‘Bigger Than Anything’ Else su wired.com.

Immagine generata tramite DALL-E 3.

