Come una giovane startup punta a rivoluzionare lo sviluppo software con l’intelligenza artificiale generativa
La promessa dell’Intelligenza Artificiale Generativa (AGI) ha catalizzato l’attenzione di investitori, sviluppatori e innovatori in tutto il mondo. Tuttavia, tra i tanti attori emergenti nell’era dell’automazione del codice, Magic AI si distingue non solo per le sue ambizioni, ma soprattutto per la sua visione tecnologica. La giovane startup sta cercando di ridefinire il modo in cui gli ingegneri del software lavorano, con l’obiettivo finale di creare un’AGI in grado di supportare o persino sostituire il lavoro umano nel campo dello sviluppo software.
Il Sogno dell’AGI: Realità o Marketing?
Magic AI, fondata nel 2022 da Eric Steinberger e Sebastian De Ro, ha rapidamente attirato l’attenzione del settore, non solo per il suo obiettivo dichiarato di sviluppare AGI, ma per gli impressionanti risultati ottenuti in un breve lasso di tempo. A fine agosto 2024, la startup ha annunciato il lancio di LTM-2-Mini, il suo primo modello con una finestra di contesto di 100 milioni di token, equivalente a 10 milioni di righe di codice o 750 romanzi. Questo risultato eleva Magic AI a una posizione di leadership nell’uso di finestre di contesto ultra-lunghe, una caratteristica che potrebbe rivoluzionare l’automazione dei processi di sviluppo software.
Ma l’AGI, un termine che spesso evoca immagini di intelligenze artificiali super intelligenti, qui ha un significato leggermente diverso. Nel contesto di Magic AI, l’AGI non implica necessariamente la creazione di un’intelligenza “umana”, ma piuttosto di strumenti commerciali capaci di eseguire compiti software meglio e più velocemente di un essere umano.
Una Partnership Strategica e un Finanziamento Record
Nel settembre 2024, Magic AI ha chiuso un round di finanziamento da 320 milioni di dollari, con il supporto di investitori di primo piano come Eric Schmidt, Alphabet’s CapitalG, Sequoia, Atlassian, Elad Gil, e altri. Con questo round, il finanziamento totale della startup è salito a 465 milioni di dollari, portandola nella stessa lega di altre emergenti promesse dell’AI come Inflection.
Gran parte di questi fondi è destinata a costruire due supercomputer su Google Cloud, denominati Magic-G4 e Magic-G5, che utilizzeranno le GPU Nvidia H100 e i nuovi chip Blackwell di Nvidia. Questi supercomputer saranno essenziali per gestire l’enorme potenza di calcolo necessaria per supportare le finestre di contesto ultra-lunghe di Magic AI, che la startup spera di scalare fino a 160 exaflops.
LTM e il Futuro del Calcolo AI
Uno degli aspetti più rivoluzionari del lavoro di Magic AI è il suo approccio all’uso del Long-Term Memory (LTM). Invece di affidarsi alla “memorizzazione fuzzy” tipica di altri modelli, LTM permette di gestire fino a 100 milioni di token di contesto durante l’inferenza, un salto evolutivo rispetto ai modelli precedenti. Secondo Magic AI, il loro LTM richiede 1.000 volte meno memoria e calcolo rispetto ai modelli come Llama 3.1 405B, che necessiterebbero di 638 GPU H100 per utente solo per memorizzare una cache di 100 milioni di token. Questa efficienza potrebbe aprire nuove possibilità per l’AI generativa su larga scala.
Oltre a questo, Magic AI ha introdotto un nuovo benchmark chiamato HashHop, specificamente progettato per valutare le prestazioni dei modelli a lungo contesto. Questo strumento si distingue per la sua capacità di testare modelli su dati che non possono essere compressi, senza suggerimenti semantici o bias di ricorrenza, garantendo così una valutazione più rigorosa delle capacità di ragionamento dei modelli.
Un Mercato in Crescita e la Competizione con i Grandi Nomi
Il campo dell’automazione del codice è senza dubbio uno dei più competitivi nell’era attuale dell’AI generativa. Con attori come Codeium, Cognition, Poolside, Anysphere (Cursor) e Augment già in corsa, Magic AI dovrà dimostrare di essere in grado di mantenere il passo. Tuttavia, il supporto di Google e Nvidia, insieme agli investimenti strategici, mettono la startup in una posizione di forza.
La partnership con Google Cloud non solo fornirà l’infrastruttura necessaria per i loro supercomputer, ma permetterà a Magic AI di scalare rapidamente e di accedere a un ecosistema di servizi cloud avanzati. Eric Steinberger, CEO e co-fondatore, ha dichiarato: “Siamo entusiasti di collaborare con Google e Nvidia per costruire i nostri supercomputer di nuova generazione. Il sistema GB200 NLV72 di Nvidia migliorerà notevolmente l’efficienza dell’inferenza e dell’addestramento dei nostri modelli, e Google Cloud ci offre la velocità e la scala necessarie per crescere rapidamente.”
Un Futuro “Magico” per gli Sviluppatori?
Nonostante l’hype intorno al termine “AGI”, Magic AI sembra concentrata sul miglioramento concreto della produttività degli ingegneri del software. Le sue soluzioni si propongono come una versione avanzata di strumenti già noti, come GitHub Copilot, ma con una comprensione molto più profonda e contestuale del codice. Se riusciranno a mantenere le promesse, Magic potrebbe davvero trasformare il modo in cui le aziende sviluppano software, rendendo l’automazione del codice non solo un sogno, ma una realtà accessibile e scalabile.
Immagine in copertina di Engin Akyurt su Pexels.
Articolo originale disponibile al seguente link: Can Coding Automation Companies Deliver a kind of SWE AGI?


