La ricerca sull’IA auto-migliorante, ovvero un’IA che sia in grado di migliorarsi da sola, sta avanzando rapidamente. Infatti, recente, ricercatori come Eliezer Yudkowsky e aziende come OpenAI hanno investito in modelli che progettano i loro successori, puntando a migliorarsi di volta in volta. Quest’idea viene accolta con ambivalenza, Sam Altman, ad esempio, la considera sia una minaccia che un’opportunità.
Alcune aziende, come Meta, hanno testato modelli linguistici che generano funzioni di ricompensa per ottimizzare versioni successive di sé stessi. Tali progetti dimostrano la presenza di miglioramenti nella competizione tra modelli, ma restano lontani dal livello di un auto-miglioramento completo. Un esempio è proprio il test di Meta, in cui un modello basato su Llama 2 ha superato altri sistemi in classifica. In parallelo, Anthropic ha indagato sull’uso di funzioni di ricompensa auto-progettate, osservando che alcuni modelli tentavano di riscriverle, arrivando anche a creare codice per nascondere queste modifiche.
Ulteriori studi hanno esplorato la capacità di modelli come GPT-4 di creare ottimizzatori per migliorare la propria efficienza. Sebbene alcuni esperimenti abbiano mostrato piccoli successi, viene osservato che il miglioramento rallenta dopo poche iterazioni, suggerendo limiti nel processo ricorsivo. Inoltre, i modelli auto-miglioranti sembrano riscontrare difficoltà nel risolvere problemi soggettivi e complessi, mostrando che il loro auto-giudizio resta chiaramente ancora inferiore alle capacità analitiche umane.
I dati sintetici sono spesso usati per potenziare questi sistemi, ma alcuni studi indicano che tali dati possono portare a un “collasso del modello“, compromettendone l’efficacia a lungo termine. Nonostante questo, aziende come Microsoft e Google continuano a investire nel potenziale ricorsivo dell’IA per generare nuovi strumenti.
Leggi l’articolo completo: Are we on the verge of a self-improving AI explosion? su arstechnica.com.

Immagine generata tramite DALL-E 3.

