Sam Altman di OpenAI ha dichiarato a Trump che l’AGI arriverà entro la fine del suo mandato, Dario Amodei di Anthropic suggerisce tempi ancora più brevi, mentre Elon Musk ipotizza la sua realizzazione entro la fine di quest’anno. Nonostante manchi di una definizione condivisa, l’Intelligenza Artificiale Generale (abbreviata con l’acronimo AGI) viene comunemente intesa come un’IA grado di eguagliare le capacità della mente umana.
Mentre le aziende tecnologiche ne prevedono l’arrivo imminente e ipotizzano anche la sua evoluzione successiva – la superintelligenza – un ampio fronte di ricercatori esprime forte scetticismo. In un recente sondaggio dell’Association for the Advancement of Artificial Intelligence, oltre tre quarti degli intervistati ritiene improbabile che i metodi attuali possano condurre all’AGI. Nick Frosst, fondatore della startup Cohere, sottolinea le differenze sostanziali tra l’intelligenza umana e la tecnologia attuale, basata su previsione di parole o pixel. I modelli AI non riescono infatti a gestire situazioni impreviste e faticano nel riconoscere l’ironia e nel generare idee realmente originali anziché rielaborare contenuti esistenti.
Per quanto reti neurali e tecniche come il reinforcement learning abbiano permesso importanti progressi in ambiti come matematica, programmazione e velocità di elaborazione, secondo Yann LeCun, per raggiungere l’AGI è necessario superare le tecnologie oggi disponibili. Allo stato attuale, l’intelligenza umana resta unica nella sua connessione col mondo fisico e in aspetti difficilmente quantificabili come creatività, umorismo e sincerità.
Leggi l’articolo completo Why We’re Unlikely to Get Artificial General Intelligence Anytime Soon su The New York Times
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

