Durante ”Code with Claude”, il primo evento per sviluppatori di Anthropic, il CEO Dario Amodei ha dichiarato che i modelli AI attuali allucinano meno degli esseri umani, seppur in modi più imprevedibili. Secondo Amodei, il fenomeno delle allucinazioni non rappresenta un ostacolo concreto allo sviluppo dell’intelligenza artificiale generale (AGI), che ritiene potenzialmente raggiungibile entro il 2026.
La posizione di Amodei contrasta con quella di altri leader del settore; Demis Hassabis, CEO di Google DeepMind, considera le allucinazioni un problema rilevante, sottolineando come i modelli attuali abbiano troppe “lacune” e commettano errori su questioni basilari. Un caso recente ha visto proprio un avvocato di Anthropic scusarsi in tribunale dopo che Claude aveva generato citazioni errate in un documento legale.
Come osserva TechCrunch, i benchmark disponibili confrontano i modelli tra loro, non rispetto agli esseri umani, rendendo difficile verificare le affermazioni di Amodei. Alcune tecniche, come l’accesso alla ricerca web, stanno contribuendo a ridurre il fenomeno, e modelli recenti come GPT-4.5 mostrano tassi di allucinazione più bassi rispetto alle prime generazioni.
Leggi l’articolo completo Anthropic CEO claims AI models hallucinate less than humans su TechCrunch
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

