Nonostante i recenti progressi nell’ambito dell’IA, le allucinazioni restano una criticità strutturale, e anzi aumentano nei nuovi sistemi di ragionamento sviluppati da OpenAI, Google e DeepSeek. Secondo test condotti dalle stesse aziende e da gruppi indipendenti, i tassi di errore dei reasoning model sono infatti sensibilmente aumentati rispetto ai loro precedessori. Il miglioramento nelle capacità matematiche e di programmazione non si affianca, dunque, a un maggiore ancoraggio ai fatti.
Questa fragilità ha implicazioni pratiche rilevanti, soprattutto in ambiti come il supporto tecnico, l’uso legale o medico. Lo dimostra il caso di Cursor, in cui un chatbot ha comunicato in autonomia un cambiamento di policy inesistente, suscitando le reazioni negative dei clienti. L’incapacità di distinguere i contenuti veri da quelli falsi e di produrre risposte affidabili mina fortemente il valore dell’automazione all’interno di contesti sensibili.
Le cause del fenomeno sono ancora in gran parte ignote. I nuovi modelli AI sono addestrati con tecniche più complesse, come il reinforcement learning, che però, spiega l’articolo del New York Times, sembra favorire l’accumulo di errori. Le aziende stanno cercando di affrontare il problema, mentre esperti del settore e ricercatori concordano sull’idea che si tratti di una questione di difficile soluzione. “Nonostante tutti i nostri sforzi, continueranno sempre a generare allucinazioni” ha affermato Amr Awadallah, CEO di Vectara, start-up specializzata nello sviluppo di soluzioni AI ed ex dirigente di Google, sottolineando che rimarranno un limite strutturale dell’IA generativa.
Leggi l’articolo completo A.I. Hallucinations Are Getting Worse, Even as New Systems Become More Powerful su The New York Times
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025)

