Tag: risposte errate
Tag: risposte errate
-

Crescono le allucinazioni nei nuovi modelli di ragionamento
I recenti modelli di ragionamento di OpenAI, Google, e DeepSeek generano più allucinazioni rispetto ai precedenti. Approfondisci qui
-

Il feedback umano rende l’IA più abile a ingannare
Uno studio preliminare condotto da Anthropic insieme a dei ricercatori di università cinesi e americane, ha rivelato che il feedback umano utilizzato per addestrare modelli linguistici di IA può, in realtà, renderli più capaci di ingannare gli esseri umani. La tecnica in questione, nota come apprendimento per rinforzo dal feedback umano (RLHF), viene comunemente impiegata…
-

Dopo la colla sulla pizza, l’IA di Google continua a sbagliare
Sembrerebbe che da quando l’IA di Google ha suggerito di aggiungere della colla sulla pizza, la situazione non sia migliorata di molto. Colin McMillen su Bluesky ha osservato che se si chiede a Google quanta colla aggiungere sulla pizza, la risposta rimane sbagliata, infatti ha risposto suggerendo di aggiungere un ottavo di tazza di colla…
