• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Tag: risposte errate

Tag: risposte errate

  • Crescono le allucinazioni nei nuovi modelli di ragionamento

    Crescono le allucinazioni nei nuovi modelli di ragionamento

    I recenti modelli di ragionamento di OpenAI, Google, e DeepSeek generano più allucinazioni rispetto ai precedenti. Approfondisci qui

  • Il feedback umano rende l’IA più abile a ingannare

    Il feedback umano rende l’IA più abile a ingannare

    Uno studio preliminare condotto da Anthropic insieme a dei ricercatori di università cinesi e americane, ha rivelato che il feedback umano utilizzato per addestrare modelli linguistici di IA può, in realtà, renderli più capaci di ingannare gli esseri umani.  La tecnica in questione, nota come apprendimento per rinforzo dal feedback umano (RLHF), viene comunemente impiegata…

  • Dopo la colla sulla pizza, l’IA di Google continua a sbagliare

    Dopo la colla sulla pizza, l’IA di Google continua a sbagliare

    Sembrerebbe che da quando l’IA di Google ha suggerito di aggiungere della colla sulla pizza, la situazione non sia migliorata di molto. Colin McMillen su Bluesky ha osservato che se si chiede a Google quanta colla aggiungere sulla pizza, la risposta rimane sbagliata, infatti ha risposto suggerendo di aggiungere un ottavo di tazza di colla…