Tag: allucinazioni
Tag: allucinazioni
-

Deloitte rimborsa il governo australiano per un report contenente errori
Deloitte ammette l'uso di IA generativa in report da 440mila $ con errori: rimborso parziale al governo australiano. Leggi di più su MagIA
-

LLM e allucinazioni, motivi e possibili soluzioni secondo OpenAI
Uno studio pubblicato da OpenAI spiega i motivi e le possibili soluzioni al fenomeno delle allucinazioni. Leggi l'articolo su MagIA
-

Rischi del vibe coding: AI cancella un database aziendale
L'AI di Replit cancella database con 1.200 contatti aziendali, violando le direttive di sicurezza impostate. Leggi l'articolo su MagIA
-

Claudius: l’IA di Anthropic messa a gestire un distributore automatico
L'esperimento di Anthropic con l'IA Claudius alla guida di un distributore automatico ha evidenziato diverse problematiche. Leggi qui...
-

Capsa di Themis AI corregge errori nei modelli AI
È stato sviluppato Themis AI, una tecnologia che permette ai modelli di IA di riconoscere le proprie incertezze e correggere errori.
-

OpenAI non è responsabile delle allucinazioni di ChatGPT
Un tribunale della Georgia chiarisce la responsabilità di OpenAI sugli errori di ChatGPT:Gli utenti hanno il doverei verificare i contenuti.
-

Gmail integra Gemini con riepiloghi automatici delle e-mail
Google introduce in Gmail la funzione Gemini, che riassume le email lunghe. L’opzione sarà attivata di default in alcune aree. Leggi qui
-

Il rapporto MAHA promosso da RFK Jr. é pieno di allucinazioni AI
Il rapporto MAHA di RFK Jr. è stato criticato per numerosi errori e fonti inesistenti, con evidenze di un ampio uso di IA nella sua stesura.
-

Reasoning model, per Epoch AI i progressi potrebbero rallentare
Un’analisi pubblicata da Epoch AI prevede un rallentamento nei progressi dei modelli AI di ragionamento entro un anno. Approfondisci qui
-

Risposte brevi nei chatbot aumentano il rischio di allucinazione
Secondo uno studio di Giskard, chiedere risposte brevi ai chatbot può aumentare la probabilità di ricevere informazioni false. Leggi qui
