Tag: interpretabilità AI
Tag: interpretabilità AI
-

Position paper invita a monitorare il chain of thought delle AI
Ricercatori ed esperti di AI e spingono per nuovi metodi per monitorare i processi di ragionamento delle AI. Leggi l'articolo su MagIA
-

Interpretabilità e IA, Amodei (Anthropic) vuole aprire la scatola nera
Dario Amodei approfondisce il tema dell’interpretabilità dell'IA e fissa gli obiettivi di Anthropic. Approfondisci qui
-

Priming LLM: Come Google DeepMind studia (e limita) l’interferenza nei modelli linguistici
I Large Language Models (LLM) come quelli che alimentano ChatGPT o Gemini sono in continua evoluzione, apprendendo da enormi quantità di dati. Ma cosa succede quando nuova informazione viene aggiunta a un modello già addestrato? Un nuovo studio di Google DeepMind getta luce su un fenomeno chiamato “priming”, dove l’apprendimento di un nuovo fatto può…
-

Fuori dalla Scatola Nera: Le Probabilità Condizionate Svelano i Segreti dell’IA
Un team di ricercatori del MIT, dell’Università di Melbourne e dell’ESSEC Business School ha compiuto un importante passo avanti nella comprensione del funzionamento interno dei Large Language Models (LLM). Lo studio, pubblicato a dicembre 2024, rivela come l’analisi delle probabilità condizionate alla base della generazione del testo possa fornire preziose informazioni sull’affidabilità e il processo…
