Tag: modelli linguistici
Tag: modelli linguistici
-

Come i Modelli Linguistici Valutano le Prove: Uno Studio Rivela i Criteri Decisionali dell’IA
In un’era in cui l’intelligenza artificiale viene sempre più spesso chiamata a rispondere a domande controverse, un nuovo studio dell’Università di Berkeley fa luce su come i modelli linguistici (LLM) valutano le fonti di informazione. La ricerca, pubblicata su arXiv, rivela risultati sorprendenti che potrebbero influenzare il futuro sviluppo dei sistemi di IA. I ricercatori…
-

Le AI “pensano”: scoperto il “centro semantico” dei modelli linguistici
Un team di ricercatori del MIT e dell’Università della California del Sud ha fatto una scoperta sorprendente sul funzionamento interno dei modelli di intelligenza artificiale: questi sistemi, indipendentemente dalla lingua o dal tipo di input che stanno elaborando, tendono a “pensare” in inglese. Lo studio introduce l'”ipotesi del centro semantico” (semantic hub hypothesis), secondo cui…
-

Un nuovo metodo per rendere più affidabili le risposte dei modelli linguistici
L’intelligenza artificiale fa ancora fatica a garantire risposte sempre accurate e veritiere. Ma un nuovo metodo chiamato “Integrative Decoding” (Decodifica Integrativa) promette di migliorare significativamente l’affidabilità dei grandi modelli linguistici. La ricerca, condotta da un team internazionale guidato dalla Hong Kong Polytechnic University e pubblicata su arXiv, presenta un approccio innovativo che ha mostrato miglioramenti…
-

L’IA “ragiona” davvero? Un nuovo studio svela i limiti dei modelli linguistici più avanzati
Un recente studio condotto da ricercatori delle Università di Yale e Princeton ha messo sotto la lente d’ingrandimento o1, l’ultimo modello linguistico di OpenAI, rivelando risultati sorprendenti sulla natura del “ragionamento” nelle intelligenze artificiali. La ricerca, pubblicata nell’ottobre 2024, ha analizzato se i modelli linguistici, anche quando ottimizzati specificamente per il ragionamento come o1, mantengano…
-

L’allineamento morale nei modelli linguistici non è la soluzione
Si diffonde sempre di più l’idea di “allineamento morale” nei modelli linguistici e questo non risolve i veri problemi legati all’IA. Infatti, molte discussioni si concentrano sulla prevenzione di danni ipotetici, come ad esempio una futura superintelligenza che minaccia l’umanità o l’uso dei LLM per scopi dannosi, trascurando però questioni più urgenti, come il fatto…
-

Lenka Zdeborová usa la fisica per migliorare l’apprendimento automatico
Lenka Zdeborová, fisica e informatica, studia come la fisica della materia sia in grado di aiutare a modellare il comportamento degli algoritmi di apprendimento automatico. Cresciuta in Repubblica Ceca, si é ispirata ad Asimov e alla fisica delle transizioni di fase per il suo lavoro presso l’Istituto Federale di Tecnologia di Losanna che esplora come…
-

L’Intelligenza Artificiale e i Limiti del Linguaggio
I modelli di intelligenza artificiale basati solo sul linguaggio, come gli LLM, non possono raggiungere la comprensione profonda tipica degli esseri umani. Nonostante siano in grado di gestire conversazioni complesse, la loro comprensione è limitata al contesto linguistico, mancando l’esperienza pratica e sensibile al mondo reale. Il linguaggio, infatti, non basta per sviluppare la consapevolezza…
-

Il feedback umano rende l’IA più abile a ingannare
Uno studio preliminare condotto da Anthropic insieme a dei ricercatori di università cinesi e americane, ha rivelato che il feedback umano utilizzato per addestrare modelli linguistici di IA può, in realtà, renderli più capaci di ingannare gli esseri umani. La tecnica in questione, nota come apprendimento per rinforzo dal feedback umano (RLHF), viene comunemente impiegata…


