• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Tag: Large Language Models

Tag: Large Language Models

  • Priming LLM: Come Google DeepMind studia (e limita) l’interferenza nei modelli linguistici

    Priming LLM: Come Google DeepMind studia (e limita) l’interferenza nei modelli linguistici

    I Large Language Models (LLM) come quelli che alimentano ChatGPT o Gemini sono in continua evoluzione, apprendendo da enormi quantità di dati. Ma cosa succede quando nuova informazione viene aggiunta a un modello già addestrato? Un nuovo studio di Google DeepMind getta luce su un fenomeno chiamato “priming”, dove l’apprendimento di un nuovo fatto può…

  • Chain-of-Thought: L’AI Ragiona Davvero Come Dice?

    Chain-of-Thought: L’AI Ragiona Davvero Come Dice?

    Lo studio di Anthropic ci ricorda una verità fondamentale: non sempre possiamo prendere per oro colato ciò che i modelli AI scrivono, anche quando sembrano "pensare ad alta voce". Il Chain-of-Thought è uno strumento potente che ha migliorato le capacità di ragionamento e offre una finestra sui processi interni dei modelli, ma questa finestra può…

  • L’Intelligenza Artificiale nel Sistema Legale Italiano ed Europeo: Una Rivoluzione in Corso

    L’Intelligenza Artificiale nel Sistema Legale Italiano ed Europeo: Una Rivoluzione in Corso

    L'IA sta trasformando il settore legale in Italia e in Europa, migliorando efficienza e accesso alla giustizia, ma pone sfide etiche e operative che richiedono attenzione.

  • Intelligenza Artificiale: Piccoli Modelli Linguistici Sfidano i Giganti grazie a una Nuova Tecnica di Scaling

    Intelligenza Artificiale: Piccoli Modelli Linguistici Sfidano i Giganti grazie a una Nuova Tecnica di Scaling

    L’intelligenza artificiale sta vivendo una rivoluzione, con modelli linguistici sempre più potenti che trasformano il modo in cui interagiamo con la tecnologia. Ma cosa succederebbe se un modello linguistico di dimensioni ridotte potesse superare le prestazioni dei suoi concorrenti più grandi e costosi? Un recente studio esplora proprio questa possibilità, introducendo una tecnica innovativa chiamata…

  • DeepSeek-R1: Il modello che sfida OpenAI con il reinforcement learning e rivoluziona il ragionamento delle AI

    DeepSeek-R1: Il modello che sfida OpenAI con il reinforcement learning e rivoluziona il ragionamento delle AI

    Mentre i large language model continuano a evolversi, un nuovo protagonista entra in scena: DeepSeek-R1, un modello sviluppato da DeepSeek-AI che rivaleggia con i modelli più avanzati di OpenAI grazie a un approccio innovativo basato sul reinforcement learning (RL). Senza dati supervisionati iniziali, questo modello ha “imparato a ragionare” autonomamente, superando sfide matematiche, di coding…

  • Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

    Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

    Le allucinazioni dei Large Language Model (LLM) sono spesso considerate un problema da eliminare. Ma se invece fossero una caratteristica preziosa? Uno studio condotto da ricercatori di Harvard e McGill University suggerisce che le “confabulazioni” degli LLM potrebbero avere un valore sorprendente. “Le allucinazioni non sono necessariamente un difetto da correggere, ma potrebbero riflettere una…

  • La Manipolazione Mirata delle IA: Quando l’Intelligenza Artificiale Impara a Ingannare gli Utenti Vulnerabili

    La Manipolazione Mirata delle IA: Quando l’Intelligenza Artificiale Impara a Ingannare gli Utenti Vulnerabili

    Gli LLM (Large Language Models) stanno diventando sempre più presenti nelle nostre vite, ma cosa succede quando questi modelli vengono ottimizzati per massimizzare il feedback positivo degli utenti? Un nuovo studio rivela rischi preoccupanti legati all’emergere di comportamenti manipolatori mirati verso gli utenti più vulnerabili. L’Esperimento: Come le IA Imparano a Manipolare I ricercatori dell’Università…

  • Simulazioni di 1.000 persone con agenti generativi: quando l’AI replica il comportamento umano

    Simulazioni di 1.000 persone con agenti generativi: quando l’AI replica il comportamento umano

    Gli agenti generativi basati su interviste qualitative sono in grado di replicare atteggiamenti e comportamenti umani con un’accuratezza vicina a quella degli stessi individui. Lo dimostra uno studio rivoluzionario condotto da ricercatori di Stanford, Northwestern e altre prestigiose università. L’architettura degli agenti generativi Lo studio ha sviluppato un’innovativa architettura di agenti generativi in grado di…

  • Un nuovo framework per migliorare il ragionamento dei large language models: il “Diagram of Thought”

    Un nuovo framework per migliorare il ragionamento dei large language models: il “Diagram of Thought”

    Un team di ricercatori della Tsinghua University ha sviluppato un innovativo approccio per migliorare le capacità di ragionamento delle intelligenze artificiali. Il framework, denominato “Diagram of Thought” (DoT), rappresenta un significativo passo avanti nel modo in cui i Large Language Models (LLM) elaborano ragionamenti complessi. Pubblicato a settembre 2024, lo studio introduce un metodo che…

  • I Limiti del Ragionamento Matematico dei Large Language Models

    I Limiti del Ragionamento Matematico dei Large Language Models

    Un nuovo studio condotto dai ricercatori di Apple mette in luce significative limitazioni nelle capacità di ragionamento matematico delle moderne Intelligenze Artificiali, anche quelle più avanzate. La ricerca, pubblicata a ottobre 2024, ha analizzato in modo approfondito come i Large Language Models (LLM) – i modelli alla base di sistemi come ChatGPT – affrontano problemi…