Autore: Federico Torrielli
Autore: Federico Torrielli
Federico Torrielli è redattore della sezione Academia di MagIA, insieme a Giovanni Siragusa.
Dottorando in Intelligenza Artificiale presso l'Università degli studi di Torino, studia in particolare i large language models, l'AI generativa e la teoria dell'allineamento AI. Nel suo lavoro quotidiano, lavora con architetture Transformer-based, modelli di diffusione e pipeline NLP per sviluppare soluzioni innovative per la comprensione e la generazione del linguaggio.
Proveniente da una formazione in informatica con una laurea magistrale in Intelligenza Artificiale, Federico è anche un appassionato di classicismo, convinto dell'importanza di comprendere il passato per prevedere il futuro. È un giornalista tech con un focus sui progressi dell'AI e NLP, e un sostenitore del software Open Source e dello sviluppo guidato dalla community.
Leggi tutti i contenuti di Federico Torrielli.
-

Priming LLM: Come Google DeepMind studia (e limita) l’interferenza nei modelli linguistici
I Large Language Models (LLM) come quelli che alimentano ChatGPT o Gemini sono in continua evoluzione, apprendendo da enormi quantità di dati. Ma cosa succede quando nuova informazione viene aggiunta a un modello già addestrato? Un nuovo studio di Google DeepMind getta luce su un fenomeno chiamato “priming”, dove l’apprendimento di un nuovo fatto può…
-

Chain-of-Thought: L’AI Ragiona Davvero Come Dice?
Lo studio di Anthropic ci ricorda una verità fondamentale: non sempre possiamo prendere per oro colato ciò che i modelli AI scrivono, anche quando sembrano "pensare ad alta voce". Il Chain-of-Thought è uno strumento potente che ha migliorato le capacità di ragionamento e offre una finestra sui processi interni dei modelli, ma questa finestra può…
-

Intelligenza Artificiale: Piccoli Modelli Linguistici Sfidano i Giganti grazie a una Nuova Tecnica di Scaling
L’intelligenza artificiale sta vivendo una rivoluzione, con modelli linguistici sempre più potenti che trasformano il modo in cui interagiamo con la tecnologia. Ma cosa succederebbe se un modello linguistico di dimensioni ridotte potesse superare le prestazioni dei suoi concorrenti più grandi e costosi? Un recente studio esplora proprio questa possibilità, introducendo una tecnica innovativa chiamata…
-

I Grandi Modelli Pensano Allo Stesso Modo: Un Nuovo Studio Svela i Rischi per la Supervisione dell’IA
Le capacità dei large language models avanzano rapidamente, ma come possiamo assicurarci che siano affidabili e sicuri? Un nuovo studio esplora come la somiglianza tra modelli influenzi la loro valutazione e supervisione, sollevando preoccupazioni sui rischi di errori di correlazione. Scopriamo insieme i risultati di questa ricerca e le sue implicazioni per il futuro dell’AI…
-

DeepSeek-R1: Il modello che sfida OpenAI con il reinforcement learning e rivoluziona il ragionamento delle AI
Mentre i large language model continuano a evolversi, un nuovo protagonista entra in scena: DeepSeek-R1, un modello sviluppato da DeepSeek-AI che rivaleggia con i modelli più avanzati di OpenAI grazie a un approccio innovativo basato sul reinforcement learning (RL). Senza dati supervisionati iniziali, questo modello ha “imparato a ragionare” autonomamente, superando sfide matematiche, di coding…
-

Il Genoma Comprime l’Intelligenza: Come un “Collo di Bottiglia Genomico” Spiega le Abilità Innate degli Animali
Come fa un ragno appena nato a tessere una ragnatela perfetta senza alcuna esperienza? Come possono i cuccioli di balena nuotare abilmente pochi istanti dopo la nascita? Queste domande affascinano scienziati e appassionati da decenni. Un recente studio intitolato “Encoding innate ability through a genomic bottleneck” di Sergey Shuvaev e colleghi offre una risposta rivoluzionaria…
-

Un nuovo framework per migliorare il ragionamento dei large language models: il “Diagram of Thought”
Un team di ricercatori della Tsinghua University ha sviluppato un innovativo approccio per migliorare le capacità di ragionamento delle intelligenze artificiali. Il framework, denominato “Diagram of Thought” (DoT), rappresenta un significativo passo avanti nel modo in cui i Large Language Models (LLM) elaborano ragionamenti complessi. Pubblicato a settembre 2024, lo studio introduce un metodo che…
-

L’Intelligenza Artificiale è una bolla speculativa? Un nuovo studio di Yale lo conferma
Un’analisi approfondita condotta dal Prof. Luciano Floridi del Digital Ethics Center di Yale University suggerisce che l’attuale entusiasmo per l’Intelligenza Artificiale presenta tutte le caratteristiche di una bolla tecnologica, simile a quelle che abbiamo già visto in passato. Lo studio, che analizza cinque bolle tecnologiche precedenti – dalla bolla delle Dot-Com alla recente bolla delle…
-

I Limiti del Ragionamento Matematico dei Large Language Models
Un nuovo studio condotto dai ricercatori di Apple mette in luce significative limitazioni nelle capacità di ragionamento matematico delle moderne Intelligenze Artificiali, anche quelle più avanzate. La ricerca, pubblicata a ottobre 2024, ha analizzato in modo approfondito come i Large Language Models (LLM) – i modelli alla base di sistemi come ChatGPT – affrontano problemi…

