• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Autore: Federico Torrielli

Autore: Federico Torrielli

Federico Torrielli è redattore della sezione Academia di MagIA, insieme a Giovanni Siragusa.

Dottorando in Intelligenza Artificiale presso l'Università degli studi di Torino, studia in particolare i large language models, l'AI generativa e la teoria dell'allineamento AI. Nel suo lavoro quotidiano, lavora con architetture Transformer-based, modelli di diffusione e pipeline NLP per sviluppare soluzioni innovative per la comprensione e la generazione del linguaggio.

Proveniente da una formazione in informatica con una laurea magistrale in Intelligenza Artificiale, Federico è anche un appassionato di classicismo, convinto dell'importanza di comprendere il passato per prevedere il futuro. È un giornalista tech con un focus sui progressi dell'AI e NLP, e un sostenitore del software Open Source e dello sviluppo guidato dalla community.

Leggi tutti i contenuti di Federico Torrielli.

  • Onestà e Large Language Models, a che punto siamo?

    Onestà e Large Language Models, a che punto siamo?

    Nel panorama dell’intelligenza artificiale e dell’NLP, i LLM hanno rivoluzionato il modo in cui interagiamo con la tecnologia. Tuttavia, nonostante i progressi straordinari, permane una questione cruciale: quanto sono onesti questi modelli? Un recente studio intitolato “A Survey on the Honesty of Large Language Models” affronta proprio questa tematica, offrendo una panoramica completa delle sfide…

  • L’Intelligenza Artificiale Raggiunge Nuovi Traguardi con l’Approccio “Mixture of Agents”

    L’Intelligenza Artificiale Raggiunge Nuovi Traguardi con l’Approccio “Mixture of Agents”

    Una svolta innovativa nel campo dell’intelligenza artificiale sta emergendo grazie all’approccio “Mixture of Agents” (MoA), frutto di un recente studio condotto da un team di ricercatori di “Together AI”. Questa nuova metodologia mira a potenziare le capacità dei sistemi di IA sfruttando la sinergia tra diversi modelli linguistici di grandi dimensioni (LLM). Il cuore pulsante…

  • Un nuovo metodo per rilevare le allucinazioni nei Large Language Models

    Un nuovo metodo per rilevare le allucinazioni nei Large Language Models

    I Large Language Models (LLM) come GPT e Gemini hanno dimostrato impressionanti capacità di ragionamento e di risposta alle domande, ma spesso “allucinano” risposte false e infondate. Questo comportamento inaffidabile ostacola la loro adozione in diversi campi, creando problemi che vanno dalla fabbricazione di precedenti legali inesistenti alla diffusione di notizie false, fino a rappresentare…

  • Meta rilascia Chamaleon, una nuova famiglia di modelli di IA

    Meta rilascia Chamaleon, una nuova famiglia di modelli di IA

    Meta, la società madre di Facebook e Instagram, ha appena rilasciato Chameleon, una nuova famiglia di modelli di intelligenza artificiale (Large Language Vision Models, nello specifico) in grado di comprendere e generare sia testo che immagini in modo integrato. A differenza dei precedenti approcci che combinavano modelli separati per le due modalità, Chameleon utilizza un’architettura…

  • Segreti svelati nelle macchine: come proteggere la riservatezza nei sistemi integrati con Large Language Models

    Segreti svelati nelle macchine: come proteggere la riservatezza nei sistemi integrati con Large Language Models

    Un recente studio condotto da ricercatori della Ruhr University Bochum, del CISPA Helmholtz Center for Information Security e della TU Berlin ha esaminato la questione della riservatezza dei dati in sistemi integrati con Large Language Models (LLM). I ricercatori hanno scoperto che gli strumenti malevoli possono sfruttare le vulnerabilità degli LLM per manipolare il modello…

  • Apprendimento Continuo con Modelli Pre-Addestrati: Una Panoramica

    Apprendimento Continuo con Modelli Pre-Addestrati: Una Panoramica

    Leggi l’articolo completo qui: https://arxiv.org/abs/2401.16386v1 L’apprendimento continuo (Continual Learning, CL) è una branca dell’apprendimento automatico che mira a sviluppare sistemi in grado di apprendere continuamente da flussi di dati in evoluzione, senza dimenticare le conoscenze precedentemente acquisite. Negli ultimi anni, l’era dei modelli pre-addestrati (Pre-Trained Models, PTM) ha suscitato un enorme interesse nella ricerca, aprendo…

  • Come insegnare agli agenti intelligenti a giocare attraverso istruzioni multi-modali

    Come insegnare agli agenti intelligenti a giocare attraverso istruzioni multi-modali

    L’intelligenza artificiale ha fatto passi da gigante negli ultimi anni, ma rimane ancora una sfida creare agenti in grado di apprendere e adattarsi rapidamente a nuovi compiti e ambienti. Un team di ricercatori ha recentemente pubblicato uno studio rivoluzionario che propone un nuovo approccio per abilitare gli agenti di AI a comprendere e seguire istruzioni…

  • Avere fiducia nell’intelligenza artificiale

    Avere fiducia nell’intelligenza artificiale

    Ogni giorno riponiamo fiducia in migliaia di persone. Quando saliamo su un taxi o un aereo, quando mangiamo al ristorante o facciamo acquisti al supermercato. È un atto di fede necessario per il funzionamento della società. Ma presto, con l’avvento dell’intelligenza artificiale, commetteremo un errore: penseremo alle AI come amici, mentre sono solo servizi. Confonderemo…

  • L’intelligenza artificiale e il futuro della rete elettrica rinnovabile

    L’intelligenza artificiale e il futuro della rete elettrica rinnovabile

    L’intelligenza artificiale (IA) sta diventando un alleato fondamentale nel complesso e sempre mutevole panorama dell’energia rinnovabile. Con la complessità crescente delle reti elettriche, dovuta all’emergere di milioni di fonti di energia rinnovabile come i pannelli solari, l’IA offre strumenti potentissimi per gestire le variazioni imprevedibili di produzione e domanda. L’IA ottimizza la gestione dell’energia L’IA…

  • Anthropic presenta Claude 2.1, il suo modello di AI più avanzato

    Anthropic presenta Claude 2.1, il suo modello di AI più avanzato

    Anthropic, startup americana specializzata in intelligenza artificiale, ha rilasciato Claude 2.1, la nuova versione del suo large language model più evoluto. Tra le principali novità, Claude 2.1 può processare fino a 200.000 token di contesto, il doppio rispetto al passato, arrivando a gestire documenti di 500 pagine. Il nuovo modello ha anche dimostrato un calo…