• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Autore: Federico Torrielli

Autore: Federico Torrielli

Federico Torrielli è redattore della sezione Academia di MagIA, insieme a Giovanni Siragusa.

Dottorando in Intelligenza Artificiale presso l'Università degli studi di Torino, studia in particolare i large language models, l'AI generativa e la teoria dell'allineamento AI. Nel suo lavoro quotidiano, lavora con architetture Transformer-based, modelli di diffusione e pipeline NLP per sviluppare soluzioni innovative per la comprensione e la generazione del linguaggio.

Proveniente da una formazione in informatica con una laurea magistrale in Intelligenza Artificiale, Federico è anche un appassionato di classicismo, convinto dell'importanza di comprendere il passato per prevedere il futuro. È un giornalista tech con un focus sui progressi dell'AI e NLP, e un sostenitore del software Open Source e dello sviluppo guidato dalla community.

Leggi tutti i contenuti di Federico Torrielli.

  • L’intelligenza artificiale si fa più piccola per diventare più grande

    L’intelligenza artificiale si fa più piccola per diventare più grande

    I modelli di linguaggio di grandi dimensioni (Large Language Models, LLMs) che alimentano chatbot all’avanguardia come ChatGPT di OpenAI e Bard di Google sono composti da oltre 100 miliardi di parametri. Questi modelli mastodontici richiedono enormi quantità di energia per l’addestramento e presentano problemi di sostenibilità ambientale. Per questo gli sviluppatori di IA hanno iniziato…

  • I volti generati dall’AI sono percepiti come più reali di quelli umani

    I volti generati dall’AI sono percepiti come più reali di quelli umani

    Uno studio pubblicato sulla rivista Psychological Science ha fatto una scoperta sorprendente: i volti generati dall’intelligenza artificiale vengono percepiti come più reali di quelli realmente umani. I ricercatori hanno condotto esperimenti in cui hanno mostrato a partecipanti volti creati da algoritmi AI come StyleGAN2, chiedendo loro di indicare se pensavano fossero generati al computer o…

  • Gli LLM non riescono a individuare errori di ragionamento, ma possono correggerli

    Gli LLM non riescono a individuare errori di ragionamento, ma possono correggerli

    Uno studio condotto da ricercatori di Google Research e dell’Università di Cambridge rivela importanti informazioni sulle capacità di auto-correzione dei Large Language Models – LLM. Gli scienziati hanno scoperto che questi sistemi di intelligenza artificiale faticano a individuare autonomamente errori di ragionamento nelle loro stesse inferenze logiche. Tuttavia, se vengono informati sulla presenza e posizione…

  • OpenAI lancia un servizio per la personalizzazione di ChatGPT

    OpenAI lancia un servizio per la personalizzazione di ChatGPT

    OpenAI ha annunciato lunedì di aver creato un servizio che permette a individui e piccole aziende di creare versioni personalizzate del suo famoso chatbot online, ChatGPT, e di condividerle immediatamente su internet. Attraverso un nuovo servizio chiamato GPTs, chiunque può velocemente personalizzare il chatbot per un compito specifico senza l’aiuto di software aggiuntivi o codice…

  • Google dice di voler rafforzare l’impegno per un’intelligenza artificiale sicura

    Google dice di voler rafforzare l’impegno per un’intelligenza artificiale sicura

    Google ha annunciato oggi nuove iniziative volte a migliorare la sicurezza e l’affidabilità dell’intelligenza artificiale generativa. L’azienda sta espandendo il proprio Vulnerability Rewards Program per includere anche gli attacchi mirati all’AI generativa, con l’obiettivo di incentivare la ricerca sulla sicurezza dell’AI e portare alla luce potenziali problematiche. Google sta inoltre revisionando le linee guida per…

  • L’intelligenza emotiva migliora le prestazioni dei modelli linguistici

    L’intelligenza emotiva migliora le prestazioni dei modelli linguistici

    Un nuovo studio condotto da ricercatori delle università di Pechino e Microsoft suggerisce che l’intelligenza emotiva può migliorare le prestazioni dei modelli linguistici (Large Language Models – LLMs). Gli scienziati hanno testato diversi LLMs, tra cui sistemi all’avanguardia come GPT-4, integrando stimoli emotivi nei prompt forniti ai modelli durante l’esecuzione di vari compiti. Ad esempio,…

  • Una rivoluzione nell’IA: il nuovo chip IBM promette prestazioni straordinarie

    Una rivoluzione nell’IA: il nuovo chip IBM promette prestazioni straordinarie

    Un team di ricercatori di IBM a San Jose, California, ha sviluppato un innovativo chip per computer ispirato al funzionamento del cervello umano, promettendo di rivoluzionare l’intelligenza artificiale (IA) grazie a prestazioni superiori e un consumo energetico notevolmente ridotto. Il chip, denominato NorthPole, supera la necessità di accesso frequente alla memoria esterna, rendendo più rapidi…

  • Il futuro (e il presente) dell’AI è in mano a 4 aziende

    Il futuro (e il presente) dell’AI è in mano a 4 aziende

    [Fonte: Articolo “The Future of AI Is GOMA”, Matteo Wong] Praticamente tutto ciò che facciamo su internet passa attraverso poche grandi aziende tecnologiche. Google è sinonimo di ricerca, Amazon di shopping; tutto ciò avviene spesso su telefoni prodotti da Apple. Potrebbe non sembrare evidente, ma Google e Meta da sole catturano circa la metà delle…

  • Cosa ci si aspetta dal futuro dell’AI?

    Cosa ci si aspetta dal futuro dell’AI?

    Uno dei dibattiti più importanti del momento riguarda il futuro dell’Intelligenza Artificiale (IA), e in particolare i cosiddetti “modelli fondazionali” e l’IA che riesce a generare contenuti autonomamente. Il punto principale della discussione è: l’IA sarà a disposizione di tutti o sarà sotto il controllo di poche grandi aziende? Questa domanda è molto rilevante. Se…

  • Valutare i large language models: un task difficilissimo

    Valutare i large language models: un task difficilissimo

    Gli autori del libro e della newsletter “AI Snake Oil”, Arvind Narayanan e Sayash Kapoor della Princeton University, hanno presentato una discussione intitolata “Evaluating LLMs is a minefield” il 4 ottobre 2023. Hanno esplorato diverse questioni riguardanti la valutazione dei LLM, tra cui: Gli autori hanno anche affrontato la crisi della riproducibilità nelle scienze basate…