Autore: Federico Torrielli
Autore: Federico Torrielli
Federico Torrielli è redattore della sezione Academia di MagIA, insieme a Giovanni Siragusa.
Dottorando in Intelligenza Artificiale presso l'Università degli studi di Torino, studia in particolare i large language models, l'AI generativa e la teoria dell'allineamento AI. Nel suo lavoro quotidiano, lavora con architetture Transformer-based, modelli di diffusione e pipeline NLP per sviluppare soluzioni innovative per la comprensione e la generazione del linguaggio.
Proveniente da una formazione in informatica con una laurea magistrale in Intelligenza Artificiale, Federico è anche un appassionato di classicismo, convinto dell'importanza di comprendere il passato per prevedere il futuro. È un giornalista tech con un focus sui progressi dell'AI e NLP, e un sostenitore del software Open Source e dello sviluppo guidato dalla community.
Leggi tutti i contenuti di Federico Torrielli.
-

L’intelligenza artificiale si fa più piccola per diventare più grande
I modelli di linguaggio di grandi dimensioni (Large Language Models, LLMs) che alimentano chatbot all’avanguardia come ChatGPT di OpenAI e Bard di Google sono composti da oltre 100 miliardi di parametri. Questi modelli mastodontici richiedono enormi quantità di energia per l’addestramento e presentano problemi di sostenibilità ambientale. Per questo gli sviluppatori di IA hanno iniziato…
-

I volti generati dall’AI sono percepiti come più reali di quelli umani
Uno studio pubblicato sulla rivista Psychological Science ha fatto una scoperta sorprendente: i volti generati dall’intelligenza artificiale vengono percepiti come più reali di quelli realmente umani. I ricercatori hanno condotto esperimenti in cui hanno mostrato a partecipanti volti creati da algoritmi AI come StyleGAN2, chiedendo loro di indicare se pensavano fossero generati al computer o…
-

Gli LLM non riescono a individuare errori di ragionamento, ma possono correggerli
Uno studio condotto da ricercatori di Google Research e dell’Università di Cambridge rivela importanti informazioni sulle capacità di auto-correzione dei Large Language Models – LLM. Gli scienziati hanno scoperto che questi sistemi di intelligenza artificiale faticano a individuare autonomamente errori di ragionamento nelle loro stesse inferenze logiche. Tuttavia, se vengono informati sulla presenza e posizione…
-

OpenAI lancia un servizio per la personalizzazione di ChatGPT
OpenAI ha annunciato lunedì di aver creato un servizio che permette a individui e piccole aziende di creare versioni personalizzate del suo famoso chatbot online, ChatGPT, e di condividerle immediatamente su internet. Attraverso un nuovo servizio chiamato GPTs, chiunque può velocemente personalizzare il chatbot per un compito specifico senza l’aiuto di software aggiuntivi o codice…
-

Google dice di voler rafforzare l’impegno per un’intelligenza artificiale sicura
Google ha annunciato oggi nuove iniziative volte a migliorare la sicurezza e l’affidabilità dell’intelligenza artificiale generativa. L’azienda sta espandendo il proprio Vulnerability Rewards Program per includere anche gli attacchi mirati all’AI generativa, con l’obiettivo di incentivare la ricerca sulla sicurezza dell’AI e portare alla luce potenziali problematiche. Google sta inoltre revisionando le linee guida per…
-

L’intelligenza emotiva migliora le prestazioni dei modelli linguistici
Un nuovo studio condotto da ricercatori delle università di Pechino e Microsoft suggerisce che l’intelligenza emotiva può migliorare le prestazioni dei modelli linguistici (Large Language Models – LLMs). Gli scienziati hanno testato diversi LLMs, tra cui sistemi all’avanguardia come GPT-4, integrando stimoli emotivi nei prompt forniti ai modelli durante l’esecuzione di vari compiti. Ad esempio,…
-

Una rivoluzione nell’IA: il nuovo chip IBM promette prestazioni straordinarie
Un team di ricercatori di IBM a San Jose, California, ha sviluppato un innovativo chip per computer ispirato al funzionamento del cervello umano, promettendo di rivoluzionare l’intelligenza artificiale (IA) grazie a prestazioni superiori e un consumo energetico notevolmente ridotto. Il chip, denominato NorthPole, supera la necessità di accesso frequente alla memoria esterna, rendendo più rapidi…
-

Il futuro (e il presente) dell’AI è in mano a 4 aziende
[Fonte: Articolo “The Future of AI Is GOMA”, Matteo Wong] Praticamente tutto ciò che facciamo su internet passa attraverso poche grandi aziende tecnologiche. Google è sinonimo di ricerca, Amazon di shopping; tutto ciò avviene spesso su telefoni prodotti da Apple. Potrebbe non sembrare evidente, ma Google e Meta da sole catturano circa la metà delle…
-

Cosa ci si aspetta dal futuro dell’AI?
Uno dei dibattiti più importanti del momento riguarda il futuro dell’Intelligenza Artificiale (IA), e in particolare i cosiddetti “modelli fondazionali” e l’IA che riesce a generare contenuti autonomamente. Il punto principale della discussione è: l’IA sarà a disposizione di tutti o sarà sotto il controllo di poche grandi aziende? Questa domanda è molto rilevante. Se…
-

Valutare i large language models: un task difficilissimo
Gli autori del libro e della newsletter “AI Snake Oil”, Arvind Narayanan e Sayash Kapoor della Princeton University, hanno presentato una discussione intitolata “Evaluating LLMs is a minefield” il 4 ottobre 2023. Hanno esplorato diverse questioni riguardanti la valutazione dei LLM, tra cui: Gli autori hanno anche affrontato la crisi della riproducibilità nelle scienze basate…
