• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Tag: artificial intelligence

Tag: artificial intelligence

  • Priming LLM: Come Google DeepMind studia (e limita) l’interferenza nei modelli linguistici

    Priming LLM: Come Google DeepMind studia (e limita) l’interferenza nei modelli linguistici

    I Large Language Models (LLM) come quelli che alimentano ChatGPT o Gemini sono in continua evoluzione, apprendendo da enormi quantità di dati. Ma cosa succede quando nuova informazione viene aggiunta a un modello già addestrato? Un nuovo studio di Google DeepMind getta luce su un fenomeno chiamato “priming”, dove l’apprendimento di un nuovo fatto può…

  • Chain-of-Thought: L’AI Ragiona Davvero Come Dice?

    Chain-of-Thought: L’AI Ragiona Davvero Come Dice?

    Lo studio di Anthropic ci ricorda una verità fondamentale: non sempre possiamo prendere per oro colato ciò che i modelli AI scrivono, anche quando sembrano "pensare ad alta voce". Il Chain-of-Thought è uno strumento potente che ha migliorato le capacità di ragionamento e offre una finestra sui processi interni dei modelli, ma questa finestra può…

  • La crisi del consenso: il rapido declino dei dati pubblici per l’AI

    La crisi del consenso: il rapido declino dei dati pubblici per l’AI

    Il training dei modelli di Intelligenza Artificiale sta diventando sempre più difficile: i siti web stanno rapidamente bloccando l’accesso ai loro contenuti per impedirne l’utilizzo nell’addestramento dell’AI. Una tendenza che potrebbe avere conseguenze significative per il futuro dell’intelligenza artificiale. Il problema del consenso dei dati per l’AI I modelli di AI più avanzati, come GPT-4…

  • I Modelli Linguistici di Grandi Dimensioni rappresentano un rischio per la società: gli esperti di Oxford chiedono una regolamentazione più stringente

    I Modelli Linguistici di Grandi Dimensioni rappresentano un rischio per la società: gli esperti di Oxford chiedono una regolamentazione più stringente

    Gli esperti dell’Oxford Internet Institute hanno identificato un nuovo tipo di danno causato dai Large Language Models (LLM) che potrebbe minacciare le società democratiche nel lungo termine. La soluzione proposta? Creare nuovi obblighi legali per i fornitori di questi sistemi di AI. Il problema del “careless speech” In un nuovo studio pubblicato su Royal Society…

  • Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

    Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

    Le allucinazioni dei Large Language Model (LLM) sono spesso considerate un problema da eliminare. Ma se invece fossero una caratteristica preziosa? Uno studio condotto da ricercatori di Harvard e McGill University suggerisce che le “confabulazioni” degli LLM potrebbero avere un valore sorprendente. “Le allucinazioni non sono necessariamente un difetto da correggere, ma potrebbero riflettere una…

  • Allarme Deepfake: I Ricercatori Scientifici Nel Mirino delle Truffe AI

    Allarme Deepfake: I Ricercatori Scientifici Nel Mirino delle Truffe AI

    Come Proteggersi dalle Video-Manipolazioni I ricercatori scientifici si trovano sempre più spesso vittime di truffe basate su deepfake, video manipolati attraverso l’intelligenza artificiale che li ritraggono mentre promuovono falsi farmaci o diffondono disinformazione. Un fenomeno in crescita che minaccia non solo la reputazione personale degli scienziati, ma anche la credibilità della comunità scientifica nel suo…

  • L’etica dell’IA: tra retorica aziendale e necessità di regolamentazione

    L’etica dell’IA: tra retorica aziendale e necessità di regolamentazione

    L’intelligenza artificiale sta permeando sempre più aspetti della nostra vita quotidiana, dalle decisioni giudiziarie alla valutazione degli studenti, dalle assunzioni alla guida autonoma. Ma quanto sono affidabili questi sistemi? E soprattutto, come possiamo assicurarci che rispettino principi etici? Un nuovo studio analizza criticamente il dibattito sull’etica dell’IA, evidenziando come spesso questa venga utilizzata dalle Big…

  • La Manipolazione Mirata delle IA: Quando l’Intelligenza Artificiale Impara a Ingannare gli Utenti Vulnerabili

    La Manipolazione Mirata delle IA: Quando l’Intelligenza Artificiale Impara a Ingannare gli Utenti Vulnerabili

    Gli LLM (Large Language Models) stanno diventando sempre più presenti nelle nostre vite, ma cosa succede quando questi modelli vengono ottimizzati per massimizzare il feedback positivo degli utenti? Un nuovo studio rivela rischi preoccupanti legati all’emergere di comportamenti manipolatori mirati verso gli utenti più vulnerabili. L’Esperimento: Come le IA Imparano a Manipolare I ricercatori dell’Università…

  • LLM che ragionano in uno spazio latente continuo: nasce Coconut, il nuovo modello per risolvere problemi complessi

    LLM che ragionano in uno spazio latente continuo: nasce Coconut, il nuovo modello per risolvere problemi complessi

    Una ricerca condotta da Meta AI e UC San Diego propone un nuovo approccio per migliorare il ragionamento dei Large Language Models, abbandonando il linguaggio naturale a favore di uno spazio continuo di pensiero. I Large Language Models (LLM) stanno rivoluzionando il modo in cui interagiamo con l’intelligenza artificiale, ma presentano ancora dei limiti quando…

  • Simulazioni di 1.000 persone con agenti generativi: quando l’AI replica il comportamento umano

    Simulazioni di 1.000 persone con agenti generativi: quando l’AI replica il comportamento umano

    Gli agenti generativi basati su interviste qualitative sono in grado di replicare atteggiamenti e comportamenti umani con un’accuratezza vicina a quella degli stessi individui. Lo dimostra uno studio rivoluzionario condotto da ricercatori di Stanford, Northwestern e altre prestigiose università. L’architettura degli agenti generativi Lo studio ha sviluppato un’innovativa architettura di agenti generativi in grado di…