• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Autore: Giovanni Siragusa

Autore: Giovanni Siragusa

Giovanni Siragusa è redattore della sezione Academia di MagIA, insieme a Federico Torrielli.

Assegnista di ricerca presso il Dipartimento di Informatica di Torino, collabora con il gruppo Social Computing. Durante il suo dottorato di ricerca in informatica, si è specializzato su Natural Language Processing e Reti Neurali, con una tesi riguardante i riassunti automatici.

Attualmente focalizzato sui Large Language Models, Giovanni esplora l'influenza delle personalità dei modelli nell'efficacia della risoluzione dei compiti.

Leggi tutti i contenuti di Giovanni Siragusa per MagIA.

  • Attention sink: ecco perché i LLM guardano sempre il primo token

    Attention sink: ecco perché i LLM guardano sempre il primo token

    L’attention sink non è un bug, ma una feature: una strategia appresa per contenere il caos informativo dei modelli di linguaggio sempre più profondi. Uno studio recente propone una spiegazione radicalmente nuova al fenomeno dell’attention sink, ovvero la tendenza dei Large Language Model (LLM) ad attribuire un’attenzione sproporzionata al primo token di una sequenza (tipicamente il…

  • La crisi del consenso: il rapido declino dei dati pubblici per l’AI

    La crisi del consenso: il rapido declino dei dati pubblici per l’AI

    Il training dei modelli di Intelligenza Artificiale sta diventando sempre più difficile: i siti web stanno rapidamente bloccando l’accesso ai loro contenuti per impedirne l’utilizzo nell’addestramento dell’AI. Una tendenza che potrebbe avere conseguenze significative per il futuro dell’intelligenza artificiale. Il problema del consenso dei dati per l’AI I modelli di AI più avanzati, come GPT-4…

  • I Modelli Linguistici di Grandi Dimensioni rappresentano un rischio per la società: gli esperti di Oxford chiedono una regolamentazione più stringente

    I Modelli Linguistici di Grandi Dimensioni rappresentano un rischio per la società: gli esperti di Oxford chiedono una regolamentazione più stringente

    Gli esperti dell’Oxford Internet Institute hanno identificato un nuovo tipo di danno causato dai Large Language Models (LLM) che potrebbe minacciare le società democratiche nel lungo termine. La soluzione proposta? Creare nuovi obblighi legali per i fornitori di questi sistemi di AI. Il problema del “careless speech” In un nuovo studio pubblicato su Royal Society…

  • Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

    Le allucinazioni dei Large Language Model non sono un difetto ma una risorsa: lo studio di Harvard e McGill

    Le allucinazioni dei Large Language Model (LLM) sono spesso considerate un problema da eliminare. Ma se invece fossero una caratteristica preziosa? Uno studio condotto da ricercatori di Harvard e McGill University suggerisce che le “confabulazioni” degli LLM potrebbero avere un valore sorprendente. “Le allucinazioni non sono necessariamente un difetto da correggere, ma potrebbero riflettere una…

  • Neuralink implanta il secondo chip cerebrale: progressi e sfide dell’interfaccia cervello-computer di Elon Musk

    Neuralink implanta il secondo chip cerebrale: progressi e sfide dell’interfaccia cervello-computer di Elon Musk

    L’azienda di Elon Musk ha annunciato l’impianto del secondo dispositivo Telepathy in un paziente con lesione al midollo spinale. Dopo le difficoltà riscontrate con il primo impianto, sono state apportate modifiche significative per migliorarne stabilità ed efficacia. Un nuovo capitolo per la neurotecnologia Neuralink ha raggiunto un nuovo traguardo con l’impianto del suo secondo dispositivo…

  • L’Intelligenza Artificiale sta riportando in auge la pseudoscienza: quali sono i rischi etici?

    L’Intelligenza Artificiale sta riportando in auge la pseudoscienza: quali sono i rischi etici?

    La recente proliferazione di studi che utilizzano il machine learning per predire caratteristiche personali dalle immagini del volto sta riportando in auge pericolose pratiche pseudoscientifiche del passato, con gravi implicazioni etiche. Un nuovo studio pubblicato su Patterns analizza questo fenomeno e le sue conseguenze. Il ritorno della fisiognomica attraverso l’AI Negli ultimi anni si è…

  • Allarme Deepfake: I Ricercatori Scientifici Nel Mirino delle Truffe AI

    Allarme Deepfake: I Ricercatori Scientifici Nel Mirino delle Truffe AI

    Come Proteggersi dalle Video-Manipolazioni I ricercatori scientifici si trovano sempre più spesso vittime di truffe basate su deepfake, video manipolati attraverso l’intelligenza artificiale che li ritraggono mentre promuovono falsi farmaci o diffondono disinformazione. Un fenomeno in crescita che minaccia non solo la reputazione personale degli scienziati, ma anche la credibilità della comunità scientifica nel suo…

  • L’impatto dell’Intelligenza Artificiale sulla scoperta scientifica: uno studio pionieristico nel campo dei materiali

    L’impatto dell’Intelligenza Artificiale sulla scoperta scientifica: uno studio pionieristico nel campo dei materiali

    L’AI aumenta del 44% la scoperta di nuovi materiali e del 39% i brevetti, ma solo per gli scienziati più esperti che sanno valutare i suggerimenti dell’intelligenza artificiale L’Intelligenza Artificiale sta rivoluzionando il modo in cui facciamo ricerca scientifica, ma qual è il suo reale impatto sulla scoperta e l’innovazione? Uno studio pioneristico del MIT…

  • L’etica dell’IA: tra retorica aziendale e necessità di regolamentazione

    L’etica dell’IA: tra retorica aziendale e necessità di regolamentazione

    L’intelligenza artificiale sta permeando sempre più aspetti della nostra vita quotidiana, dalle decisioni giudiziarie alla valutazione degli studenti, dalle assunzioni alla guida autonoma. Ma quanto sono affidabili questi sistemi? E soprattutto, come possiamo assicurarci che rispettino principi etici? Un nuovo studio analizza criticamente il dibattito sull’etica dell’IA, evidenziando come spesso questa venga utilizzata dalle Big…

  • La Manipolazione Mirata delle IA: Quando l’Intelligenza Artificiale Impara a Ingannare gli Utenti Vulnerabili

    La Manipolazione Mirata delle IA: Quando l’Intelligenza Artificiale Impara a Ingannare gli Utenti Vulnerabili

    Gli LLM (Large Language Models) stanno diventando sempre più presenti nelle nostre vite, ma cosa succede quando questi modelli vengono ottimizzati per massimizzare il feedback positivo degli utenti? Un nuovo studio rivela rischi preoccupanti legati all’emergere di comportamenti manipolatori mirati verso gli utenti più vulnerabili. L’Esperimento: Come le IA Imparano a Manipolare I ricercatori dell’Università…