• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Tag: GPT-4

Tag: GPT-4

  • Non solo gli esseri umani, anche l’IA è insicura quando contraddetta

    Non solo gli esseri umani, anche l’IA è insicura quando contraddetta

    Uno studio di Google DeepMind rivela che l'IA perde affidabilità se contraddetta e diventa eccessivamente sicura se confermata, anche quando sbaglia. Leggi qui...

  • Perché l’IA non capisce la Generazione Alpha

    Perché l’IA non capisce la Generazione Alpha

    I modelli di IA più avanzati non riescono a comprendere il linguaggio della Gen Alpha, creando un gap pericoloso nella moderazione dei contenuti online. Leggi qui...

  • Verso una interazione tra l’intelligenza umana e quella artificiale

    Verso una interazione tra l’intelligenza umana e quella artificiale

    L’interazione tra intelligenza umana e artificiale può generare sinergie potenti, ma richiede spirito critico, etica e un cambiamento culturale profondo.

  • Il caso “vegetative electron microscopy” e gli errori dell’AI

    Il caso “vegetative electron microscopy” e gli errori dell’AI

    Un’espressione tecnica inesistente, vegetative electron microscopy, è comparsa in numerosi articoli scientifici. Approfondisci qui

  • Addio a GPT-4: il pioniere dell’IA che ha cambiato il mondo

    Addio a GPT-4: il pioniere dell’IA che ha cambiato il mondo

    OpenAI ha rimosso Gpt-4 da ChatGpt. Il modello che ha rivoluzionato l'IA generativa, costato oltre 100 milioni, lascia spazio a versioni più avanzate. Leggi qui...

  • Se GPT-4 legge le nostri menti

    Se GPT-4 legge le nostri menti

    GPT-4 può simulare la comprensione di stati mentali e intenzioni umane, mostrando capacità sorprendenti nella lettura del contesto comunicativo.

  • L’IA “ragiona” davvero? Un nuovo studio svela i limiti dei modelli linguistici più avanzati

    L’IA “ragiona” davvero? Un nuovo studio svela i limiti dei modelli linguistici più avanzati

    Un recente studio condotto da ricercatori delle Università di Yale e Princeton ha messo sotto la lente d’ingrandimento o1, l’ultimo modello linguistico di OpenAI, rivelando risultati sorprendenti sulla natura del “ragionamento” nelle intelligenze artificiali. La ricerca, pubblicata nell’ottobre 2024, ha analizzato se i modelli linguistici, anche quando ottimizzati specificamente per il ragionamento come o1, mantengano…

  • I Limiti del Ragionamento Matematico dei Large Language Models

    I Limiti del Ragionamento Matematico dei Large Language Models

    Un nuovo studio condotto dai ricercatori di Apple mette in luce significative limitazioni nelle capacità di ragionamento matematico delle moderne Intelligenze Artificiali, anche quelle più avanzate. La ricerca, pubblicata a ottobre 2024, ha analizzato in modo approfondito come i Large Language Models (LLM) – i modelli alla base di sistemi come ChatGPT – affrontano problemi…

  • Modelli più piccoli e sostenibili sfidano i giganti dell’IA

    Modelli più piccoli e sostenibili sfidano i giganti dell’IA

    La tendenza dominante tra le grandi aziende tecnologiche è quella di creare modelli sempre più ampi, con un sacco di parametri, come GPT-4 di OpenAI. Tuttavia, questi modelli richiedono enormi risorse, hanno un impatto ambientale significativo e concentrano il potere nelle mani di pochi. I critici, come Sasha Luccioni di Hugging Face, sottolineano i rischi…

  • Esecuzione di LLM su ESP32: innovazione con risorse limitate

    Esecuzione di LLM su ESP32: innovazione con risorse limitate

    Con l’avanzare della tecnologia, l’aspettativa è che la potenza di elaborazione cresca. Tuttavia, Dave Bennett (DaveBben su GitHub) sta esplorando un’area innovativa: l’esecuzione di grandi modelli linguistici (LLM) su hardware limitato. In un contesto in cui modelli come GPT-4 richiedono enormi risorse, DaveBben ha dimostrato che è possibile far funzionare un LLM su un computer…