Tag: GPT-4
Tag: GPT-4
-

Non solo gli esseri umani, anche l’IA è insicura quando contraddetta
Uno studio di Google DeepMind rivela che l'IA perde affidabilità se contraddetta e diventa eccessivamente sicura se confermata, anche quando sbaglia. Leggi qui...
-

Perché l’IA non capisce la Generazione Alpha
I modelli di IA più avanzati non riescono a comprendere il linguaggio della Gen Alpha, creando un gap pericoloso nella moderazione dei contenuti online. Leggi qui...
-

Verso una interazione tra l’intelligenza umana e quella artificiale
L’interazione tra intelligenza umana e artificiale può generare sinergie potenti, ma richiede spirito critico, etica e un cambiamento culturale profondo.
-

Il caso “vegetative electron microscopy” e gli errori dell’AI
Un’espressione tecnica inesistente, vegetative electron microscopy, è comparsa in numerosi articoli scientifici. Approfondisci qui
-

Addio a GPT-4: il pioniere dell’IA che ha cambiato il mondo
OpenAI ha rimosso Gpt-4 da ChatGpt. Il modello che ha rivoluzionato l'IA generativa, costato oltre 100 milioni, lascia spazio a versioni più avanzate. Leggi qui...
-

L’IA “ragiona” davvero? Un nuovo studio svela i limiti dei modelli linguistici più avanzati
Un recente studio condotto da ricercatori delle Università di Yale e Princeton ha messo sotto la lente d’ingrandimento o1, l’ultimo modello linguistico di OpenAI, rivelando risultati sorprendenti sulla natura del “ragionamento” nelle intelligenze artificiali. La ricerca, pubblicata nell’ottobre 2024, ha analizzato se i modelli linguistici, anche quando ottimizzati specificamente per il ragionamento come o1, mantengano…
-

I Limiti del Ragionamento Matematico dei Large Language Models
Un nuovo studio condotto dai ricercatori di Apple mette in luce significative limitazioni nelle capacità di ragionamento matematico delle moderne Intelligenze Artificiali, anche quelle più avanzate. La ricerca, pubblicata a ottobre 2024, ha analizzato in modo approfondito come i Large Language Models (LLM) – i modelli alla base di sistemi come ChatGPT – affrontano problemi…
-

Modelli più piccoli e sostenibili sfidano i giganti dell’IA
La tendenza dominante tra le grandi aziende tecnologiche è quella di creare modelli sempre più ampi, con un sacco di parametri, come GPT-4 di OpenAI. Tuttavia, questi modelli richiedono enormi risorse, hanno un impatto ambientale significativo e concentrano il potere nelle mani di pochi. I critici, come Sasha Luccioni di Hugging Face, sottolineano i rischi…
-

Esecuzione di LLM su ESP32: innovazione con risorse limitate
Con l’avanzare della tecnologia, l’aspettativa è che la potenza di elaborazione cresca. Tuttavia, Dave Bennett (DaveBben su GitHub) sta esplorando un’area innovativa: l’esecuzione di grandi modelli linguistici (LLM) su hardware limitato. In un contesto in cui modelli come GPT-4 richiedono enormi risorse, DaveBben ha dimostrato che è possibile far funzionare un LLM su un computer…

