Una ricerca dell’Università Statale dell’Ohio pubblicata su Nature Human Behaviour rivela un limite strutturale dei Large Language Model: l’impossibilità di comprendere concetti radicati nell’esperienza sensoriale umana. I ricercatori hanno messo alla prova ChatGPT 3.5 e 4 e i modelli Google Palm e Gemini, chiedendo loro di valutare oltre 4.400 parole in base alla facilità di visualizzazione mentale e al carico emotivo, confrontando le risposte con quelle umane.
I ricercatori hanno valutato i modelli linguistici attraverso tre categorie concettuali: astratti, sensoriali e motori. L’esperimento ha mostrato che i sistemi IA gestiscono efficacemente concetti astratti come “umoristico” o “teorico”, ma manifestano profonde lacune con i termini legati ai sensi. Un fiore, per esempio, viene processato come mera definizione botanica, perdendo completamente le dimensioni del profumo, della consistenza e del tatto. L’IA può riconoscere che viene spesso associato a emozioni positive, ma non può “sentire” cosa significhi annusarne uno o camminare in un campo fiorito.
Secondo i ricercatori, questo limite deriva dal fatto che l’IA apprende esclusivamente da testo e immagini, senza avere alcun accesso all’esperienza sensoriale e diretta del mondo fisico. Tuttavia, l’integrazione futura di sensori esterni potrebbe colmare questo gap, permettendo ai modelli di sviluppare una comprensione più ricca e multidimensionale della realtà.
Leggi l’articolo completo L’IA non capisce che cosa sia un fiore per gli esseri umani su Ansa
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

