La tendenza dominante tra le grandi aziende tecnologiche è quella di creare modelli sempre più ampi, con un sacco di parametri, come GPT-4 di OpenAI. Tuttavia, questi modelli richiedono enormi risorse, hanno un impatto ambientale significativo e concentrano il potere nelle mani di pochi. I critici, come Sasha Luccioni di Hugging Face, sottolineano i rischi associati, tra cui pratiche di raccolta dati invasive e la scarsa trasparenza.
In risposta, alcune iniziative, come quella dell’Allen Institute for Artificial Intelligence (Ai2), dimostrano che è possibile creare modelli più piccoli ed efficienti. La loro famiglia di modelli open source Molmo, pur avendo un numero di parametri nettamente inferiore, compete efficacemente con i giganti del settore, dimostrando che non è necessario puntare sulla grandezza per ottenere prestazioni eccellenti. La chiave sta nell’adozione di metodi di raccolta e addestramento più intelligenti e sostenibili, promuovendo un’IA accessibile e meno dispendiosa.
L’approccio alternativo propone di valutare le prestazioni dell’IA su parametri più rilevanti per gli utenti, come l’accuratezza e la privacy, piuttosto che su una gamma di funzionalità non per forza utili.
Leggi l’articolo completo: Why bigger is not always better in AI su technologyreview.com.

Immagine generata tramite DALL-E 3.

