Meta ha presentato SeamlessM4T, un nuovo modello AI in grado di tradurre il parlato in più di 100 lingue, compiendo un passo significativo verso la traduzione simultanea in tempo reale.
A differenza dei tradizionali modelli che utilizzano un processo in più fasi, SeamlessM4T offre una traduzione diretta dal parlato in una lingua al parlato in un’altra, migliorando l’accuratezza del 23% rispetto ai modelli precedenti.
Il sistema si basa sul “data mining parallelo”, che consente al modello di associare suoni a testi in diverse lingue, grazie all’analisi di enormi quantità di dati web. Esiste già il modello AudioPaLM di Google, che supporta un numero maggiore di lingue (113) rispetto a SeamlessM4T, che ne supporta 101. Tuttavia, AudioPaLM è limitato dalla possibilità di tradurre solo in inglese, mentre SeamlessM4T ha la capacità di tradurre in 36 lingue aggiuntive oltre all’inglese. Ciò significa che, pur avendo una base linguistica più ampia, Google AudioPaLM non offre la stessa versatilità di SeamlessM4T, che può tradurre da una lingua all’altra in più combinazioni, ampliando le possibilità di traduzione.
Tuttavia, nonostante i progressi, gli esperti continuano a sottolineare che la traduzione automatica resta insufficiente in ambiti complessi come medicina e diritto, dove il contributo umano è cruciale per evitare fraintendimenti.
Meta ha reso il sistema open source, sperando di stimolare ulteriori sviluppi, ma alcuni esperti lo ritengono ancora meno immediato rispetto ad alternative come quella di Google. Sebbene il modello non offra ancora una traduzione istantanea, Meta sta lavorando a una versione che si avvicina alla velocità degli interpreti umani.
Leggi l’articolo completo: Meta’s new AI model can translate speech from more than 100 languages su technologyreview.com.
Immagine generata tramite DALL-E 3.

