.@NVIDIA's Llama-Embed-Nemotron-8B tok nettopp topplasseringen på MMTEBs flerspråklige henteliste – og ble No1 åpen og bærbar innbyggingsmodell. Den setter en ny standard for gjenfinning, re-rangering og semantisk likhet på tvers av 1,000+ språk, og overgår Googles GeminiEmbedding og Alibabas Qwen3-8B. Den er bygget på Llama-3.1-8B, og bruker 16 millioner spørringsdokumentpar, instruksjonsbevisst finjustering og modellsammenslåing for å forene flerspråklig henting i ett kraftig system. En stor seier for åpen kildekode AI og flerspråklig forskning.