Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
MBZUAI:n Institute of Foundation Models on julkaissut K2-V2:n, 70B-päättelymallin, joka on jaetulla sijalla #1 avoimuusindeksissämme ja ensimmäinen malli tulostauluillamme UAE:sta
📖 Tasapisteissä johtava avoimuus: K2-V2 liittyy OLMo 3 32B Thinkin joukkoon Artificial Analysis Openness Indexin kärjessä – vastikään julkaistussa, standardoidussa ja itsenäisesti arvioidussa tekoälymallin avoimuuden mittarissa saatavuuden ja läpinäkyvyyden osalta. MBZUAI ylitti avoimen saatavuuden ja mallipainojen lisensoinnin – ne tarjoavat täyden pääsyn ennen ja jälkeen koulutuksen dataan. He julkaisevat myös koulutusmenetelmiä ja koodia sallivalla Apache-lisenssillä, joka sallii vapaan käytön mihin tahansa tarkoitukseen. Tämä tekee K2-V2:sta arvokkaan panoksen avoimen lähdekoodin yhteisölle ja mahdollistaa tehokkaamman hienosäädön. Katso linkit alla!
🧠 Vahva keskikokoinen (40–150B) avopainomalli: 70B:llä K2-V2 saa 46 pistettä älykkyysindeksissämme korkealla päättelymoodillaan. Tämä sijoittaa sen Llama Nemotron Super 49B v1.5:n yläpuolelle, mutta Qwen3 Next 80B A3B:n alapuolelle. Mallilla on suhteellinen vahvuus opetuksen seuraamisessa, ja IFBenchissä pisteet ovat 60 %
🇦🇪 Ensimmäinen UAE:n tulokas tulostauluillamme: Suurelta osin yhdysvaltalaisten ja kiinalaisten mallien keskellä K2-V2 erottuu ensimmäisenä Yhdistyneiden arabiemiirikuntien edustajana tulostauluissamme ja toiseksi Lähi-idästä tulevana tulokkaana Israelin AI21-laboratorioiden jälkeen. K2-V2 on ensimmäinen MBZUAI-malli, jonka olemme verranneet, mutta laboratorio on aiemmin julkaissut malleja, joissa keskitytään erityisesti kielen edustukseen, mukaan lukien egypti, arabia ja hindi
📊 Alhaisemmat päättelymoodit vähentävät tokenien käyttöä ja hallusinaatioita: K2-V2:ssa on kolme päättelytilaa, joista korkea päättelytila käyttää huomattavaa ~130 miljoonaa tokenia älykkyysindeksin täydentämiseen. Keskikokoinen tila kuitenkin vähentää tokenien käyttöä ~6x, ja älykkyysindeksimme pudotus on vain 6 pistettä. Mielenkiintoista on, että matalammat päättelytavat pisteytyvät paremmin tieto- ja hallusinaatioindeksissämme, AA-Kaikkitietävyydessä, koska hallusinaatioita on vähentynyt

K2-V2 on avoimuudessa tasapisteissä ja sijaitsee Pareto-rajalla avoimuuden ja älykkyyden välillä.

Mallilla on vahva suorituskyky keskikokoisten (40–150B parametrien) avopainomallien joukossa

High Reasoning -tilassa tokenien käyttö on merkittävää, mutta Medium vähentää tokenien käyttöä ~6-kertaiseksi, ja Intelligence Indexissä laskee vain 6 pisteen

Alemmat päättelytilat toimivat paremmin Artificial Analysis Omniscience Indexissä, koska ne hallusinoivat vähemmän

Yksittäiset vertailutulokset. Kaikki vertailuarvot on suoritettu samanlaisesti eri malleissa ja toisistaan riippumatta

Lisäanalyysiä keinotekoisesta analyysistä:
HuggingFace-linkki 🤗, joka sisältää painot, tiedot, harjoituskoodin ja teknisen raportin:
MBZUAI:n ja IFM:n julkaisut:
34,41K
Johtavat
Rankkaus
Suosikit
