Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Institut Model Yayasan MBZUAI telah merilis K2-V2, model penalaran 70B yang terikat untuk #1 dalam Indeks Keterbukaan kami, dan merupakan model pertama di papan peringkat kami dari UEA
📖 Pemimpin terikat dalam Keterbukaan: K2-V2 bergabung dengan OLMo 3 32B Think di bagian atas Indeks Keterbukaan Analisis Buatan - ukuran keterbukaan model AI kami yang baru dirilis, terstandarisasi, dan dinilai secara independen di seluruh ketersediaan dan transparansi. MBZUAI melampaui akses terbuka dan lisensi bobot model - mereka menyediakan akses penuh ke data pra dan sesudah pelatihan. Mereka juga menerbitkan metodologi pelatihan dan kode dengan lisensi Apache permisif yang memungkinkan penggunaan gratis untuk tujuan apa pun. Hal ini menjadikan K2-V2 kontribusi berharga bagi komunitas open source dan memungkinkan penyempurnaan yang lebih efektif. Lihat tautan di bawah ini!
🧠 Model bobot terbuka berukuran sedang (40-150B) yang kuat: Pada 70B, K2-V2 mendapat skor 46 pada Indeks Kecerdasan kami dengan mode penalaran Tinggi. Ini menempatkannya di atas Llama Nemotron Super 49B v1.5 tetapi di bawah Qwen3 Next 80B A3B. Model ini memiliki kekuatan relatif dalam instruksi mengikuti dengan skor 60% di IFBench
🇦🇪 Peserta UEA pertama di papan peringkat kami: Di lautan yang sebagian besar model AS dan Cina, K2-V2 menonjol sebagai representasi pertama UEA di papan peringkat kami, dan pendatang kedua dari Timur Tengah setelah laboratorium AI21 Israel. K2-V2 adalah model MBZUAI pertama yang kami tolok ukur, tetapi laboratorium sebelumnya telah merilis model dengan fokus khusus pada representasi bahasa termasuk Arab Mesir dan Hindi
📊 Mode penalaran yang lebih rendah mengurangi penggunaan token & halusinasi: K2-V2 memiliki 3 mode penalaran, dengan mode penalaran tinggi menggunakan ~130 juta token yang substansial untuk melengkapi Indeks Kecerdasan kami. Namun, mode Sedang mengurangi penggunaan token sebesar ~6x dengan hanya penurunan 6pt dalam Indeks Intelijen kami. Menariknya, mode penalaran yang lebih rendah mendapat skor lebih baik dalam indeks pengetahuan dan halusinasi kita, AA-Omniscience, karena berkurangnya kecenderungan untuk berhalusinasi

K2-V2 adalah pemimpin yang terikat dalam Keterbukaan, dan duduk di Perbatasan Pareto Keterbukaan vs Intelijen

Model ini memiliki kinerja yang kuat di antara model bobot terbuka ukuran sedang (40-150B parameter)

Mode penalaran Tinggi memiliki penggunaan token yang substansial, tetapi Medium mengurangi penggunaan token sebesar ~6x dengan hanya penurunan 6pt dalam Indeks Intelijen kami

Mode penalaran yang lebih rendah berkinerja lebih baik dalam Indeks Kemahatahuan Analisis Buatan, karena mereka berhalusinasi lebih sedikit

Hasil tolok ukur individu. Semua tolok ukur telah dijalankan serupa di seluruh model dan secara independen

Analisis lebih lanjut tentang Analisis Buatan:
Tautan HuggingFace 🤗 termasuk bobot, data, kode pelatihan, dan laporan teknis:
Posting oleh MBZUAI dan IFM:
34,41K
Teratas
Peringkat
Favorit
