TII, laboratorium AI universitas yang berbasis di UEA, telah merilis Falcon-H1R-7B, model penalaran bobot terbuka kecil yang dibandingkan dengan model dengan ukuran yang sama 🧠 Skor kecerdasan yang kuat di antara model <12B: Falcon-H1R-7B mendapat skor 16 pada Indeks Kecerdasan Analisis Buatan v4.0 kami yang diperbarui - di depan NVIDIA Nemotron Nano 12B V2, tetapi di bawah Qwen3 VL 8B. Model ini diposisikan dengan baik di perbatasan Pareto untuk Parameter Intelijen vs Total untuk model yang sebanding. Relatif terhadap model lain <12B, Falcon-H1R-7B berkinerja sangat baik dalam 3 evaluasi individu - Ujian Terakhir Kemanusiaan (penalaran dan pengetahuan), τ²-Bench Telecom (penggunaan alat agen), dan IFBench (instruksi berikut) 🇦🇪 Peserta papan peringkat UEA kedua: Setelah K2-V2 MBZUAI, Falcon-H1R-7B adalah model kedua dari organisasi yang berbasis di UEA di papan peringkat kami, di antara lautan model AS dan Cina. Didirikan oleh pemerintah Abu Dhabi, Technology Innovation Institute (TII) adalah pusat penelitian global yang misinya adalah untuk mendorong batas-batas pengetahuan, dan aktif di berbagai domain termasuk energi, teknologi kuantum, dan kriptografi. Mereka memiliki lebih dari 100 model dan varian bobot terbuka di Huggingface 📖 Model terbuka sedang: Falcon-H1R-7B mendapat skor 44 dalam Indeks Keterbukaan Analisis Buatan - ukuran keterbukaan model AI yang baru dirilis, standar, dan dinilai secara independen di seluruh ketersediaan dan transparansi. Ini menempatkannya di depan gpt-oss-20B OpenAI, tetapi di belakang Qwen3 VL8B. Model kami yang paling terbuka, oleh MBZUAI dan Allen Institute for AI, mengikat papan peringkat di 89, didorong oleh transparansi yang lebih besar dan akses ke metodologi dan data pelatihan mereka 📈 Token keluaran tinggi: Model ini menggunakan 140 juta token untuk melengkapi Indeks Intelijen kami. Ini menempatkannya di bawah GLM-4.7, tetapi lebih tinggi dari kebanyakan model lain - baik dalam kategori ukurannya maupun di antara model perbatasan 📘 Pengetahuan yang diharapkan untuk ukurannya, tingkat halusinasi sedang: AA-Omniscience adalah tolok ukur kami yang baru dirilis yang mengukur pengetahuan faktual dan halusinasi model. Falcon-H1R-7B menerima skor sedang -62. Skor akurasi pengetahuannya (14) sesuai dengan ekspektasi, mengingat kami melihat korelasi yang kuat antara ukuran dan akurasi model (berapa banyak fakta yang diingat model dengan benar). Model ini berhalusinasi 87% dari waktu ketika tidak mengingat jawaban dengan benar - skor moderat di antara model perbatasan dan model bobot terbuka kecil Selamat atas peluncurannya @TIIuae !
Falcon-H1R-7B adalah model kedua dari perusahaan yang berbasis di UEA di papan peringkat kami, di antara lautan model AS dan Cina
Falcon-H1R-7B memiliki skor moderat dalam Indeks Keterbukaan Analisis Buatan
Model ini menggunakan 140 juta token untuk menyelesaikan Indeks Kecerdasan kami - di bawah GLM-4.7, tetapi lebih tinggi dari kebanyakan model lainnya
Falcon-H1R-7B menerima skor sedang dalam AA-Omniscience, dengan pengetahuan yang diharapkan untuk ukurannya dan tingkat halusinasi sedang
Relatif terhadap model yang sebanding, Falcon-H1R-7B berkinerja baik dalam Ujian Terakhir Kemanusiaan (penalaran dan pengetahuan), τ²-Bench Telecom (penggunaan alat agen), dan IFBench (instruksi berikut)
Analisis lebih lanjut tentang Analisis Buatan: Tautan Wajah Memeluk 🤗: Laporan teknis:
23,08K