Tujuan saya untuk tahun ini: membuat AI lokal mudah dan menyenangkan digunakan, di ponsel, laptop, agen pengkodean, perselisihan, browser, dan bahkan di ESP. Anda akan dapat berbicara dengan Apple watch, menjalankan model lokal yang dipanggil, mendapatkan pengkodean untuk Anda, dll. Kimi pada vram 150gb GLM-5 pada vram 150gb MiniMax-M2.5 pada vram 48gb QuantForge memungkinkan Anda mengambil model apa pun, pada perangkat keras apa pun. Pilih ukuran target, dan himpunan data kalibrasi, lalu pangkas dan kuantitas. Bekerja di macbook saya, saya menuai dan mengukur beberapa model kecil. Pada akhir tahun saya akan membuatnya sehingga saya dan siapa pun dapat mendapatkan model apa pun yang sesuai dengan perangkat keras apa pun. RN itu menggunakan perangkat keras lokal tetapi saya akan berintegrasi dengan Prime Intellect. Akan menambahkan beberapa fitur untuk berbagi himpunan data, dan membangunnya dari banyak komponen independen.