Seorang insinyur riset full-stack / ML, terutama terlibat dalam hal-hal terkait AI, LLM, MLX @JohnMai_Dev Pada 3 Maret 2026, inferensi model Qwen3.5-0.8B berhasil diimplementasikan pada chip Apple M1 Pro, dan langsung dijalankan menggunakan Apple Neural Engine (ANE). Berdasarkan proyek open source: Langsung memanggil Apple Neural Engine untuk pekerjaan terobosan dalam pelatihan dan inferensi, banyak orang berpikir bahwa Apple tidak akan membuka ANE untuk pelatihan/inferensi penuh Di masa lalu, ANE terutama hanya digunakan untuk inferensi CoreML yang dibangun ke dalam sistem, dan sulit bagi pihak ketiga untuk menelepon secara langsung dan efisien, tetapi sekarang melalui maderix/ANE, Anda dapat langsung menggunakan ANE untuk menjalankan inferensi maju dari model besar modern (beberapa orang bahkan melakukan pelatihan backprop) Dan berdasarkan model kecil 0.8B yang diluncurkan oleh Qwen + ANE = konsumsi daya yang sangat rendah, kecepatan yang baik, dan privasi lokal yang lengkap M1 Pro dapat berjalan, yang berarti bahwa sejumlah besar pengguna Mac lama (seri M1/M2) tiba-tiba memiliki opsi akselerator AI yang sangat efisien, yang lebih hemat daya dan lebih cepat daripada hanya menggunakan GPU/CPU Kerja sama Ane telah benar-benar mengubah Mac menjadi workstation AI lokal yang murah, dan mesin lama Apple dapat dipertimbangkan dengan model besar Cina modern (Qwen3.5 0.8B), membuka pintu ke cara baru untuk memainkan Mac AI lokal dan efisien.