今年の目標は、ローカルAIをスマートフォン、ノートパソコン、コーディングエージェント、Discord、ブラウザ、さらにはESPでも使いやすく快適にすることです。 Apple Watchと話したり、ローカルモデルをオンコールで動かしたり、コーディングを依頼したりもできます。 Kimiは150GB VRAMで接続しています GLM-5を150GB VRAMで接続 MiniMax-M2.5(48GB VRAM)で QuantForgeならどんなモデルでも、どんなハードウェアでも使えます。ターゲットサイズを選択し、キャリブレーションデータセットを処理し、それを剪定・量子化します。 MacBookで作業中、小さなモデルを収穫して量子化しています。 年末までには、私も誰でもどんなモデルでもどんなハードウェアにも合えるようにするつもりです。現状はローカルハードウェアを使っていますが、Prime Intellectと統合します。 データセット共有機能を追加し、多くの独立したコンポーネントから一つを構築する予定です。