トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
>平均385msのツール選択。
>13のMCPサーバーに67のツールが搭載されています。
>14.5GBのメモリ容量です。
> ネットワークからの電話はゼロ。
LocalCoworkはMacBook上で動作するAIエージェントです。オープンソース。
🧵

ローカルAIエージェントを作るのは一見良さそうですが、一日中使おうとするとそう感じます。難しいのはモデルに理解してもらうことではありません。正しいツールを選び、体験がインタラクティブに感じられるほど速く操作できるようにすることです。
そこで、LFM2-24B-A2Bをノートパソコンでテストし、LocalCoworkというオープンソースのデスクトップエージェントを構築しました。
すべてローカルで動作します:
>モデル
道具>
データを>
雲はない。APIキーも使いません。機械からは何も出ません。
私たちは現実的な設定でモデルを評価しました:
> 67 道具
> 13のMCPサーバー
セキュリティスキャン、文書処理、ファイルシステム操作、システムユーティリティなどのタスクです。すべて36GBメモリのApple M4 Maxノートパソコンで動作しています。
この構成では、LFM2-24B-A2Bは1回のツール選択応答あたり平均約385msを達成し、約14.5GBのメモリを収容していました。
つまり、次の通りです:
> アウトバウンドAPIコールはありません
>ベンダーのサブプロセッサはありません
>デバイスからデータが出ていません

57
トップ
ランキング
お気に入り
