どんなパソコンを使っていても、ローカルモデルを動かすべきです OpenClawでの費用を節約し、データのプライバシーも守れます 最も安いMac Miniを使っていても、こういうことはできます こちらが完全なガイドです: 1. LMStudio をダウンロード 2. OpenClawで使っているハードウェアの種類(コンピュータ、メモリ、ストレージ)を伝えます 3. そこで使える最大のローカルモデルは何かを尋ねる 4. 「私について知っていることに基づいて、このオープンモデルがどのワークフローを置き換えられるか?」と尋ねる。 5. OpenClawにLM StudioでのモデルダウンロードとAPI設定の手順を案内してもらう 6. OpenClawに新しいAPIの使用を依頼する よし、準備完了です。 ローカルモデルを使い、完全にプライベートで安全なAIモデルを自分のデバイスで使え、99%の人がやったことのない高度なことを成し遂げ、未来へと踏み込んでいるだけです。 今は素晴らしい地元のモデルもたくさんいます。Nemotron 3とQwen 3.5は素晴らしく、小型デバイスでも動作可能です 自分の知性を受け入れてください。