499ドルで自分でオプティマスロボットをDIYできる アシモフは高さ1.2メートルのヒューマノイドロボットDIYキットを発売しようとしています。構造部品、アクチュエーター、モーター、センサーが完全にパッケージ化されています。 35kg、自由度27、片腕で持ち上げる18kg。 完全オープンソースで、自由に分解・改変できます。 ポジショニング:人型ロボットの世界におけるRaspberry Pi/Arduinoのオープンソースプラットフォーム。 もしOpenClawをこのハードウェアに脳として組み込み、ザリガニ🦞にこのハードウェアを乗っ取らせ、高速LLMを使って結果を出力するとしたら: 方法1:スキルがハードウェアを直接動かす OpenClawがシリアルポートやROS2コマンドでジョイントを制御できるスキルを書いてください。 「テーブルにカップを持ってこい」と言うと、OpenClawは意図を理解し、それを関節角度の連続に変換して実行します。 これは今、ロブスターがブラウザのクリックを操作するのと同じで、その基本的なロジックもまったく同じです。 方法2:視覚知覚+意思決定 OpenClawは解析インターフェースのスクリーンショットを公開できるようになりました。 カメラを接続すれば、物理的な環境を「見る」ことができます。 知覚->推論->実行、このエージェントの閉ループはデジタル世界を通過し、物理世界への移行は単なる実行層の変更に過ぎません。 方法3:複数のエージェントが労働を分担する 一方のロブスターは知覚と環境理解を担当し、もう一方は移動計画を担当し、もう一方はタスクを受け取るためにあなたに話しかけます。 マルチエージェントアーキテクチャは自然にこの分業に適応しています。 方法4:記憶+継続学習 各タスクの最後に、返信を書いてください MEMORY.md。 ロボットは箱が最後に移動された時の経路、どのドアを強く押す必要があるか、そして持ち主がコーヒーを置くのが好きな場所を覚えている。 これはOpenClawメモリシステムの物理世界的拡張です。 Openclawに似たChromeの制御方法: 前回:コントロールブラウザ=クリックをシミュレート。 さて:関節をコントロールする=物理的な実行。 大きなモデルに手足があると、それはもはやチャットボットではなく、本物のデジタル労働力となります。