この一ヶ月、$CODECチームと一緒に取り組んできたこと: - ロボット工学分野全体と技術アーキテクチャを鳥瞰的な視点から調査し、@unmoyai(最新の開発、ベストプラクティスなど) - Codec の製品がすべての製品のどこにどのように位置づけられているかを理解する (問題点に対処する) - これにより、どのような具体的なユースケースと物語が解き放たれるか - 工具の最大の価値層であり、主要な資本が流れる場所 - Web2 ツールと AI szn (Virtuals & ai16z) の成功につながったものを比較する - 開発者の活動を刺激するコア コンポーネントは何ですか? - トークノミックフライホイールとユーティリティ チームは技術記事で素晴らしい仕事をしましたが、ツールが実際にどれほど重要であるかを説明するのは表面にすぎないと思います。 私の目的は、SDKが解き放つ真の機能を強調しながら、物語をより簡潔に捉えるためのフレームワークとプロセスの構築を支援することです。 現状では、Web2 でさえ、Codec が目指しているのと同じタイプの抽象化を提供するものはまだありません。 オープンソースへの貢献が前進する道であり、データとタスクのトレーニングはまだ初期段階であるため、Nvidia の Issac Gr00t のような主要な基盤モデルはすでにこれを念頭に置いて構築されています。AIテキスト文字列を使用してロボットをトレーニングすることはできませんし、「ロボット工学のインターネット」も存在しません。 これらのヒューマノイドとロボットはそれぞれ、フルスタックのモノリシックアーキテクチャで構築されており、コードベース全体を書き換えることなく、タスクトレーニングや新しいコンポーネント(後頭部に追加のセンサーやカメラ)を追加する方法の引き継ぎはありません。 単一のモノリシックアーキテクチャのデータパイプラインとシミュレーションを構築する代わりに、システム全体のタスクを構築する代わりに、ロボットの各部分をコアコンポーネント(モーター、センサー、アクチュエーター、目など)に分割するモジュラーアプローチを採用しています。つまり、システムに関係なく、あらゆるタイプのロボット/ヒューマノイドに簡単に接続でき、個々の部品に基づいて要件を実行するように指示できます。 ElizaやVirtualsで見たのと同様に、開発者はフレームワーク全体をコーディングする必要はなく、すべてのプラグイン(twitter、ニュースフィード、dexscreener APIなど)を備えたGPTモデルを指先で操作できました。彼らが必要としていたのは、エージェントの入力に対する個人的なコンテキストだけで、それは純粋に微調整の問題でした。 Codec の目標は非常に似ており、開発者が独自の「ゲーム エンジン」の構築について心配する必要のない開発者ハブであり、SDK ツールキットはゲーム開発にとっての Unreal Engine/Unity のようなものです。 ...