トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Kirill Balakhonov | Nethermind
AuditAgentの作成者 |AI×Crypto×製品 |ビルエージェント経済
OpenAIがオープンウェイトのモデルをリリースしたのはなぜですか?自分たちのビジネスを殺すために...(それともいいの?
はい、@OpenAIオープンウェイトを備えた 2 つのモデルをリリースしたばかりで、開発者は OpenAI に何も支払わずにそれらを使用できることを意味します。具体的には、最もリベラルな商用 Apache 2.0 ライセンスの下でリリースされています。では、なぜOpenAIはこれをしたのでしょうか?いくつかの側面があります。
しかし、企業がオープンウェイトのモデルをリリースするからといって、そのモデルが@Linuxオペレーティングシステムのように自分で実行できるオープンソースコードと同じくらいオープンソースであることを意味するわけではないことを明確にしておきたいと思います。いいえ、AI モデルの場合は少し異なります。特に、モデルはブラックボックス、つまり重みのセットです。また、さまざまなタスクでテストしてどのように機能するかを確認することはできますが、トレーニングプロセスを再現できない場合、意図的または偶発的にこのモデル内に侵入したバックドアやセキュリティの脆弱性があるかどうかを知ることはできません。それでは、これをすぐにオープンソースから切り離しましょう。残念ながら、オープンソースの重みを持つモデルは完全に信頼できません(ただし、chepである可能性があります)。
写真に示されているもう一つの側面は、オープンソース モデルの品質が、API を通じてのみ利用できる OpenAI の主力モデルとそれほど変わらないことです。これはすごいです!これは予想外です!OpenAI が開発者にモデルの使用を許可することでどれだけの損失を被る可能性があると思いますか?ただし、これがすべてではありません。API を通じて OpenAI を使用すると、モデルだけが得られるわけではありません。たとえば、UI 経由で ChatGPT を使用し、o3 モデルを選択すると、実際には内部で複雑なエージェントが動作しており、これらのモデルを使用している間、ドキュメントやツールと実際にうまく連携するための多くのロジックがその上に書かれています。OpenAI が公開したこれらのモデルを介してそれらにアクセスすることはできません。
では、なぜOpenAIはオープンウェイトのモデルをリリースしたのでしょうか?まず、主な競合他社、特に@Meta、@MistralAI、@deepseek_ai (ああ、そして@Google) は、人々が使用するオープンウェイトを備えた競争力のあるモデルをすでにリリースしています。そして、オープンモデルを使用する人々の間でのOpenAIの人気は高まっていません。ただし、オープンウェイト (ローカル/プライベート計算用) と API アクセス可能なモデル (より難しいもの) の両方を必要とする開発者にとって、両方が必要な場合、OpenAI を使用することはできません。Google や DeepSeek などの競合他社を利用する方が簡単です。
第二に、よりオープン性を求めるユーザーと規制当局の両方からの大きな圧力があります。人々は、AIが制御不能になったり、シリコンバレーの狭い企業グループの管理下に置かれたりするのではないかと懸念しており、人々は透明性の向上を求めています。競争や売上減少を心配するだけでも、こうしたオープン化への動きはOpenAIのビジネスをさらに大きくする可能性が高いとあえて言います。
そして第三に、もちろん、OpenAIの会社名に関するジョークがあります。すべてがどのように発展したかから判断すると、OpenAI という名前の会社は、リーダーの中で最も閉鎖的な AI 企業でした。これ自体が面白いが、今は変わった。どう思いますか。

276
ほとんどの人は、AIによる人間の置き換えがどのように機能するか(またはどのように機能しないか)をまったく理解していません。スペシャリストが行うすべてのことを 10 倍に加速しても、仕事自体が自動的に消去されるわけではなく、その周りの経済性が書き換えられるだけです。成果物の実効価格が急落すると、棚に座っていた潜在的な需要が突然実行可能になります。エンジニアがロードマップが必要とする以上の機能を出荷していると考えるプロダクトオーナーに会ったことはありません。ウィッシュリストは常に従業員数が許容するよりも長くなります。各機能の構築コストを 10 倍安くし、チームを 10 倍に削減するのではなく、かつては手が届かないと見えたすべての「あると便利なもの」に加えて、誰もわざわざ範囲を測らなかったグリーンフィールド製品全体に光を当てることができます。
実際の Copilot の使用状況に関する最近の @Microsoft Research の調査でも、同じ点が強調されています。ユーザーはコードの起草や事実の収集を手伝ってもらいますが、このモデルは最終的にコーチング、アドバイス、教育に終わり、まったく新しい種類の作業を 1 つのセッションにまとめます。職業は一枚岩ではありません。それらはサブプロセスの束であり、それぞれが今日のモデルで部分的に(そして不完全に)カバーされています。AI ツールが進化するにつれて、役割の範囲も進化し、多くの場合、縮小するのではなく拡大します。
私たちが@NethermindEthで構築したAIスマートコントラクト監査人でさえ、その名前にもかかわらず、潜在的な脆弱性を見つけるというプロセスの非常に特殊な狭い部分をターゲットにしています。一方、セキュリティスペシャリストはこれをツールとして使用し、戦略の策定、調査結果の検証、AI の修正、暗黙のコンテキストの追加、開発者とのコミュニケーション、隠された意図の発見、期待の管理など、はるかに複雑で多面的な作業を行います。
したがって、どの仕事が「消える」かを集計するよりも、解決するための限界コストが崖から落ちた後に、どのような問題を解決する価値があるかを尋ねる方が有用です。歴史は、その答えが「私たちが配置できる範囲をはるかに超えている」ことを示唆しており、それは才能が時代遅れになるのではなく、再配置され、増殖する未来を主張しています。


309
Andrej Karpathy氏は、LLMを使用したAIソフトウェア開発における「コンテキストエンジニアリング」に関連する新しい用語の導入を支持しています。
そして、この用語は長い間非常に必要であると思われてきました。私がNethermind AuditAgentの開発方法を説明するたびに、ドメインの専門知識(web3セキュリティ)を使用し、利用可能な最高のAIモデル(OpenAI、Anthropic、Google)、およびLLMのツールを使用することに加えて、重要な側面の1つは、まさに「コンテキストエンジニアリング」です。
「文脈が王様である」という表現がありますが、それは本当に真実です。LLMは、巨大な高度なものであろうと最適化された小さなLLMであろうと、強力なツールですが、他のツールと同様に、それが間違った人の手に渡った場合、正しく作業した場合よりもはるかに有望な結果が得られません。また、コンテキスト管理(またはエンジニアリング)は、常に進化している複雑であまり説明されていない領域であり、すでにいくつかの否定的な意味合いを持つプロンプトエンジニアリングの概念の延長として実際に登場しました。
全体として、Andrejはコンテキストエンジニアリングに関連する主な側面をリストアップしました(2番目のスクリーンショット)が、それぞれの特定のタスクでは、人々は主に試行錯誤を通じて優れた結果を達成し、そのたびに、問題解決のこの段階で本当に必要な適切なコンテキスト要素を選択しようとし、各ステージのベンチマークを収集し、メトリックを見て、データセットをテストに分割します。 検証など。
「コンテクストエンジニアリング」についてどう思いますか?

Andrej Karpathy2025年6月25日
「プロンプトエンジニアリング」よりも「コンテキストエンジニアリング」が+1。
人々は、プロンプトを、日常の使用でLLMに付与する短いタスクの説明と関連付けます。すべての産業用LLMアプリにおいて、コンテキストエンジニアリングは、次のステップのための適切な情報でコンテキストウィンドウを埋める繊細な芸術と科学です。科学は、これを正しく行うには、タスクの説明と説明、いくつかのショットの例、RAG、関連(おそらくマルチモーダル)データ、ツール、状態と履歴、圧縮...小さすぎるか、形式が間違っていると、LLM には最適なパフォーマンスを得るための適切なコンテキストがありません。多すぎたり、無関係すぎたりすると、LLMのコストが上昇し、パフォーマンスが低下する可能性があります。これをうまく行うことは、非常に簡単ではありません。そして、人々の精神のLLM心理学の周りに指導的な直感のための芸術。
コンテキストエンジニアリング自体に加えて、LLMアプリは次のことを行う必要があります。
- 問題を制御フローに適切に分割する
- コンテキストウィンドウを適切に詰め込む
- 適切な種類と能力のLLMに通話をディスパッチする
- 生成検証 UIUX フローの処理
- その他にもたくさん - ガードレール、セキュリティ、評価、並列処理、プリフェッチなど
つまり、コンテキストエンジニアリングは、個々のLLM呼び出し(およびその他多くの呼び出し)を完全なLLMアプリに調整する、重要なソフトウェアという新しい厚い層のほんの一部にすぎません。ChatGPTラッパー」という言葉は使い古され、本当に、本当に間違っています。
366
昨日、私たちは新製品を製品化しました - I.R.I.S. (Integrity & Risk Intelligence Scanner) は、X (旧 Twitter) で最初の AI エージェントであり、次のような特徴があります。
• スマートコントラクトリポジトリまたはデプロイされたコントラクトのアドレスを受け入れます
• SaaSプラットフォームであるAuditAgent(すでに外部監査人や開発チームが使用している市場をリードするソリューション)を通じてコードを実行します。
•ソーシャルフィードを離れることなく完全な脆弱性レポートを公開します
なぜでしょうか。
• 摩擦のないチャネル。開発者は、すでにコードについて話しているところから監査を受けることができ、フォームやメールスレッドはありません。
• 内部の AuditAgent。単なる「スキャンエンジン」ではなく、実際の監査を支える当社の主力サービスです。
• ~30分で洞察が得られます。詳細な手動レビューの前に完璧なトリアージ。
• 市場投入の推進。Twitterエージェントは、AuditAgentの強みを示し、ユーザーを完全なプラットフォームに誘導します。
タイムラインの最初の 16 時間
✨ 2.7 M インプレッション
🔥 49 Kエンゲージメント
📊 85 % 肯定的な感情 (214 ツイート)
🛠️ ≈150件のツイートで実際の使用例を共有
🔍 33 エクスプレス監査
📋 38,454行のコードをスキャン
⚠️ 377件の脆弱性が検出されました
個人的なメモ
ちょうど1年前、私は「AIはスマートコントラクトのセキュリティに不可欠な要素になるが、専門家を真に助けるのは、ワークフローネイティブに特化したツールだけだ」という、リスクの高い仮説を掲げてNethermindに参加しました。
12か月後、AuditAgent(現在はI.R.I.S.(@UndercoverIRIS))という2つの製品が本番環境に移行し、Web3セキュリティに明確な影響を与えています。
@NethermindEth AIチーム全体と@virtuals_ioに心から感謝します。粘り強さ + 確固たる仮説 + 専門知識の組み合わせ = 業界が目にする結果。
私たちは、開発者にセキュリティを第一に考えるツールを作り続け、Web3 がコミットごとに安全になるようにしていきます。

734
AI Summit Londonから戻ったばかりですが、エンタープライズAIの風景は間近で見ると大きく異なります
私を驚かせた3つのこと:
1️(2)商品棚が混雑している。
すべてのブースは、どんなスタックにも魔法のように収まるプラグアンドプレイの「AIプラットフォーム」を約束しました。しかし、フロアを長く歩くと、APIのないレガシーシステム、散在するデータ、不明瞭なビジネスロジックなど、同じブロッカーを耳にし続けることがあります。現実は、万能のSaaSにとって厳しいものとなるでしょう。
2️(2)オーダーメイドのショップが静かに輝いています。
ディープドメインコンサルティングと迅速なカスタム開発を組み合わせたエージェンシーは、明確な優位性を持っています。彼らは、厄介な中間点に落とし込み、物事をつなぎ合わせ、クライアントの脆弱なインフラストラクチャ内で実際に実行されるものを出荷することができます。
3️(1)カスタムワークは、高価ではなく、安くなっています。
アダプター、テスト、スキャフォールディングを記述するコード生成モデルにより、上級開発者は手動で入力するのではなく、調整を行うようになりました。組織内でAIツールを継続的に使用している私たちの経験は、これを裏付けています。
テイクアウト
エンタープライズ AI の勝者は、派手な「既成概念にとらわれない」エージェントではなく、レガシー テクノロジーの煩雑な制約に導かれて、リアルタイムでソリューションを共同で作成できる機敏なチームです。

263
トップ
ランキング
お気に入り
Trending onchain
Trending on X
Recent top fundings
Most notable