トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tintin(3/3) 💢
ポジションで答えを検証する
正直、当時は買う気$MOREあまりなかったし、UniCallは発売当日にあんなに落ちてしまい、しばらく切ってみたかったのですが、結局動かなかった、怠け者だったのか、か魚の玉を信じていたのか。
後で、私の UnicornX ウォレットの変動利益がすでに 60%+ であることを知り、今日、アンの一般的な@A_unicornverseのプッシュを見て、誰かが私たちの選択を本当に覚えていることに気づきました。
ダイヤモンドハンドのエアドロップは大したものではなく、オンチェーンで初めて投機ではなく信頼で認められました。 $MOREの市場価値が 16M に上昇した今、多くの才能がこのプロジェクトを研究し始めています。 私はこのトークンのバッチを保持し続けますが、ポイントなどは重要ではありませんが、これがどこまで行けるか見てみたいです。
ムーンベールの表現や美学には何かがあり、MJ @Moonveil_Meejのツイートを何度か読んだことがありますが、パッケージ化されているようには見えません。
現在、この市場では、信頼は最も希少なアルファです。

5.13K
グミラ(3/3)
MiraのVerifyシステムを試してみました—かなり興味深いです。
AIが生成したコンテンツを文ごとに分解し、それぞれを複数のバリデーターで実行します。
•同意すると、緑(true)または赤(false)としてマークされます。
•彼らが同意しない場合、それは灰色です—コンセンサスはありません。
私が際立っていたのは、灰色のものが実際には最も一般的ですが、めったに話題に上らないということです。
ほとんどのAIの出力は、明確に正しいか間違っているかではなく、不確実な中間点に位置しているだけです。
Verifyは、単なるツールというよりもインフラのように感じられます。私が気に入った2つのこと:
1. 現実世界を映し出している - すべてが「はい」/「いいえ」の答えを持っているわけではありません。確認では、不一致を隠すのではなく、表示します。
2. APIアクセス可能 — つまり、AIのモデレーション、自動書き換え、ラベリングシステムなどにプラグインできる。
AIが生成したコンテンツが氾濫する世界では、私たちが本当に必要としているのは、単に答えを増やすことではなく、不確実性についてのより明確なシグナルなのかもしれません。

Tintin(3/3) 💢7月18日 09:15
今日もやってみました~
この図は、AIが制作したコンテンツの一部に対するMiraのVerifyシステムの検証結果を示しています。
各句は複数のバリデーターによって独立して判断され、結果が一貫している場合は緑または赤でマークされ、コンセンサスがない場合は灰色でマークされます
図から、図には真と偽でマークされており、互いの判断と矛盾する灰色の文のタイプがあることがわかります。
このカテゴリは実際には最も一般的ですが、最も提案されていません。
MiraのVerifyシステムは低レベルのソリューションであり、この設計には2つの意味があると思います。
1. 現実世界にもっと沿う:物議を醸す情報のほとんどは、絶対に正しいか間違っているかではなく、コンセンサスの欠如です。 Verifyは不確実性を回避せず、コンセンサスがないことを直接マークします。
2. 技術的に呼び出し可能: Verify は、AI レビュー、自動再生成、コンテンツのタグ付けなどのシナリオに直接アクセスできる API を提供します。
AIモデルによって生成されるコンテンツのこの時代。 私たちに必要なのは、単に答えを増やすだけでなく、より明確な「不確か」なのだと思います。
@MiraNetworkCN
@Mira_Network

2.09K
グミラ(3/3)
MiraのVerifyシステムを試してみました—かなり興味深いです。
AIが生成したコンテンツを文ごとに分解し、それぞれを複数のバリデーターで実行します。
•同意すると、緑(true)または赤(false)としてマークされます。
•彼らが同意しない場合、それは灰色です—コンセンサスはありません。
私が際立っていたのは、灰色のものが実際には最も一般的ですが、めったに話題に上らないということです。
ほとんどのAIの出力は、明確に正しいか間違っているかではなく、不確実な中間点に位置しているだけです。
Verifyは、単なるツールというよりもインフラのように感じられます。私が気に入った2つのこと:
現実の世界を映し出す - すべてがイエス/ノーの答えを持っているわけではありません。確認では、不一致を隠すのではなく、表示します。
2.APIアクセス可能—つまり、AIモデレーション、自動書き換え、ラベリングシステムなどにプラグインできます。
AIが生成したコンテンツが氾濫する世界では、私たちが本当に必要としているのは、単に答えを増やすことではなく、不確実性についてのより明確なシグナルなのかもしれません。

Tintin(3/3) 💢7月18日 09:15
今日もやってみました~
この図は、AIが制作したコンテンツの一部に対するMiraのVerifyシステムの検証結果を示しています。
各句は複数のバリデーターによって独立して判断され、結果が一貫している場合は緑または赤でマークされ、コンセンサスがない場合は灰色でマークされます
図から、図には真と偽でマークされており、互いの判断と矛盾する灰色の文のタイプがあることがわかります。
このカテゴリは実際には最も一般的ですが、最も提案されていません。
MiraのVerifyシステムは低レベルのソリューションであり、この設計には2つの意味があると思います。
1. 現実世界にもっと沿う:物議を醸す情報のほとんどは、絶対に正しいか間違っているかではなく、コンセンサスの欠如です。 Verifyは不確実性を回避せず、コンセンサスがないことを直接マークします。
2. 技術的に呼び出し可能: Verify は、AI レビュー、自動再生成、コンテンツのタグ付けなどのシナリオに直接アクセスできる API を提供します。
AIモデルによって生成されるコンテンツのこの時代。 私たちに必要なのは、単に答えを増やすだけでなく、より明確な「不確か」なのだと思います。
@MiraNetworkCN
@Mira_Network

255
トップ
ランキング
お気に入り
Trending onchain
Trending on X
Recent top fundings
Most notable