Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance să o faci
Ești sigur
Am făcut deja TGE și demonstrez constant acest lucru.
Ambasadorii și creatorii conduc, de asemenea, Sezonul 2.
$BARD preț singur este diferit de proiectele obișnuite de crimă în zilele noastre.
Este și BTCfi, care este probabil să crească în viitor.
—
Dar o barieră la intrare este pragul.
Și eu sunt în Wide.
Cu toate acestea, ar trebui făcută
Există momente când rezolvarea acestei probleme fundamentale poate fi o opțiune mai importantă decât țintirea unui one-shot
La fel ca acum


코루🍊26 nov. 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

293
[@SentientAGI achiziția timpurie a rolei AGI finalizată, am absolvit?]
Am accesat o mulțime de chat-uri Discord
Organizați toate postările pe care le-am postat până acum.
Participați constant la evenimente
Am scris totul pe Notion și l-am trimis.
Am verificat canalul Discord în această dimineață și am aflat că am fost inclus în upgrade-ul AGI timpuriu!
Sunt un Yaping Ranker + Early AGI Roll Holder.
Poate fi crăpat?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov. 2025
Săpând în Sentient ROMA
@SentientAGI ne uităm la clasament, se pare că calitatea scrisului este, de asemenea, destul de importantă. Așa că voi scrie despre ROMA, care cred că se mândrește cu cea mai înaltă tehnologie din Sentient.
1. ROMA nu este un model AI.
- ROMA este un cadru în care mai mulți agenți AI obțin cele mai fiabile și precise răspunsuri pe baza valorilor fiecărui agent ierarhic și recursiv. Dacă vă uitați la Githet Readme, puteți vedea de obicei relația organică de bază a codului și veți introduce și utiliza cheia API a modelelor AI, cum ar fi GPT și Gemini, pe care le cunoaștem în mod obișnuit.
2. Deci, care este rostul?
- Este împărțit în patru roluri: atomizor, executor, planificator și agregator. Când i se oferă o sarcină, decide dacă să o trateze ca unul sau mai multe lucruri (Atomizor), decide cum să o rezolve (Planificator), o execută conform planului (Executor) și apoi o agregă (Agregator) și returnează răspunsul. În plus, puteți alege pasul de verificare a răspunsului prin Verificator ca opțiune.
3. Se folosește un singur model?
-Nu. Dacă vă uitați la codul de pornire rapidă, toate își specifică propriile modele, cu excepția executorului. (ex. gpt-4o-mini, gemini-2.5-flash) În acest fel, se pare că cel mai bun răspuns este derivat prin utilizarea mai multor modele în loc de un singur model.
4. Răspunsul va fi întotdeauna același?
- Nici asta nu este. Rezultatele execuției pentru fiecare model AI sunt diferite pentru o singură sarcină și depinde de modul în care sunt ajustați parametrii, adică de modul de reglare fină. De exemplu, cel mai tipic parametru numit Temperatură are o valoare de 0-2, cu mai aproape de 0 dând un răspuns consistent și mai aproape de 2, oferind o varietate de răspunsuri pentru fiecare încercare. În cele din urmă, se pare că va exista o mare diferență de performanță în funcție de modul în care utilizatorul îl configurează.
Recent am avut ocazia să dezvolt un agent AI din întâmplare și l-am scris pentru că am crezut că ceea ce am studiat în timp ce continuam să rulez AI la acea vreme arată acum ca un truc când mă uit la codul kitului :)


281
ROMA v2 .@SentientAGI are o structură care împarte problemele mari în unități mai mici, fiecare gestionată de un agent independent, și apoi pune rezultatele la loc.
În acest fel, modelul nu trebuie să-și facă griji cu privire la prea multe informații simultan.
În plus, fiecare sarcină acoperă doar informațiile necesare, reducând greșelile și supraîncărcarea.
Deoarece mai multe sarcini sunt procesate în paralel în același timp, viteza este, de asemenea, mai mare, iar designul selectează automat modelul necesar pentru fiecare sarcină, ceea ce îmbunătățește, de asemenea, eficiența.
Această abordare este similară cu modul în care oamenii rezolvă probleme complexe, împărțind procesul și abordându-l în ordine.
Permite agenților să îndeplinească sarcini pe termen lung cu mult mai multă fiabilitate.
----
ROMA v2 reduce semnificativ povara dezvoltatorilor.
Nu trebuie să antrenați un model pentru a crea un anumit agent specific domeniului.
Am făcut posibilă asamblarea acestuia doar cu un design prompt și am gestionat sistematic datele și rezultatele create în timpul procesului de execuție pentru a-l face reutilizabil.
Acest lucru face ca procesul de colaborare între agenți să fie mai curat și mai ușor de rezolvat proiecte complexe în mai multe etape.
În cele din urmă, acest lucru poate fi văzut ca un pas înainte față de extinderea cooperării cu mai mulți agenți.


냐옹쩌둥Ⓜ️Ⓜ️T28 oct. 2025
[@SentientAGI ]
A fost un proiect care a ajuns cândva în top 10
Pragul este coborât,
Nu știu dacă este o blocare a contului din cercul interior sau ceva de genul acesta.
Mindshare nu a fost reflectat, așa că top 100 a fost eliminat.
Apropo... După întâlnire, sângele meu a fost străpuns din nou😢
Întotdeauna am alergat tare, dar am încercat din nou
Dacă există vești bune, voi face tot posibilul să le răspândesc! 🫡

183
Limită superioară
Clasament
Favorite