Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance gjøre det
Er du sikker
Jeg har allerede gjort TGE og beviser det hele tiden.
Ambassadører og skapere kjører også sesong 2.
$BARD pris alene er annerledes enn vanlige kriminalprosjekter i dag.
Det er også BTCfi, som sannsynligvis vil vokse i fremtiden.
—
Men én terskel for å komme inn er terskelen.
Jeg er også med i Wider.
Likevel bør det gjøres
Det finnes tider hvor det å ta tak i dette grunnleggende problemet kan være et større prosjekt enn å sikte på en one-shot
Akkurat som nå


코루🍊26. nov. 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

318
[@SentientAGI tidlig AGI-rulleanskaffelse fullført, er jeg uteksaminert?]
Jeg traff mange Discord-chatter
Organiser alle innleggene jeg har lagt ut så langt.
Delta hele tiden på arrangementer
Jeg skrev alt ned på Notion og sendte det inn.
Jeg sjekket Discord-kanalen i morges og fant ut at jeg var inkludert i Early AGI-oppgraderingen!
Jeg er en Yaping Ranker + Early AGI Roll Holder.
Kan det knekkes?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11. nov. 2025
Graver i Sentient ROMA
@SentientAGI ser på topplisten, ser det ut til at kvaliteten på skrivingen også er ganske viktig. Så jeg skal skrive om ROMA, som jeg tror kan skryte av den høyeste teknologien i Sentient.
1. ROMA er ikke en AI-modell.
- ROMA er et rammeverk der flere AI-agenter utleder de mest pålitelige og nøyaktige svarene basert på verdiene til hver agent hierarkisk og rekursivt. Hvis du ser på Githet Readme, kan du vanligvis se det grunnleggende organiske forholdet til koden, og du vil legge inn og bruke API-nøkkelen til AI-modeller som GPT og Gemini, som vi ofte kjenner.
2. Så hva er poenget?
- Det er i inndelingen av fire roller: Atomizer, Executor, Planner og Aggregator. Når den får en oppgave, bestemmer den om den skal håndteres som én eller flere ting (Atomizer), bestemmer hvordan den skal løses (Planner), utfører den som planlagt (Executor), og aggregerer den deretter (Aggregator) og returnerer svaret. I tillegg kan du velge trinnet for å verifisere svaret gjennom verifikatoren som et alternativ.
3. Brukes bare én modell?
-Nei. Hvis du ser på hurtigstartkoden, spesifiserer alle sine egne modeller, bortsett fra Executor. (f.eks. gpt-4o-mini, gemini-2.5-flash) På denne måten ser det ut til at det beste svaret er utledet ved å bruke flere modeller i stedet for bare én modell.
4. Vil svaret alltid være det samme?
- Dette er heller ikke det. Utførelsesresultatene for hver AI-modell er forskjellige for en enkelt oppgave, og det avhenger av hvordan parameterne justeres, det vil si hvordan du finjusterer. For eksempel har den mest typiske parameteren kalt temperatur en verdi på 0-2, med nærmere 0 som gir et konsistent svar, og nærmere 2, noe som gir en rekke svar for hver prøve. Til syvende og sist ser det ut til at det vil være stor forskjell i ytelse avhengig av hvordan brukeren setter det opp.
Jeg hadde nylig muligheten til å utvikle en AI-agent ved en tilfeldighet, og jeg skrev den fordi jeg trodde det jeg hadde studert mens jeg fortsatte å kjøre AI på den tiden, nå ser ut som et triks når jeg ser på settkoden :)


307
.@SentientAGI ROMA v2 har en struktur som bryter ned store problemer i mindre enheter, hver håndtert av en uavhengig agent, og setter deretter resultatene sammen igjen.
På denne måten trenger ikke modellen å bekymre seg for mye informasjon på en gang.
I tillegg dekker hver oppgave bare nødvendig informasjon, noe som reduserer feil og overbelastning.
Siden flere oppgaver behandles parallelt samtidig, er hastigheten også raskere, og designet velger automatisk modellen som trengs for hver oppgave, noe som også forbedrer effektiviteten.
Denne tilnærmingen ligner på måten mennesker løser komplekse problemer på, deler prosessen og håndterer den i rekkefølge.
Det lar agenter utføre langsiktige oppgaver med mye mer pålitelighet.
----
ROMA v2 reduserer byrden på utviklersiden betydelig.
Du trenger ikke å lære opp en modell for å opprette en bestemt domenespesifikk agent.
Vi gjorde det mulig å sette den sammen med bare et raskt design, og administrerte systematisk dataene og resultatene som ble skapt under utførelsesprosessen for å gjøre den gjenbrukbar.
Dette gjør samarbeidsprosessen mellom agenter renere og enklere å løse komplekse prosjekter i flere stadier.
Til syvende og sist kan dette sees på som et steg opp fra skaleringen av multiagentsamarbeid.


냐옹쩌둥Ⓜ️Ⓜ️T28. okt. 2025
[@SentientAGI ]
Det var et prosjekt som en gang gikk til topp 10
Terskelen senkes,
Jeg vet ikke om det er en kontolås i den indre sirkelen eller noe.
Mindshare ble ikke reflektert, så topp 100 ble droppet.
Forresten... Etter møtet ble blodet mitt gjennomboret igjen😢
Jeg løp alltid hardt, men jeg prøvde igjen
Hvis det er gode nyheter, vil jeg gjøre mitt beste for å spre dem! 🫡

209
Topp
Rangering
Favoritter