Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance göra det
Är du säker
Jag har redan gjort TGE och bevisar det ständigt.
Ambassadörer och skapare kör också säsong 2.
$BARD pris i sig skiljer sig från vanliga brottsprojekt nuförtiden.
Det är också BTCfi, som sannolikt kommer att växa i framtiden.
—
Men en tröskel för att komma in är tröskeln.
Jag är också med i Wider.
Ändå bör det göras
Det finns tillfällen då det kan vara en större chans att ta itu med detta grundläggande problem än att sikta på en one-shot
Precis som nu


코루🍊26 nov. 2025
Grapefruktskinka Vad dök upp i mitt huvud när jag läste artikeln
Som @Infinit_Labs @Lombard_Finance, vänner som var tvetydiga om ersättning under Yapings gyllene era
Tvärtom kände jag att det först nu var jag i min bästa form.
Gu Yaping-> Shin Yaping-generationsskifte (?)har pågått på sistone.
Jag vet inte... En belöning är en belöning... Är det fortfarande som förut? I situationen
Tvärtom har belöningarna för säsong 2 och 3 av vännerna som inte kunde växa upp i Gu Yaping (Golden Generation) blivit väldigt, väldigt, väldigt stora just nu.
----
Även om man bara tittar på $IN belöningar är de 500 bästa ungefär två gånger så många.
$BARD ersättning har också kraftigt minskats till 100 personer per månad, vilket resulterat i en enorm ökning av ersättningen per capita.
Även om ingen av dem tvingas krympa av förväntan, är de företag som faktiskt har produkter, fungerar bra och går med vinst
Ersättning, punkt och antal personer bestäms tydligt, och det sker inget lovbrott.
(Snarare, i fallet med @Lombard_Finance, dras den snabbare.)
----
Åh, jag saknar dig...
Men jag håller också med om Grapefruit Hams ord...
Faktum är att belöningarna hittills har varit märkligt stora.
Det är pinsamt att ge 10 miljoner i månaden och sedan ge en miljon i månaden.
Ger du mig inte bara en månad?
Så är det inte igen, ha ha...

402
[@SentientAGI Förvärv av tidig AGI-rulle avslutat, tar jag examen?]
Jag har träffat många Discord-chattar
Organisera alla inlägg jag har lagt upp hittills.
Delta ständigt i evenemang
Jag skrev ner allt på Notion och skickade in det.
Jag kollade Discord-kanalen i morse och fick reda på att jag ingick i den tidiga AGI-uppgraderingen!
Jag är en gapande rankare + tidig AGI Roll Holder.
Kan den spricka?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov. 2025
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


393
.@SentientAGI:s ROMA v2 har en struktur som bryter ner stora problem i mindre enheter, som var och en hanteras av en oberoende agent, och sedan sammanställer resultaten igen.
På så sätt behöver modellen inte oroa sig för för mycket information på en gång.
Dessutom täcker varje uppgift bara nödvändig information, vilket minskar misstag och överbelastning.
Eftersom flera uppgifter bearbetas parallellt samtidigt är hastigheten också snabbare, och designen väljer automatiskt den modell som behövs för varje uppgift, vilket också förbättrar effektiviteten.
Detta tillvägagångssätt liknar det sätt på vilket människor löser komplexa problem, delar upp processen och hanterar den i ordning.
Det gör det möjligt för agenter att utföra långsiktiga uppgifter med mycket mer tillförlitlighet.
----
ROMA v2 minskar avsevärt bördan på utvecklarnas sida.
Du behöver inte träna en modell för att skapa en specifik domänspecifik agent.
Vi gjorde det möjligt att montera den med bara en snabb design och hanterade systematiskt de data och resultat som skapades under exekveringsprocessen för att göra den återanvändbar.
Detta gör samarbetsprocessen mellan agenter renare och lättare att lösa komplexa projekt i flera steg.
I slutändan kan detta ses som ett steg upp från skalningen av samarbete med flera agenter.


냐옹쩌둥Ⓜ️Ⓜ️T28 okt. 2025
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

292
Topp
Rankning
Favoriter