Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance moet je ‘haeje’ doen
Ze zijn zeker
Ze hebben al TGE gedaan en bewijzen het voortdurend
Ambassadors en creators zijn bezig met seizoen 2
Als je alleen naar de prijs van $BARD kijkt, is het heel anders dan de gebruikelijke crime-projecten van tegenwoordig
Het is ook BTCfi, wat de kans heeft om nog groter te worden..
—
Maar één toegangsdrempel is de drempelwaarde
Ik ben ook bij Wider..
Desondanks moet je het doen
Het zorgen voor deze basis kan soms een grotere klap zijn dan alleen maar voor de grote klap gaan
Zoals nu


코루🍊26 nov 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

338
[@SentientAGI Early AGI rol verworven, ben ik nu afgestudeerd?]
Ik heb veel in de Discord-chat getypt
en heb al mijn eerdere berichten georganiseerd.
Ik heb ook regelmatig deelgenomen aan evenementen
en alles genoteerd in Notion en ingediend.
Toen ik vanmorgen het Discord-kanaal controleerde, zag ik dat ik was opgenomen in de Early AGI promotie!
Ik ben een Yapping ranker + houder van de Early AGI rol,
kan ik het maken?


코인추천요정 | GMB LABS11 nov 2025
Sentient ROMA ontleden
@SentientAGI De ranglijst laat zien dat de kwaliteit van de teksten ook behoorlijk belangrijk lijkt te zijn. Daarom ga ik schrijven over ROMA, waarvan ik denk dat het de hoogste technische vaardigheden heeft binnen Sentient.
1. ROMA is geen AI-model.
- ROMA is precies een Multi-agent, dat wil zeggen, een framework waarin meerdere AI-agenten hiërarchisch en recursief de waarden van elkaar raadplegen om de meest betrouwbare en nauwkeurige antwoorden te genereren. In de GitHub Readme kun je meestal de basisrelaties van die codes zien, en we gebruiken de API-sleutels van AI-modellen zoals GPT en Gemini.
2. Wat is de kern?
- Het draait allemaal om de rolverdeling van Atomizer, Executor, Planner en Aggregator. Wanneer een taak wordt gegeven, wordt eerst bepaald of deze als één of meerdere moet worden behandeld (Atomizer), daarna wordt besloten hoe deze moet worden opgelost (Planner), vervolgens wordt het uitgevoerd zoals gepland (Executor) en tenslotte wordt het samengevoegd (Aggregator) om het antwoord terug te geven. Daarnaast is er ook een optie om een verificator (Verifier) toe te voegen om het antwoord te controleren.
3. Wordt er slechts één model gebruikt?
- Nee. Als je de Quickstart-code bekijkt, zie je dat, behalve de Executor, elk model afzonderlijk wordt vermeld (bijv. gpt-4o-mini, gemini-2.5-flash). Het lijkt erop dat er meerdere modellen worden gebruikt om het beste antwoord te genereren.
4. Is het antwoord altijd hetzelfde?
- Ook dit is niet het geval. Elk AI-model heeft verschillende uitvoeringsresultaten voor dezelfde taak, en het hangt af van hoe de parameters worden aangepast, dat wil zeggen, hoe de fine-tuning wordt uitgevoerd. Bijvoorbeeld, de meest representatieve parameter, Temperature, heeft waarden van 0-2, waarbij antwoorden dichter bij 0 consistenter zijn en antwoorden dichter bij 2 variabeler zijn. Uiteindelijk lijkt het erop dat de prestaties sterk afhankelijk zijn van hoe de gebruiker dit instelt.
Onlangs had ik toevallig de kans om een AI-agent te ontwikkelen, en terwijl ik dat deed, leerde ik veel. Nu, kijkend naar de GitHub-code, lijkt het alsof ik een idee heb van wat ik heb geleerd, dus ik heb het opgeschreven :)


327
.@SentientAGI's ROMA v2 heeft een structuur waarbij grote problemen worden opgedeeld in kleinere eenheden, die elk door onafhankelijke agenten worden behandeld, waarna de resultaten weer worden samengevoegd.
Op deze manier hoeft het model niet te veel informatie tegelijk te verwerken en na te denken.
Bovendien behandelt elke taak alleen de benodigde informatie, waardoor fouten of overbelasting worden verminderd.
Tegelijkertijd kunnen meerdere taken parallel worden verwerkt, wat de snelheid verhoogt, en het is ontworpen om automatisch het benodigde model voor elke taak te selecteren, wat de efficiëntie ook verbetert.
Deze aanpak is vergelijkbaar met de manier waarop mensen complexe problemen oplossen door het proces op te splitsen en stap voor stap te behandelen.
Het stelt agenten in staat om langetermijntaken veel stabieler uit te voeren.
----
ROMA v2 verlicht de last voor ontwikkelaars aanzienlijk.
Er is geen noodzaak om aparte modellen te trainen om agenten te maken die gespecialiseerd zijn in specifieke gebieden.
Het kan eenvoudig worden samengesteld met alleen promptontwerp, en de gegevens en resultaten die tijdens het uitvoeringsproces worden gegenereerd, worden systematisch beheerd zodat ze hergebruikt kunnen worden.
Dankzij dit is het samenwerkingsproces tussen agenten overzichtelijker geworden, en het is gemakkelijker om complexe projecten in meerdere stappen op te lossen.
Uiteindelijk kan dit worden gezien als een upgrade van het deel waar meerdere agenten samenwerken en uitbreiden.


냐옹쩌둥Ⓜ️Ⓜ️T28 okt 2025
[@SentientAGI ]
Het was ooit een project dat in de top 10 stond, maar
de drempelwaarde is verlaagd en
ik weet niet of het een inner circle account lock is of wat dan ook,
maar de mindshare is niet weerspiegeld en het is uit de top 100 gevallen.
Maar... na de meetup is het weer opengebrokenㅠㅠ
Ik heb altijd hard gewerkt, maar ik zal opnieuw mijn best doen en
als er goed nieuws is, zal ik het hard delen! 🫡

229
Boven
Positie
Favorieten