Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance moet je ‘haeje’ doen
Ze zijn zeker
Ze hebben al TGE gedaan en bewijzen het voortdurend
Ambassadors en creators zijn bezig met seizoen 2
Als je alleen naar de prijs van $BARD kijkt, is het heel anders dan de gebruikelijke crime-projecten van tegenwoordig
Het is ook BTCfi, wat de kans heeft om nog groter te worden..
—
Maar één toegangsdrempel is de drempelwaarde
Ik ben ook bij Wider..
Desondanks moet je het doen
Het zorgen voor deze basis kan soms een grotere klap zijn dan alleen maar voor de grote klap gaan
Zoals nu


코루🍊26 nov 2025
Wat me opkwam terwijl ik het artikel over grapefruit ham las,
is dat vrienden zoals @Infinit_Labs en @Lombard_Finance, die in de gouden periode van Yaping een onduidelijke beloning kregen,
nu eindelijk in hun hoogtijdagen lijken te komen.
De overgang van oude Yaping naar nieuwe Yaping (?) is recentelijk intensief aan de gang,
maar hoe moet ik het zeggen... beloningen zijn wel beloningen, maar... het heeft niet die oude smaak? In een situatie waarin
de beloningen voor vrienden die niet konden opbloeien in de oude Yaping (gouden generatie) nu enorm zijn gegroeid in seizoen 2 en 3.
----
Als we alleen naar de $IN beloningen kijken, is het ongeveer het dubbele van de hoeveelheid voor de top 500,
terwijl de $BARD beloningen ook zijn gedaald naar ongeveer 100 mensen per maand, waardoor de beloning per persoon enorm is toegenomen.
Zelfs beide zijn geen geforceerde hype op basis van verwachtingen, maar zijn echte producten die goed functioneren en winst maken.
Beloningen, periodes en aantallen zijn allemaal duidelijk vastgesteld en er is nooit een belofte gebroken.
(In feite heeft @Lombard_Finance het zelfs sneller gegeven.)
----
Oh, ik mis het...
Maar ik ben het ook zeer eens met wat grapefruit ham zegt...
Eigenlijk was het tot nu toe ongewoon dat de beloningen zo groot waren.
Als je eerst tienduizend per maand kreeg en nu honderdduizend, dan ben je teleurgesteld,
maar zou je het niet doen als ze honderdduizend geven?
Dat is ook niet het geval, haha...

342
[@SentientAGI Early AGI rol verworven, ben ik nu afgestudeerd?]
Ik heb veel in de Discord-chat getypt
en heb al mijn eerdere berichten georganiseerd.
Ik heb ook regelmatig deelgenomen aan evenementen
en alles genoteerd in Notion en ingediend.
Toen ik vanmorgen het Discord-kanaal controleerde, zag ik dat ik was opgenomen in de Early AGI promotie!
Ik ben een Yapping ranker + houder van de Early AGI rol,
kan ik het maken?


코인추천요정 | GMB LABS11 nov 2025
Sentient ROMA ontleden
@SentientAGI De ranglijst laat zien dat de kwaliteit van de teksten ook behoorlijk belangrijk lijkt te zijn. Daarom ga ik schrijven over ROMA, waarvan ik denk dat het de hoogste technische vaardigheden heeft binnen Sentient.
1. ROMA is geen AI-model.
- ROMA is precies een Multi-agent, dat wil zeggen, een framework waarin meerdere AI-agenten hiërarchisch en recursief de waarden van elkaar raadplegen om de meest betrouwbare en nauwkeurige antwoorden te genereren. In de GitHub Readme kun je meestal de basisrelaties van die codes zien, en we gebruiken de API-sleutels van AI-modellen zoals GPT en Gemini.
2. Wat is de kern?
- Het draait allemaal om de rolverdeling van Atomizer, Executor, Planner en Aggregator. Wanneer een taak wordt gegeven, wordt eerst bepaald of deze als één of meerdere moet worden behandeld (Atomizer), daarna wordt besloten hoe deze moet worden opgelost (Planner), vervolgens wordt het uitgevoerd zoals gepland (Executor) en tenslotte wordt het samengevoegd (Aggregator) om het antwoord terug te geven. Daarnaast is er ook een optie om een verificator (Verifier) toe te voegen om het antwoord te controleren.
3. Wordt er slechts één model gebruikt?
- Nee. Als je de Quickstart-code bekijkt, zie je dat, behalve de Executor, elk model afzonderlijk wordt vermeld (bijv. gpt-4o-mini, gemini-2.5-flash). Het lijkt erop dat er meerdere modellen worden gebruikt om het beste antwoord te genereren.
4. Is het antwoord altijd hetzelfde?
- Ook dit is niet het geval. Elk AI-model heeft verschillende uitvoeringsresultaten voor dezelfde taak, en het hangt af van hoe de parameters worden aangepast, dat wil zeggen, hoe de fine-tuning wordt uitgevoerd. Bijvoorbeeld, de meest representatieve parameter, Temperature, heeft waarden van 0-2, waarbij antwoorden dichter bij 0 consistenter zijn en antwoorden dichter bij 2 variabeler zijn. Uiteindelijk lijkt het erop dat de prestaties sterk afhankelijk zijn van hoe de gebruiker dit instelt.
Onlangs had ik toevallig de kans om een AI-agent te ontwikkelen, en terwijl ik dat deed, leerde ik veel. Nu, kijkend naar de GitHub-code, lijkt het alsof ik een idee heb van wat ik heb geleerd, dus ik heb het opgeschreven :)


331
.@SentientAGI's ROMA v2 heeft een structuur waarbij grote problemen worden opgedeeld in kleinere eenheden, die elk door onafhankelijke agenten worden behandeld, waarna de resultaten weer worden samengevoegd.
Op deze manier hoeft het model niet te veel informatie tegelijk te verwerken en na te denken.
Bovendien behandelt elke taak alleen de benodigde informatie, waardoor fouten of overbelasting worden verminderd.
Tegelijkertijd kunnen meerdere taken parallel worden verwerkt, wat de snelheid verhoogt, en het is ontworpen om automatisch het benodigde model voor elke taak te selecteren, wat de efficiëntie ook verbetert.
Deze aanpak is vergelijkbaar met de manier waarop mensen complexe problemen oplossen door het proces op te splitsen en stap voor stap te behandelen.
Het stelt agenten in staat om langetermijntaken veel stabieler uit te voeren.
----
ROMA v2 verlicht de last voor ontwikkelaars aanzienlijk.
Er is geen noodzaak om aparte modellen te trainen om agenten te maken die gespecialiseerd zijn in specifieke gebieden.
Het kan eenvoudig worden samengesteld met alleen promptontwerp, en de gegevens en resultaten die tijdens het uitvoeringsproces worden gegenereerd, worden systematisch beheerd zodat ze hergebruikt kunnen worden.
Dankzij dit is het samenwerkingsproces tussen agenten overzichtelijker geworden, en het is gemakkelijker om complexe projecten in meerdere stappen op te lossen.
Uiteindelijk kan dit worden gezien als een upgrade van het deel waar meerdere agenten samenwerken en uitbreiden.


냐옹쩌둥Ⓜ️Ⓜ️T28 okt 2025
[@SentientAGI ]
Het was ooit een project dat in de top 10 stond, maar
de drempelwaarde is verlaagd en
ik weet niet of het een inner circle account lock is of wat dan ook,
maar de mindshare is niet weerspiegeld en het is uit de top 100 gevallen.
Maar... na de meetup is het weer opengebrokenㅠㅠ
Ik heb altijd hard gewerkt, maar ik zal opnieuw mijn best doen en
als er goed nieuws is, zal ik het hard delen! 🫡

233
Boven
Positie
Favorieten