Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance gjøre det
Er du sikker
Jeg har allerede gjort TGE og beviser det hele tiden.
Ambassadører og skapere kjører også sesong 2.
$BARD pris alene er annerledes enn vanlige kriminalprosjekter i dag.
Det er også BTCfi, som sannsynligvis vil vokse i fremtiden.
—
Men én terskel for å komme inn er terskelen.
Jeg er også med i Wider.
Likevel bør det gjøres
Det finnes tider hvor det å ta tak i dette grunnleggende problemet kan være et større prosjekt enn å sikte på en one-shot
Akkurat som nå


코루🍊26. nov. 2025
Grapefruktskinke Hva kom til deg mens du leste artikkelen
Som @Infinit_Labs @Lombard_Finance, venner som var tvetydige om kompensasjon i Yapings gullalder
Tvert imot, jeg følte at det først nå var jeg i min beste alder.
Gu Yaping-> Shin Yaping generasjonsskifte (?)har vært under utvikling i det siste.
Jeg vet ikke... En belønning er en belønning... Er det fortsatt det samme som før? I situasjonen
Tvert imot har belønningene for sesong 2 og 3 av vennene som ikke kunne vokse opp i Gu Yaping (Golden Generation) blitt veldig, veldig, veldig store nå.
----
Selv om du ser på de $IN belønningene alene, er de 500 beste omtrent dobbelt så mange.
$BARD kompensasjon har også blitt kraftig redusert til 100 personer per måned, noe som har ført til en enorm økning i lønnen per innbygger.
Selv om ingen av dem blir tvunget til å krympe i forventning, er de bedrifter som faktisk har produkter, fungerer godt og tjener penger
Kompensasjon, punktum og antall personer er tydelig fastsatt, og det er ingen brudd på løfter.
(I @Lombard_Finance trekkes den snarere raskere.)
----
Å, jeg savner deg...
Men jeg er også enig i Grapefruit Hams ord...
Faktisk er det sant at belønningene så langt har vært merkelig store.
Det er pinlig å gi 10 millioner i måneden og så gi én million i måneden.
Vil du ikke bare gi meg en måned?
Det er ikke tilfelle igjen, ha ha...

320
[@SentientAGI tidlig AGI-rulleanskaffelse fullført, er jeg uteksaminert?]
Jeg traff mange Discord-chatter
Organiser alle innleggene jeg har lagt ut så langt.
Delta hele tiden på arrangementer
Jeg skrev alt ned på Notion og sendte det inn.
Jeg sjekket Discord-kanalen i morges og fant ut at jeg var inkludert i Early AGI-oppgraderingen!
Jeg er en Yaping Ranker + Early AGI Roll Holder.
Kan det knekkes?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11. nov. 2025
Graver i Sentient ROMA
@SentientAGI ser på topplisten, ser det ut til at kvaliteten på skrivingen også er ganske viktig. Så jeg skal skrive om ROMA, som jeg tror kan skryte av den høyeste teknologien i Sentient.
1. ROMA er ikke en AI-modell.
- ROMA er et rammeverk der flere AI-agenter utleder de mest pålitelige og nøyaktige svarene basert på verdiene til hver agent hierarkisk og rekursivt. Hvis du ser på Githet Readme, kan du vanligvis se det grunnleggende organiske forholdet til koden, og du vil legge inn og bruke API-nøkkelen til AI-modeller som GPT og Gemini, som vi ofte kjenner.
2. Så hva er poenget?
- Det er i inndelingen av fire roller: Atomizer, Executor, Planner og Aggregator. Når den får en oppgave, bestemmer den om den skal håndteres som én eller flere ting (Atomizer), bestemmer hvordan den skal løses (Planner), utfører den som planlagt (Executor), og aggregerer den deretter (Aggregator) og returnerer svaret. I tillegg kan du velge trinnet for å verifisere svaret gjennom verifikatoren som et alternativ.
3. Brukes bare én modell?
-Nei. Hvis du ser på hurtigstartkoden, spesifiserer alle sine egne modeller, bortsett fra Executor. (f.eks. gpt-4o-mini, gemini-2.5-flash) På denne måten ser det ut til at det beste svaret er utledet ved å bruke flere modeller i stedet for bare én modell.
4. Vil svaret alltid være det samme?
- Dette er heller ikke det. Utførelsesresultatene for hver AI-modell er forskjellige for en enkelt oppgave, og det avhenger av hvordan parameterne justeres, det vil si hvordan du finjusterer. For eksempel har den mest typiske parameteren kalt temperatur en verdi på 0-2, med nærmere 0 som gir et konsistent svar, og nærmere 2, noe som gir en rekke svar for hver prøve. Til syvende og sist ser det ut til at det vil være stor forskjell i ytelse avhengig av hvordan brukeren setter det opp.
Jeg hadde nylig muligheten til å utvikle en AI-agent ved en tilfeldighet, og jeg skrev den fordi jeg trodde det jeg hadde studert mens jeg fortsatte å kjøre AI på den tiden, nå ser ut som et triks når jeg ser på settkoden :)


309
.@SentientAGI ROMA v2 har en struktur som bryter ned store problemer i mindre enheter, hver håndtert av en uavhengig agent, og setter deretter resultatene sammen igjen.
På denne måten trenger ikke modellen å bekymre seg for mye informasjon på en gang.
I tillegg dekker hver oppgave bare nødvendig informasjon, noe som reduserer feil og overbelastning.
Siden flere oppgaver behandles parallelt samtidig, er hastigheten også raskere, og designet velger automatisk modellen som trengs for hver oppgave, noe som også forbedrer effektiviteten.
Denne tilnærmingen ligner på måten mennesker løser komplekse problemer på, deler prosessen og håndterer den i rekkefølge.
Det lar agenter utføre langsiktige oppgaver med mye mer pålitelighet.
----
ROMA v2 reduserer byrden på utviklersiden betydelig.
Du trenger ikke å lære opp en modell for å opprette en bestemt domenespesifikk agent.
Vi gjorde det mulig å sette den sammen med bare et raskt design, og administrerte systematisk dataene og resultatene som ble skapt under utførelsesprosessen for å gjøre den gjenbrukbar.
Dette gjør samarbeidsprosessen mellom agenter renere og enklere å løse komplekse prosjekter i flere stadier.
Til syvende og sist kan dette sees på som et steg opp fra skaleringen av multiagentsamarbeid.


냐옹쩌둥Ⓜ️Ⓜ️T28. okt. 2025
[@SentientAGI ]
Det var et prosjekt som en gang gikk til topp 10
Terskelen senkes,
Jeg vet ikke om det er en kontolås i den indre sirkelen eller noe.
Mindshare ble ikke reflektert, så topp 100 ble droppet.
Forresten... Etter møtet ble blodet mitt gjennomboret igjen😢
Jeg løp alltid hardt, men jeg prøvde igjen
Hvis det er gode nyheter, vil jeg gjøre mitt beste for å spre dem! 🫡

211
Topp
Rangering
Favoritter