Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance zrób to ‘hae-jja’
Oni są pewni siebie
Już zrobili tge i ciągle to udowadniają
Ambasadorzy i twórcy prowadzą sezon 2
Patrząc tylko na cenę $BARD, różni się od dzisiejszych powszechnych projektów kradzieży
To również BTCfi, które ma dużą szansę na dalszy rozwój..
—
Jednak jedną barierą wejścia jest próg
Ja też jestem na Widerze..
Mimo to, trzeba to zrobić
Zajmowanie się takimi podstawami może czasami przynieść większy zysk niż szukanie szybkiego zysku
Jak teraz


코루🍊26 lis 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

290
[@SentientAGI Uzyskałem rolę Early AGI, czy to oznacza, że ukończyłem?]
Dużo pisałem na czacie Discorda
Zebrałem wszystkie posty, które do tej pory napisałem
Regularnie brałem udział w wydarzeniach
Wszystko zapisałem w Notion i złożyłem.
Dziś rano sprawdziłem kanał Discorda i okazało się, że jestem wśród osób, które awansowały na Early AGI!
Jestem rankingowym gracz + posiadam rolę Early AGI,
czy mogę się cieszyć?


코인추천요정 | GMB LABS11 lis 2025
Zgłębianie ROMA w Sentient
Patrząc na tablicę wyników @SentientAGI, wydaje się, że jakość tekstu jest również bardzo ważna. Dlatego postanowiłem napisać o ROMA, które moim zdaniem szczyci się najwyższą technologią w Sentient.
1. ROMA nie jest modelem AI.
- ROMA to dokładnie Multi-agent, czyli framework, w którym wiele agentów AI działa hierarchicznie i rekurencyjnie, odnosząc się do wartości innych agentów, aby uzyskać najbardziej wiarygodną i dokładną odpowiedź. W dokumentacji na GitHubie można zobaczyć podstawowe relacje między kodami, które zazwyczaj wykorzystują klucze API znanych modeli AI, takich jak GPT czy Gemini.
2. A więc, co jest kluczowe?
- Chodzi o podział ról na Atomizer, Executor, Planner i Aggregator. Gdy zadanie jest przydzielone, decyduje się, czy przetworzyć je jako jedno, czy wiele (Atomizer), następnie ustala, jak je rozwiązać (Planner), wykonuje zgodnie z planem (Executor) i na końcu zbiera wyniki (Aggregator), aby zwrócić odpowiedź. Dodatkowo można opcjonalnie wybrać etap weryfikacji odpowiedzi przez Weryfikatora (Verifier).
3. Czy używany jest tylko jeden model?
- Nie. Jeśli spojrzymy na kod Quickstart, to poza Executor, każdy z agentów jest określony jako osobny model (np. gpt-4o-mini, gemini-2.5-flash). W ten sposób nie używa się jednego modelu, ale wiele modeli, aby uzyskać najlepszą odpowiedź.
4. Czy odpowiedzi zawsze będą takie same?
- Również nie. Każdy model AI może dawać różne wyniki dla tego samego zadania, a także zależy to od tego, jak dostosowuje się parametry, czyli jak przeprowadza się fine-tuning. Na przykład, najbardziej reprezentatywny parametr Temperature ma wartości od 0 do 2, gdzie wartości bliższe 0 dają spójne odpowiedzi, a wartości bliższe 2 generują różnorodne odpowiedzi w każdym przypadku. Ostatecznie, to jak użytkownik ustawi te parametry, może znacząco wpłynąć na wydajność.
Ostatnio miałem przypadkową okazję do rozwijania AI agentów i podczas tego procesu uczyłem się, a teraz, patrząc na kod GitHub, wydaje mi się, że mam lepsze pojęcie o tym, co robiłem :)


274
.@SentientAGI's ROMA v2 ma strukturę, która dzieli duże problemy na mniejsze jednostki, które są następnie przetwarzane przez niezależne agenty, a wyniki są łączone z powrotem.
Dzięki temu model nie musi martwić się o zbyt wiele informacji naraz.
Ponadto każde zadanie zajmuje się tylko niezbędnymi informacjami, co zmniejsza ryzyko błędów i przeciążenia.
Jednocześnie przetwarzanie wielu zadań równolegle przyspiesza proces, a system jest zaprojektowany tak, aby automatycznie wybierać odpowiedni model dla każdego zadania, co zwiększa efektywność.
Taki sposób działania przypomina sposób, w jaki ludzie rozwiązują złożone problemy, dzieląc proces na etapy i przetwarzając je w kolejności.
Agenci mogą w ten sposób znacznie stabilniej realizować długoterminowe zadania.
----
ROMA v2 znacznie obniża obciążenie dla deweloperów.
Nie ma potrzeby osobnego trenowania modeli, aby stworzyć agentów wyspecjalizowanych w określonych dziedzinach.
Można je złożyć tylko za pomocą projektowania promptów, a materiały i wyniki generowane w trakcie realizacji są systematycznie zarządzane, co umożliwia ich ponowne wykorzystanie.
Dzięki temu proces współpracy między agentami stał się bardziej przejrzysty, a rozwiązywanie złożonych projektów w wielu etapach stało się łatwiejsze.
Ostatecznie można to postrzegać jako krok naprzód w zakresie współpracy wielu agentów, co prowadzi do ich rozszerzenia.


냐옹쩌둥Ⓜ️Ⓜ️T28 paź 2025
[@SentientAGI ]
To był projekt, który kiedyś dotarł do top 10,
ale próg się obniżył i
nie wiem, czy to z powodu zablokowania konta w wewnętrznym kręgu,
ale udział w myśleniu nie został odzwierciedlony, przez co wypadliśmy z setki.
Jednak... po meet-upie znowu wszystko się rozkręciłoㅠㅠ
Zawsze ciężko pracowałem, ale znowu postaram się,
jeśli będą dobre wieści, z chęcią je rozprzestrzenię! 🫡

180
Najlepsze
Ranking
Ulubione