Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance deve fazer ‘haeche’
Eles são realmente confiáveis
Já fizeram o TGE e estão provando consistentemente
Os embaixadores e criadores também estão operando na temporada 2
Só pelo preço do $BARD, é diferente dos projetos de crime comuns de hoje em dia
Além disso, é um BTCfi com grande potencial de crescimento..
—
Mas uma barreira de entrada é o valor crítico
Eu também estou no Wider..
Ainda assim, é necessário fazer isso
Cuidar dessas bases pode ser mais impactante do que buscar um único grande golpe
Como agora.


코루🍊26/11/2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

302
[@SentientAGI Conquista do Early AGI concluída, eu me formei?]
Conversei bastante no chat do Discord
Organizei todos os posts que fiz até agora
Participei de eventos regularmente
E escrevi tudo no Notion e enviei.
Hoje de manhã, ao verificar o canal do Discord, vi que fui incluído na promoção para Early AGI!
Sou um ranqueado Yapping + possuo o rol de Early AGI,
posso me gabar?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11/11/2025
Explorando o ROMA da Sentient
Ao olhar para o leaderboard da @SentientAGI, parece que a qualidade do texto é bastante importante. Por isso, vou escrever sobre o ROMA, que considero ter a maior capacidade técnica na Sentient.
1. O ROMA não é um modelo de IA.
- O ROMA é exatamente um Multi-agent, ou seja, uma estrutura onde vários agentes de IA trabalham de forma hierárquica e recursiva, referenciando os valores de cada agente para obter a resposta mais confiável e precisa. No Readme do GitHub, geralmente podemos ver as relações básicas entre os códigos, onde usamos chaves de API de modelos de IA como o GPT e o Gemini.
2. Então, qual é o cerne?
- Está na divisão de papéis entre Atomizer, Executor, Planner e Aggregator. Quando uma tarefa é dada, decide-se se será tratada por um ou vários (Atomizer), determina-se como resolver (Planner), executa-se conforme o planejado (Executor) e, em seguida, agrega-se (Aggregator) para retornar a resposta. Além disso, há a opção de incluir um Verificador para validar a resposta.
3. Apenas um modelo é utilizado?
- Não. Ao consultar o código Quickstart, vemos que, exceto pelo Executor, todos os outros modelos são especificados individualmente (ex. gpt-4o-mini, gemini-2.5-flash). Assim, parece que não se utiliza um único modelo, mas sim vários para obter a melhor resposta.
4. A resposta é sempre a mesma?
- Também não. Cada modelo de IA pode ter resultados diferentes para uma única tarefa, e isso depende de como os parâmetros são ajustados, ou seja, como é feito o fine-tuning. Por exemplo, o parâmetro mais representativo, Temperature, varia de 0 a 2, onde quanto mais próximo de 0, mais consistentes são as respostas, e quanto mais próximo de 2, mais variadas são as respostas a cada execução. No final, parece que a diferença de desempenho dependerá muito de como o usuário configura isso.
Recentemente, tive a oportunidade de desenvolver um agente de IA e, enquanto estudava, percebi que o que aprendi agora parece fazer sentido ao olhar para o código do GitHub, então decidi escrever sobre isso :)


291
.@SentientAGI's ROMA v2 tem uma estrutura que divide grandes problemas em unidades menores, que são tratadas por agentes independentes, e depois combina os resultados novamente.
Dessa forma, o modelo não precisa lidar com muitas informações de uma só vez.
Além disso, cada tarefa lida apenas com as informações necessárias, reduzindo erros e sobrecargas.
Ao mesmo tempo, como várias tarefas são processadas em paralelo, a velocidade também aumenta, e foi projetado para escolher automaticamente o modelo necessário para cada tarefa, melhorando assim a eficiência.
Esse método é semelhante à forma como os humanos resolvem problemas complexos, dividindo o processo e tratando-o em ordem.
Isso permite que os agentes realizem tarefas de longo prazo de maneira muito mais estável.
----
O ROMA v2 reduz significativamente a carga para os desenvolvedores.
Não é necessário treinar modelos separados para criar agentes especializados em áreas específicas.
Ele permite que sejam montados apenas com o design de prompts e gerencia sistematicamente os dados e resultados gerados durante o processo de execução, tornando-os reutilizáveis.
Graças a isso, o processo de colaboração entre agentes se torna mais organizado, e resolver projetos complexos em várias etapas também se torna mais fácil.
No final, isso pode ser visto como uma atualização significativa na parte em que múltiplos agentes colaboram e se expandem.


냐옹쩌둥Ⓜ️Ⓜ️T28/10/2025
[@SentientAGI ]
Era um projeto que já esteve entre os 10 melhores, mas
o limiar diminuiu e
não sei se é um bloqueio de conta do círculo interno ou o que seja,
mas a participação não foi refletida e caiu para fora do top 100.
Mas... depois do meetup, as coisas voltaram a fluir 😭
Sempre trabalhei duro, mas vou me esforçar novamente e
se houver boas notícias, vou compartilhar com entusiasmo! 🫡

193
Top
Classificação
Favoritos