Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance 하라고 ‘해쩨’
Эти ребята точно знают, что делают
Они уже провели TGE и постоянно это доказывают
Амбассадоры и креаторы также работают над сезоном 2
Смотрим только на цену $BARD, она отличается от обычных краудфандинговых проектов
Это также BTCfi, который имеет высокий потенциал роста..
—
Но есть один барьер для входа — это пороговое значение
Я тоже на Wider..
Тем не менее, это нужно делать
Заботиться о таких основах иногда может привести к большему успеху, чем просто надеяться на удачу
Как сейчас.


코루🍊26 нояб. 2025 г.
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

326
[@SentientAGI Роль Early AGI получена, я выпустился?]
Много писал в чате Discord
Все сообщения, которые я отправлял до этого,整理
Регулярно участвовал в мероприятиях
Все записал в Notion и отправил.
Сегодня утром, проверив канал Discord, я увидел, что я включен в повышение до Early AGI!
Я рангер Япинга + владелец роли Early AGI,
Могу ли я радоваться?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 нояб. 2025 г.
Разбор ROMA от Sentient
Смотрю на лидерборд @SentientAGI, и кажется, что качество текста тоже довольно важно. Поэтому я напишу о ROMA, который, по моему мнению, обладает наивысшей технологией в Sentient.
1. ROMA не является AI моделью.
- ROMA — это точно Multi-agent, то есть несколько AI-агентов, которые иерархически и рекурсивно ссылаются на значения друг друга, чтобы получить наиболее надежный и точный ответ. В Readme на GitHub обычно можно увидеть основные взаимосвязи кода, и мы используем API ключи таких AI моделей, как GPT, Gemini.
2. Так в чем же суть?
- Суть заключается в разделении ролей на 4 части: Atomizer, Executor, Planner, Aggregator. Когда возникает задача, сначала решается, будет ли она обрабатываться одной или несколькими частями (Atomizer), затем определяется, как ее решить (Planner), после чего выполняется план (Executor), и в конце собирается ответ (Aggregator). Дополнительно можно выбрать этап проверки ответа (Verifier) как опцию.
3. Используется ли только одна модель?
- Нет. Если посмотреть на код Quickstart, то, кроме Executor, все модели указаны отдельно (например, gpt-4o-mini, gemini-2.5-flash). Таким образом, используется не одна модель, а несколько, чтобы получить наилучший ответ.
4. Будет ли ответ всегда одинаковым?
- Тоже нет. У каждой AI модели результаты выполнения одной и той же задачи различаются, и это зависит от того, как настраиваются параметры, то есть от fine-tuning. Например, самый известный параметр Temperature имеет значения от 0 до 2, где чем ближе к 0, тем более последовательные ответы, а чем ближе к 2, тем более разнообразные ответы на каждом запуске. В конечном итоге, как пользователь настроит это, так и будет разница в производительности.
Недавно у меня была возможность случайно заняться разработкой AI агента, и тогда, изучая, как это работает, я понял, что теперь, глядя на код GitHub, это кажется более понятным, поэтому я и написал об этом:)


315
.@SentientAGI ROMA v2 имеет структуру, которая разбивает большую проблему на более мелкие части, которые обрабатываются независимыми агентами, а затем результаты снова объединяются.
Таким образом, модели не нужно одновременно обрабатывать слишком много информации.
Кроме того, каждая задача обрабатывает только необходимую информацию, что снижает количество ошибок и перегрузок.
Поскольку несколько задач обрабатываются параллельно, скорость также увеличивается, и каждая задача автоматически выбирает необходимую модель, что улучшает эффективность.
Этот подход похож на то, как человек решает сложные проблемы, разбивая процесс на части и обрабатывая их по порядку.
Агенты могут выполнять долгосрочные задачи гораздо более стабильно.
----
ROMA v2 значительно снижает нагрузку на разработчиков.
Нет необходимости отдельно обучать модели для создания агентов, специализированных в определенной области.
Можно просто собрать их с помощью проектирования подсказок, а материалы и результаты, создаваемые в процессе выполнения, систематически управляются для повторного использования.
Благодаря этому процесс сотрудничества между агентами становится более упорядоченным, и решать сложные проекты стало легче, разбивая их на несколько этапов.
В конечном итоге это можно рассматривать как обновление части, где несколько агентов сотрудничают и расширяются.


냐옹쩌둥Ⓜ️Ⓜ️T28 окт. 2025 г.
[@SentientAGI ]
Это был проект, который когда-то входил в десятку лучших,
но порог снизился, и
не знаю, связано ли это с блокировкой аккаунта в Инерсакле или чем-то другим,
но доля мнений не была учтена, и он выбыл из сотни.
Но... после митапа снова все наладилосьㅠㅠ
Я всегда усердно работал, но снова постараюсь, чтобы
если будут хорошие новости, я их активно распространю! 🫡

217
Топ
Рейтинг
Избранное