Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance a dit de faire ‘해쩨’
Ils sont sûrs de leur coup
Ils ont déjà fait le TGE et continuent de prouver leur valeur
Les ambassadeurs et créateurs sont en train de gérer la saison 2
Rien qu'en regardant le prix de $BARD, on voit que c'est différent des projets de type crabe habituels
C'est aussi un BTCfi qui a de fortes chances de croître à l'avenir..
—
Mais un des obstacles à l'entrée est le seuil critique
Je suis aussi sur Wider..
Néanmoins, il faut le faire
Prendre soin de ces fondamentaux peut parfois rapporter plus gros que de viser un coup d'un soir
Comme en ce moment.


코루🍊26 nov. 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

353
[@SentientAGI J'ai obtenu le rôle Early AGI, est-ce que je suis diplômé ?]
J'ai beaucoup discuté sur le chat Discord
J'ai organisé tous les messages que j'ai publiés jusqu'à présent
J'ai également participé régulièrement aux événements
et j'ai tout noté dans Notion et soumis.
Ce matin, en vérifiant le canal Discord, j'ai vu que j'étais inclus dans la promotion Early AGI !
Je suis un classé Yapping + détenteur du rôle Early AGI,
est-ce que je peux me réjouir ?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov. 2025
Découverte de ROMA de Sentient
En regardant le tableau de classement de @SentientAGI, il semble que la qualité des écrits soit également très importante. Donc, je vais parler de ROMA, que je considère comme ayant la plus haute technologie chez Sentient.
1. ROMA n'est pas un modèle d'IA.
- ROMA est exactement un système multi-agents, c'est-à-dire un cadre où plusieurs agents d'IA se réfèrent hiérarchiquement et récursivement aux valeurs de chaque agent pour tirer la réponse la plus fiable et précise. En consultant le Readme sur GitHub, on peut généralement voir les relations de base de ces codes, et on utilise les clés API de modèles d'IA comme GPT, Gemini, etc.
2. Alors, quel est le cœur du système ?
- C'est la répartition des rôles entre Atomizer, Executor, Planner et Aggregator. Lorsqu'une tâche est donnée, il faut décider si elle sera traitée par un seul ou plusieurs agents (Atomizer), déterminer comment la résoudre (Planner), exécuter selon le plan (Executor) et ensuite agréger (Aggregator) pour retourner la réponse. De plus, il est possible de choisir en option une étape de vérification (Verifier) pour valider la réponse.
3. Est-ce qu'un seul modèle est utilisé ?
- Non. En consultant le code Quickstart, on voit que tous les modèles, à l'exception de l'Executor, sont spécifiés individuellement (ex. gpt-4o-mini, gemini-2.5-flash). Ainsi, il semble que plusieurs modèles soient utilisés pour obtenir la meilleure réponse.
4. La réponse est-elle toujours la même ?
- Ce n'est pas le cas non plus. Chaque modèle d'IA peut donner des résultats différents pour une même tâche, et cela dépend aussi de la façon dont les paramètres sont ajustés, c'est-à-dire comment le fine-tuning est effectué. Par exemple, le paramètre le plus représentatif, la Temperature, peut avoir une valeur entre 0 et 2, où des valeurs proches de 0 donnent des réponses cohérentes, tandis que des valeurs proches de 2 produisent des réponses variées à chaque essai. En fin de compte, la différence de performance dépendra beaucoup de la façon dont l'utilisateur configure cela.
Récemment, j'ai eu l'occasion de développer un agent IA par hasard, et en étudiant tout en faisant tourner l'IA, je pense que ce que j'ai appris semble maintenant plus clair en regardant le code GitHub, alors j'ai décidé d'écrire à ce sujet :)


342
.@SentientAGI's ROMA v2 a une structure qui divise un grand problème en petites unités, chacune étant traitée par un agent indépendant, puis les résultats sont recombinés.
Cela permet au modèle de ne pas avoir à gérer trop d'informations en même temps.
De plus, chaque tâche ne traite que les informations nécessaires, ce qui réduit les erreurs et la surcharge.
En traitant plusieurs tâches en parallèle, la vitesse augmente également, et il est conçu pour sélectionner automatiquement le modèle nécessaire pour chaque tâche, améliorant ainsi l'efficacité.
Cette approche est similaire à la façon dont les humains résolvent des problèmes complexes en divisant le processus et en le traitant dans l'ordre.
Cela permet aux agents d'exécuter des tâches à long terme de manière beaucoup plus stable.
----
ROMA v2 réduit considérablement la charge pour les développeurs.
Il n'est pas nécessaire d'entraîner des modèles séparés pour créer des agents spécialisés dans des domaines spécifiques.
Il permet de les assembler uniquement par la conception de prompts, et gère systématiquement les données et les résultats générés au cours du processus d'exécution pour permettre leur réutilisation.
Grâce à cela, le processus de collaboration entre agents est simplifié, et il est devenu plus facile de résoudre des projets complexes en plusieurs étapes.
En fin de compte, cela peut être considéré comme une mise à niveau d'un niveau dans la coopération entre plusieurs agents.


냐옹쩌둥Ⓜ️Ⓜ️T28 oct. 2025
[@SentientAGI ]
C'était un projet qui avait atteint le top 10 autrefois, mais
le seuil a baissé et
je ne sais pas si c'est un verrouillage de compte de l'inner circle ou quoi que ce soit, mais
la part de marché n'a pas été reflétée et il a quitté le top 100.
Mais... depuis le meetup, ça a de nouveau débloquéㅠㅠ
J'ai toujours travaillé dur, mais je vais redoubler d'efforts et
si j'ai de bonnes nouvelles, je les partagerai avec enthousiasme ! 🫡

244
Meilleurs
Classement
Favoris