Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance ha detto di fare ‘해쩨’
Questi sono decisamente affidabili
Hanno già fatto il tge e stanno dimostrando costantemente
Gli ambassador e i creator sono attualmente in stagione 2
Guardando solo il prezzo di $BARD, è diverso dai comuni progetti cripto di oggi
È anche un BTCfi con un alto potenziale di crescita in futuro..
—
Tuttavia, un ostacolo all'ingresso è il valore soglia
Anch'io sono su Wider..
Nonostante ciò, bisogna farlo
Occuparsi di queste basi può a volte portare a risultati migliori rispetto a puntare tutto su un colpo solo
Proprio come adesso


코루🍊26 nov 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

287
[@SentientAGI Ho completato il ruolo di Early AGI, posso considerarmi laureato?]
Ho scritto molto nella chat di Discord
Ho organizzato tutti i post che ho pubblicato fino ad ora
Ho partecipato costantemente agli eventi
E ho annotato tutto su Notion e l'ho inviato.
Questa mattina, controllando il canale Discord, ho visto che sono stato incluso nel passaggio a Early AGI!
Sono un ranker di Yaping + possiedo il ruolo di Early AGI,
posso ridere di gusto?


코인추천요정 | GMB LABS11 nov 2025
Esplorando ROMA di Sentient
Guardando la classifica di @SentientAGI, sembra che la qualità dei contenuti sia piuttosto importante. Quindi, scriverò su ROMA, che considero il più avanzato in termini di tecnologia di Sentient.
1. ROMA non è un modello AI.
- ROMA è esattamente un framework Multi-agent, cioè un insieme di agenti AI che lavorano in modo gerarchico e ricorsivo, facendo riferimento ai valori di ciascun agente per ottenere la risposta più affidabile e precisa. Nella Readme di GitHub, di solito si possono vedere le relazioni fondamentali tra i codici, dove si utilizzano le chiavi API di modelli AI come GPT e Gemini.
2. Qual è quindi il punto chiave?
- È tutto nella suddivisione dei ruoli di Atomizer, Executor, Planner e Aggregator. Quando viene assegnato un compito, si decide se gestirlo in un modo o in più modi (Atomizer), si determina come risolverlo (Planner), si esegue secondo il piano (Executor) e infine si aggregano i risultati (Aggregator) per restituire la risposta. Inoltre, c'è anche la fase di verifica (Verifier) che può essere selezionata come opzione per convalidare la risposta.
3. Viene utilizzato solo un modello?
- No. Se si consulta il codice Quickstart, si noterà che, ad eccezione dell'Executor, vengono specificati modelli diversi (es. gpt-4o-mini, gemini-2.5-flash). In questo modo, non si utilizza un solo modello, ma più modelli per ottenere la migliore risposta.
4. La risposta sarà sempre la stessa?
- Neanche questo è vero. Ogni modello AI produce risultati diversi per lo stesso compito e varia a seconda di come si regolano i parametri, cioè come si effettua il fine-tuning. Ad esempio, il parametro più rappresentativo, la Temperature, varia da 0 a 2, dove valori più vicini a 0 producono risposte coerenti, mentre valori più vicini a 2 forniscono risposte diverse ad ogni esecuzione. Alla fine, sembra che la differenza di prestazioni dipenda molto da come l'utente imposta questi parametri.
Recentemente ho avuto l'opportunità di sviluppare un agente AI e, mentre studiavo, mi sembrava che ora, guardando il codice di GitHub, tutto fosse più chiaro, quindi ho deciso di scriverlo :)


261
.@SentientAGI di ROMA v2 ha una struttura che suddivide un grande problema in unità più piccole, gestite da agenti indipendenti, per poi riunire i risultati.
In questo modo, il modello non deve affrontare troppi dati contemporaneamente.
Inoltre, ogni compito si occupa solo delle informazioni necessarie, riducendo errori e sovraccarichi.
Poiché più compiti vengono elaborati in parallelo, la velocità aumenta e il sistema è progettato per selezionare automaticamente il modello necessario per ogni compito, migliorando così l'efficienza.
Questo approccio è simile al modo in cui gli esseri umani risolvono problemi complessi, suddividendo il processo e affrontandolo in ordine.
Gli agenti possono quindi svolgere compiti a lungo termine in modo molto più stabile.
----
ROMA v2 riduce notevolmente il carico per gli sviluppatori.
Non è necessario addestrare modelli separati per creare agenti specializzati in determinati settori.
È possibile assemblarli semplicemente progettando i prompt e gestendo sistematicamente i dati e i risultati generati durante il processo di esecuzione, rendendoli riutilizzabili.
Grazie a ciò, il processo di collaborazione tra agenti è diventato più fluido e risolvere progetti complessi è diventato più semplice suddividendoli in più fasi.
In definitiva, si può dire che questo ha aggiornato un passo nella cooperazione tra più agenti per l'espansione.


냐옹쩌둥Ⓜ️Ⓜ️T28 ott 2025
[@SentientAGI ]
Era un progetto che era arrivato fino alla top 10,
ma con la diminuzione della soglia
non so se sia un blocco degli account dell'inner circle o cosa,
ma la mindshare non è stata riflessa e siamo usciti dalla top 100.
Tuttavia... dopo il meetup, sembra che ci sia di nuovo un flusso positivoㅠㅠ
Ho sempre lavorato duramente, ma farò di nuovo del mio meglio e
se ci saranno buone notizie, le condividerò con impegno! 🫡

171
Principali
Ranking
Preferiti