Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance melakukannya
Anda yakin
Saya telah melakukan TGE dan terus membuktikannya.
Duta dan kreator juga menjalankan Musim 2.
$BARD harga saja berbeda dari proyek kejahatan umum akhir-akhir ini.
Ini juga BTCfi, yang kemungkinan akan tumbuh di masa depan.
—
Tetapi satu penghalang untuk masuk adalah ambang batas.
Saya juga di Wideder.
Namun demikian, itu harus dilakukan
Ada kalanya mengurus masalah mendasar ini bisa menjadi tembakan yang lebih besar daripada membidik satu tembakan
Sama seperti sekarang


코루🍊26 Nov 2025
자몽햄 글을 보면서 떠오른건
@Infinit_Labs @Lombard_Finance 처럼 야핑 황금기 시대에 보상 애매했던 친구들이
오히려 현재 이제야 전성기가 될 것 같다는 느낌이 들었음
구야핑->신야핑 세대교체(?)가 최근 빡시게 진행중인데
뭐랄까... 보상은 보상이긴한데... 예전의 그맛은 없는? 상황에서
오히려 구야핑(황금세대)에 기를 못폈던 친구들의 시즌2,3 보상이 현재로썬 매우매우매우 거대해졌음
----
$IN 보상만 보더라도 상위500명 기준으론 대략 물량 2배정도고
$BARD 보상 또한 모수가 매달100명으로 엄청 줄어들어서 결과적으로 인당 보상이 엄청 커짐
심지어 둘 다 기대감으로 억지 쉴링하는게 아니라 실제 제품이 있고, 잘 작동하고, 수익을 벌 고 있는 사업들임
보상, 기간, 인원 모두 확실하게 정해져있고 약속 어긴적도 없음
(오히려 @Lombard_Finance 의 경우 더 빨리 당겨서 준거임)
----
아아 그립읍니다...
하지만 자몽햄 말씀에도 매우 동감하는바...
사실 지금까지가 이상할 정도로 보상이 컸던게 맞다.
월천만 주다가 월백만 주니까 섭섭한거지
월백만 준다고 안할꺼냐?
그건 또 아니거든 ㅋㅋ...

313
[@SentientAGI Akuisisi Gulungan AGI Awal Selesai, Apakah Saya Lulus?]
Saya sering melakukan obrolan Discord
Atur semua posting yang telah saya posting sejauh ini.
Terus-menerus berpartisipasi dalam acara
Saya menuliskan semuanya di Notion dan mengirimkannya.
Saya memeriksa saluran Discord pagi ini dan menemukan bahwa saya termasuk dalam peningkatan AGI Awal!
Saya adalah peringkat Yaping + pemegang gulungan AGI awal.
Bisakah retak?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 Nov 2025
Menggali ROMA Sadar
@SentientAGI melihat papan peringkat, tampaknya kualitas tulisannya juga cukup penting. Jadi saya akan menulis tentang ROMA, yang menurut saya menawarkan teknologi tertinggi di Sentient.
1. ROMA bukanlah model AI.
- ROMA adalah kerangka kerja di mana beberapa agen AI memperoleh jawaban yang paling andal dan akurat berdasarkan nilai setiap agen secara hierarkis dan rekursif. Jika Anda melihat Githet Readme, Anda biasanya dapat melihat hubungan organik dasar kode, dan Anda akan memasukkan dan menggunakan kunci API model AI seperti GPT dan Gemini, yang biasa kita kenal.
2. Jadi apa gunanya?
- Itu dalam pembagian empat peran: Alat Penyemprot, Pelaksana, Perencana, dan Agregator. Ketika diberi tugas, ia memutuskan apakah akan menanganinya sebagai satu atau beberapa hal (Atomizer), memutuskan bagaimana menyelesaikannya (Planner), menjalankannya seperti yang direncanakan (Executor), dan kemudian mengagregasinya (Aggregator) dan mengembalikan jawabannya. Selain itu, Anda dapat memilih langkah verifikasi jawaban melalui Verifier sebagai opsi.
3. Apakah hanya satu model yang digunakan?
-Tidak. Jika Anda melihat kode Mulai Cepat, semuanya menentukan modelnya sendiri, kecuali Pelaksana. (mis. gpt-4o-mini, gemini-2.5-flash) Dengan cara ini, tampaknya jawaban terbaik diperoleh dengan menggunakan beberapa model, bukan hanya satu model.
4. Apakah jawabannya akan selalu sama?
- Ini juga tidak. Hasil eksekusi untuk setiap model AI berbeda untuk satu tugas, dan itu tergantung pada bagaimana parameter disesuaikan, yaitu cara menyempurnakan. Misalnya, parameter paling umum yang disebut Suhu memiliki nilai 0-2, dengan lebih dekat ke 0 memberikan jawaban yang konsisten, dan lebih dekat ke 2, memberikan berbagai jawaban untuk setiap percobaan. Pada akhirnya, tampaknya akan ada perbedaan kinerja yang besar tergantung pada bagaimana pengguna mengaturnya.
Saya baru-baru ini memiliki kesempatan untuk mengembangkan agen AI secara kebetulan, dan saya menulisnya karena saya pikir apa yang telah saya pelajari saat terus menjalankan AI pada saat itu sekarang terlihat seperti trik ketika saya melihat kode kit :)


302
ROMA v2 .@SentientAGI memiliki struktur yang memecah masalah besar menjadi unit yang lebih kecil, masing-masing ditangani oleh agen independen, dan kemudian menyatukan kembali hasilnya.
Dengan cara ini, model tidak perlu khawatir tentang terlalu banyak informasi sekaligus.
Selain itu, setiap tugas hanya mencakup informasi yang diperlukan, mengurangi kesalahan dan kelebihan beban.
Karena beberapa tugas diproses secara paralel pada saat yang sama, kecepatannya juga lebih cepat, dan desain secara otomatis memilih model yang diperlukan untuk setiap tugas, yang juga meningkatkan efisiensi.
Pendekatan ini mirip dengan cara manusia memecahkan masalah yang kompleks, membagi proses dan menghadapinya secara berurutan.
Ini memungkinkan agen untuk melakukan tugas jangka panjang dengan lebih banyak keandalan.
----
ROMA v2 secara signifikan menurunkan beban di sisi pengembang.
Anda tidak perlu melatih model untuk membuat agen khusus domain tertentu.
Kami memungkinkan untuk merakitnya hanya dengan desain yang cepat, dan secara sistematis mengelola data dan hasil yang dibuat selama proses eksekusi agar dapat digunakan kembali.
Hal ini membuat proses kolaborasi antar agen menjadi lebih bersih dan lebih mudah untuk menyelesaikan proyek yang kompleks dalam berbagai tahap.
Pada akhirnya, hal ini dapat dilihat sebagai langkah maju dari penskalaan kerja sama multi-agen.


냐옹쩌둥Ⓜ️Ⓜ️T28 Okt 2025
[@SentientAGI]
Itu adalah proyek yang pernah masuk ke 10 besar
Ambang batas diturunkan,
Saya tidak tahu apakah itu kunci akun lingkaran dalam atau semacamnya.
Mindshare tidak tercermin, jadi 100 besar dijatuhkan.
Omong-omong... Setelah pertemuan, darahku ditusuk lagi😢
Saya selalu berlari keras, tetapi saya mencoba lagi
Jika ada kabar baik, saya akan melakukan yang terbaik untuk menyebarkannya! 🫡

204
Teratas
Peringkat
Favorit