Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Kasus di mana otak kecil menjadi lebih pintar: hasil percobaan @SentientAGI
Mitos bahwa "semakin besar modelnya, semakin pintar" sedang dipatahkan oleh Sentient.
Dalam tolok ukur LiveCodeBenchPro, model Dobby-CP, yang memiliki parameter 7~14B dan 20% dari data pelatihan (Anda hanya dapat menganggapnya sebagai pembelajaran dalam jumlah kecil),
Ini menunjukkan tingkat kelulusan yang sama untuk pertanyaan kesulitan sedang seperti model super besar tingkat GPT.
Ini membuktikan bahwa nilai yang diperoleh pada ujian mudah tradisional tidak menjamin keterampilan pemecahan masalah yang nyata.
Teknologi inti yang telah berkontribusi besar pada kinerja ini adalah kerangka kerja ROMA.
Kerangka kerja ROMA memecah tantangan kompleks menjadi beberapa fase dan memprosesnya secara paralel.
Ini mengurangi biaya inferensi sebesar 50 ~ 80% dan mencapai akurasi yang lebih tinggi daripada GPT.
Hasil ini adalah bukti numerik bahwa kualitas data dan kemampuan model untuk memahami dan belajar tergantung pada kecerdasan, bukan ukuran model sederhana.
---
Para peneliti sadar mengimplementasikan OML 1.0, yang menempatkan 25.000 sidik jari di dalam model, tanpa mengorbankan kinerja.
Dikatakan bahwa reaksi masyarakat juga bahwa semakin besar AI, semakin bodohnya.
Ini sebanding dengan efisiensi otak manusia, yang melakukan penalaran tingkat tinggi dengan daya 20 watt.
Kesimpulannya, dapat dikatakan bahwa Sentient mendemonstrasikan AI mengerikan yang tampaknya sangat cerdas dengan efisiensi yang lebih tinggi meskipun modelnya lebih kecil.

Teratas
Peringkat
Favorit

