Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tiga makalah terbaru yang diterbitkan oleh DeepSeek semuanya ditandatangani oleh Liang Wenfeng, dan isi makalah tersebut juga sangat menarik.
Terutama dalam artikel tentang Engram, DeepSeek setara dengan membawa "kamus" ke model ke ruang pemeriksaan, membebaskan kapasitas otak hafalan untuk masalah yang sulit.
Tetapi mereka menemukan bahwa jika model itu semua tentang memori (Engram), itu adalah kutu buku hafalan yang tidak bisa berpikir sama sekali.
Tetapi jika itu semua inferensi (MOE), banyak daya komputasi terbuang-untuk mendapatkan pengetahuan tetap seperti "di mana ibu kota China".
Berapa banyak kenangan yang harus Anda bawa ke ujian?
DeepSeek telah mengembangkan model untuk rasio emas "memori" dan "berpikir".
Rasio terbaik yang diukur pada akhirnya adalah: 75% untuk berpikir dan 25% untuk memori.
Kesimpulan ini mungkin tidak hanya cocok untuk model, tetapi juga layak direnungkan.
Ketika seseorang mengingat semua detail, itu setara dengan tidak memiliki ruang untuk berpikir.
Pemikiran logis, abstrak yang tepat, adalah sumber kemajuan manusia.
Ketika seseorang tidak memiliki pengetahuan sama sekali, dia hanya membuang-buang energi otaknya memikirkan hal-hal yang paling mendasar, dan otaknya menganggur.
DeepSeek mengukur bahwa setelah menambahkan kamus untuk mengurangi pemikiran, model tersebut memiliki kedalaman berpikir tambahan yang setara dengan jaringan 7 lapis.
Tanpa diduga, luasnya pengetahuan meningkatkan kedalaman pemikiran dengan cara ini.
Sangat menginspirasi.
Teratas
Peringkat
Favorit
