Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Jenis / Tikungan / HVM / INets / λKalkulus
tidak, Anda semua salah, GPT-5 adalah lompatan
Saya 100% menggandakan di sini
Saya tidak ingin memposting terlalu cepat dan menyesalinya lagi, tetapi itu hanya memecahkan banyak perintah debugging yang sangat, sangat sulit yang sebelumnya tidak terpecahkan (oleh AI), dan kemudian merancang game Gameboy berpiksel yang indah dengan tingkat detail dan kualitas yang jelas melampaui apa pun yang pernah saya lihat.
Tidak mungkin model ini buruk.
Saya pikir Anda semua trauma dengan benchmaxxers, dan terlalu banyak mengkompensasi model yang sebenarnya bagus. Saya juga berpikir Anda meremehkan kekuatan gpt-oss (tapi ya posting terakhir saya terburu-buru)
Saya masih tidak tahu apakah itu dapat digunakan untuk pemrograman yang serius (o3 tidak), tetapi sepertinya begitu? Model pengkodean yang andal seperti Opus, namun lebih pintar dari o3, akan benar-benar mengubah alur kerja saya. Opus tidak perlu berpikir untuk menjadi hebat, jadi, itu mungkin menguntungkannya.
Untuk apa nilainya, saya hanya benar-benar menggunakan 3 model:
- Opus 4.1 untuk pengkodean
- Gemini 2.5 sangat jarang untuk pengkodean saat Opus gagal
- O3 untuk segalanya kecuali pengkodean
6,51K
tidak, Anda semua salah, GPT-5 adalah lompatan
Saya 100% menggandakan di sini
Saya tidak ingin memposting terlalu cepat dan menyesalinya lagi, tetapi itu hanya memecahkan banyak perintah debugging yang sangat, sangat sulit yang sebelumnya tidak terpecahkan (oleh AI), dan kemudian merancang game Gameboy berpiksel yang indah dengan tingkat detail dan kualitas yang jelas melampaui apa pun yang pernah saya lihat.
Tidak mungkin model ini buruk.
Saya pikir Anda semua trauma dengan benchmaxxers, dan kompensasi berlebihan terhadap model yang sebenarnya sangat bagus. Saya juga berpikir Anda meremehkan kekuatan gpt-oss (tapi ya posting terakhir saya terburu-buru)
Saya masih tidak tahu apakah itu dapat digunakan untuk pemrograman yang serius (4o, o3 pasti tidak), tetapi sepertinya begitu? Model pengkodean yang andal seperti Opus, namun lebih pintar dari o3, akan benar-benar mengubah alur kerja saya. Opus tidak perlu berpikir untuk menjadi hebat, jadi, itu mungkin menguntungkannya.
Untuk apa nilainya, saya hanya benar-benar menggunakan 3 model:
- Opus 4.1 untuk pengkodean
- Gemini 2.5 sangat jarang untuk pengkodean saat Opus gagal
- O3 untuk segalanya kecuali pengkodean
409
"mencegah kematian sangat tidak etis"

João Pedro de Magalhães6 Agu, 06.41
"Sangat tidak etis untuk menghentikan penuaan" - pengulas mengomentari salah satu aplikasi hibah saya.
Hibah ini berfokus pada peremajaan seluler, tidak disebutkan untuk menyembuhkan penuaan, tetapi ini menunjukkan bahwa kita masih memiliki jalan panjang untuk meyakinkan bahkan sesama ilmuwan bahwa menyembuhkan penuaan adalah hal yang diinginkan.
16,05K
mencegah kematian sangat tidak etis

João Pedro de Magalhães6 Agu, 06.41
"Sangat tidak etis untuk menghentikan penuaan" - pengulas mengomentari salah satu aplikasi hibah saya.
Hibah ini berfokus pada peremajaan seluler, tidak disebutkan untuk menyembuhkan penuaan, tetapi ini menunjukkan bahwa kita masih memiliki jalan panjang untuk meyakinkan bahkan sesama ilmuwan bahwa menyembuhkan penuaan adalah hal yang diinginkan.
215
Jadi gpt-oss 120B tidak dapat menghasilkan bahasa Jerman yang benar, namun memaku bug Haskell kompleks yang bahkan gagal diidentifikasi oleh Opus?
Bagaimana itu terjadi?
Saya benar-benar sangat bingung dengan semua ini

Björn Plüster6 Agu, 04.45
GPT-OSS 120B sangat terang-terangan tidak mampu menghasilkan teks Jerman yang benar secara linguistik. 🧵
219
Kesan awal saya tentang model OSS OpenAI selaras dengan apa yang mereka iklankan. Rasanya lebih dekat dengan o3 daripada model terbuka lainnya, kecuali jauh lebih cepat dan lebih murah. Beberapa penyedia menawarkannya dengan harga 3000 token/s, yang gila. Ini pasti lebih pintar dari Kimi K2, R1 dan Qwen 3. Saya menguji semua model sebentar, dan mendapatkan hasil yang sangat menentukan untuk OpenAI-OSS-120b.
Sayangnya, ada satu hal yang belum bisa dilakukan oleh model-model ini - pekerjaan sialanku. Jadi, semoga kalian bersenang-senang. Saya akan kembali ke debugging evaluasi 😭 λ-kalkulus yang disuperposisikan sampai jumpa
373,7K
Hanya pembaruan singkat: kami berhasil mereplikasi klaim ini
Sistem Guan mencapai 25% pada ARC-AGI 1 dengan 50 jam GPU
Saya masih tidak dapat mengaudit kode secara pribadi, tetapi, kecuali menyontek entah bagaimana, pendekatan ini tampaknya menggeneralisasi instans ARC-AGI dengan komputasi yang relatif sedikit
129,02K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal