Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Kedengarannya sangat bodoh, tetapi salah satu peretasan produktivitas terbesar saat menggunakan Claude Code dengan Opus 4.1 adalah ini: setelah meminta CC untuk mengimplementasikan fitur atau memperbaiki bug atau apa pun, dan setelah mengatakan bahwa ia menyelesaikan semuanya, Anda hanya berulang kali mengatakan hal berikut kepadanya berulang kali sampai tidak dapat menemukan kesalahan lagi (yang terkadang membutuhkan waktu hingga 7 atau 8 percobaan!):
"Hebat, sekarang saya ingin Anda membaca dengan cermat semua kode baru yang baru saja Anda tulis dan kode lain yang baru saja Anda modifikasi dengan" mata segar ", melihat dengan sangat hati-hati untuk bug, kesalahan, masalah, masalah, kebingungan, dll."
Ya, ini memang membutuhkan waktu cukup lama, tetapi itulah mengapa sangat berguna untuk membuka banyak sesi CC sekaligus. Kemudian Anda dapat memutarnya, menempelkan kalimat itu berulang kali.
Entah bagaimana hal "mata segar" mengubah cara ia memandang apa yang baru saja ditulisnya dengan cara yang sangat membantu.
Anehnya, trik ini tampaknya tidak bekerja dengan baik dengan pemikiran GPT-5 - cenderung hanya mengatakan "Ya, semuanya terlihat baik!" Claude jauh lebih rentan untuk menebak-nebak dan membuat kesalahan ceroboh pada pertama kalinya, tetapi pandai menangkapnya jika diberi cukup kesempatan.
4,83K
Siapa pun di OpenAI memutuskan untuk mematahkan API untuk GPT-5 (dan o3, ini masalah lama) untuk mengubah parameter "max_tokens" menjadi "max_completion_tokens" dalam upaya untuk membuat segalanya lebih jelas... Anda membuat kesalahan besar. Itu tidak akan pernah menutupi berjam-jam yang tak terhitung jumlahnya yang terbuang oleh pengembang pada kode yang rusak.

1,43K
Setelah beberapa hari lagi penggunaan GPT-5 secara intens melalui Kursor dan melalui model GPT-5 Pro di aplikasi web, saya mendukung semua yang saya katakan tentang model yang jauh lebih cerdas dan lebih baik dalam pengkodean daripada Opus 4.1
Saya masih menyukai Opus dan menemukan ergonomi Claude Code lebih bagus dalam banyak hal, tetapi jika Anda mencoba melakukan hal-hal yang benar-benar sulit yang membutuhkan pemikiran prinsip pertama yang sangat cerdas dan ilmu komputer, GPT-5 adalah tingkat berikutnya.
Tapi saya menduga ini hanya muncul ketika mode upaya penalaran diatur ke setidaknya sedang, dan benar-benar memanifestasikan dirinya dengan pengaturan upaya tinggi.
Contoh masalah yang baik adalah menyiapkan dokumen "garis merah" dari dua dokumen hukum yang panjang dan kompleks. Bukan versi berbeda dari dokumen yang sama, tetapi dua dokumen berbeda yang berasal dari templat umum bersama.
Ini adalah masalah yang sangat, sangat sulit untuk melakukan pekerjaan dengan baik, dan membutuhkan banyak trik dan heuristik cerdas untuk memberikan kinerja dan kualitas output yang layak (saya berbicara tentang menggunakan teknik pemrograman tradisional di sini, bukan menggunakan LLM untuk melakukan perbandingan ini).
GPT-5 dengan agen Kursor dapat dengan mudah menghasilkan lebih banyak, lebih baik, ide-ide cerdas (namun pragmatis) lebih cepat, dan menerapkannya dengan benar dan tanpa banyak pegangan tangan, dibandingkan dengan Opus4.1.
Namun, itu tergantung pada apa yang Anda kerjakan. Saya masih berpikir saya lebih suka kode frontend di NextJS oleh Opus, misalnya.
Tetapi Anda harus benar-benar memeriksa sendiri masalah aktual Anda sendiri dan tidak mempercayai semua orang yang mengatakan model itu menyebalkan dan bahwa itu adalah bukti bahwa kita telah menabrak tembok.
Entah mereka menggunakan versi gratis yang buruk tanpa berpikir, atau mereka tidak tahu bagaimana cara meminta secara efektif, atau mereka membiarkan perasaan mereka terhadap OpenAI dan Altman mewarnai pandangan mereka.
36,15K
Dalam retrospeksi, sulit dipercaya bahwa tidak ada yang repot-repot mengimplementasikan jaringan saraf multi-layer dengan penurunan gradien stokastik dasar pada tahun 1997 pada 3dfx Voodoo, beberapa tahun sebelum GPU pertama Nvidia pada tahun 1999. Potongan-potongan itu pada dasarnya ada di sana untuk LLM kecil.

3,87K
Saya pikir pujian tertinggi yang dapat saya berikan kepada @patrickc dan tim Stripe adalah bahwa mereka memiliki reputasi dan rekam jejak yang luar biasa dalam membuat UI/UX yang benar-benar halus dan intuitif untuk layanan mereka sehingga sangat berguna untuk mereferensikan nama mereka dalam petunjuk pengkodean untuk mendapatkan hasil yang lebih baik dari agen pengkodean AI.
Misalnya, saya memiliki varian ini yang disimpan di editor teks saya dan menempelkannya ke Claude Code setidaknya 10 kali sehari:
"Saya ingin Anda melakukan pekerjaan spektakuler dalam membangun komponen UI/UX kelas dunia untuk menampilkan laporan penilaian ini, menampilkan detailnya dan juga sebagai "lencana" atau "kartu ringkasan", dengan fokus yang intens untuk membuat UI/UX berkualitas yang paling menarik secara visual, ramah pengguna, intuitif, apik, halus, "tingkat Stripe" untuk ini yang memanfaatkan perpustakaan bagus yang sudah menjadi bagian dari proyek."
Kemudian saya mengatakan bahwa apa pun yang dibuatnya benar-benar tidak sehebat itu ("dewa yang mengerikan" atau "sangat buruk") bahkan jika itu sudah cukup bagus, dan bahwa itu harus DRAMATIS meningkatkannya untuk benar-benar mencapai tingkat kesenangan dan kelicinan pengguna kelas Stripe, polesan, intuitif, dll.
Pada dasarnya, menerapkan Teknik Gaslighting Steve Jobs untuk secara berulang mencapai hasil yang "sangat hebat".
Dan ya, ini bekerja dengan sangat baik jika Anda terus melakukannya berulang kali. Triknya adalah Anda perlu memasukkan SEMUA kata sifat itu, atau itu akan berubah menjadi ikon yang berputar dan berdenyut seperti akrobat ("licin" dan "menarik secara visual"); Anda membutuhkan istilah lain seperti "dipoles" dan "intuitif" dan "tingkat garis" untuk meredamnya sehingga juga agak minimalis dan bagus untuk digunakan dalam praktik.
Saya senang saya tidak harus bekerja untuk saya sebagai agen AI :/
1,71K
Baca saja makalah GSPO baru dari tim Qwen.
Sungguh lucu betapa banyak peningkatan teoretis besar ini, meskipun memiliki dasar fundamental yang tampaknya dalam (dalam hal ini, bahwa mengoptimalkan seluruh urutan token lebih baik daripada mengoptimalkan di seluruh token individu), pada akhirnya bermuara pada membiarkan gradien mengalir lebih baik dengan menghindari masalah pengkondisian numerik.
Ketika Anda mundur selangkah dan melihatnya, GSPO pada dasarnya adalah cara untuk mendapatkan pengkondisian numerik yang lebih baik dengan rata-rata hal-hal bersama-sama lebih banyak dalam pembaruan untuk menghindari gundukan berisik (hampir seperti menggunakan momentum di rmsprop atau Adam) dan juga mengabaikan pembaruan yang akan mengarah pada situasi "berbahaya" secara numerik dalam hal pengkondisian.
Tapi itu semua masuk akal dari perspektif historis, karena pembelajaran mendalam benar-benar meledak ketika kita menemukan cara menghindari masalah gradien yang menghilang/meledak dengan menggunakan hal-hal seperti momentum dalam pengoptimal. Jadi di satu sisi, ini hanyalah langkah terbaru dalam tradisi menavigasi lanskap kerugian dengan cara yang lebih kuat untuk menghindari "mengemudi ke parit."
3,34K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal