Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 memposting ulang
Setelah bolak-balik selama hampir seminggu, saya akhirnya tersandung dan menciptakan kembali Transformer. Perasaannya sekarang adalah bahwa konstruksi Transformer jelas merupakan produk dari kejeniusan + keringat. Ini memiliki signifikansi yang membuat zaman baik secara teoritis maupun teknik. (Meskipun agak renungkan untuk mengatakan itu sekarang)
59,4K
Tambang rusak selama beberapa hari, dan hanya simpul Islandia yang terhubung. Tiba-tiba lebih baik sore ini.

Jason Young23 Agu, 19.41
Tangga pecah sepanjang sore, dan saya merasa seperti kehilangan kontak dengan dunia
5,92K
AI hanyalah alat, dan itu tergantung pada cara menggunakannya jika tidak digunakan dengan baik. Kode yang ditulis oleh AI hanya dapat dianggap lulus. Ia telah membaca terlalu banyak kode baik dan buruk, dan tidak memiliki selera sendiri, sehingga sering menulis beberapa kode busuk. Kode ini terlihat baik sebagai fragmen modul, tetapi ketika ditempatkan dalam arsitektur yang lebih besar, kode ini akan meletakkan ranjau yang tak terhitung jumlahnya.

宝玉23 Agu, 00.11
Model AI paling canggih menulis kode yang tidak buruk, dan level modul jauh melebihi tingkat rata-rata pemrogram manusia.
Kode lintas modul dibatasi oleh panjang jendela konteks dan mungkin memerlukan bantuan manusia dalam perencanaan desain, dan jika struktur proyek masuk akal, AI juga dapat menggunakan kembali kode yang ada agar tetap KERING
6,01K
Bukannya AI tidak bisa membaca, tetapi tidak bisa mengingatnya. Kapan kita benar-benar dapat mewujudkan memori dalam model untuk menembus kendala konteks.

geniusvczh22 Agu, 18.58
Setelah memikirkannya dengan hati-hati, alasan mengapa AI menulis kode dengan buruk bukan karena dia tidak bisa menulis, tetapi karena dia tidak bisa membaca. Orang-orang melihat banyak hal yang tampaknya tidak terkait karena fitur, tetapi hal-hal yang tampaknya tidak terkait inilah yang memberi Anda kemungkinan untuk menjaga proyek tetap KERING. Agar AI menjadi pilar, pertama-tama harus mempelajari hal ini 🤪
2,35K
Pernahkah Anda memperhatikan bahwa siswa yang menggunakan pemrograman AI menjadi lebih sibuk ketika mereka menggunakan AI?
Di masa lalu, persyaratan didasarkan dalam dua minggu, mulai dari mendeskripsikan persyaratan, membentuk tim, menguji front-end dan back-end produk, memobilisasi sekelompok orang, hingga menyelesaikan pekerjaan.
Sekarang satu orang bisa melakukannya dalam satu malam.
Namun di masa lalu, Anda bisa menggunakan alasan menunggu tim dan mengambil kesempatan untuk memancing. Saya tidak bisa menyentuhnya sekarang. 😶🌫️
66,82K
Persembahan yang dimakan oleh mereka yang kelaparan adalah pahala orang yang dihormati.

garrulous abyss🌈22 Agu, 16.58
Belum lagi itu adalah bodhisattva.
Jika Anda mati kelaparan di alam liar ... Saya melihat kuburan di pinggir jalan, dan ada penghormatan. Anda bersujud dan berkata, "Maaf, saya mati kelaparan, ambil upeti untuk dimakan." Saya tidak berpikir siapa pun atau hantu akan mempermalukan Anda ...

2,2K
Ketika sebuah bidang mulai membahas filsafat, itu berarti bahwa suatu tahap akan segera berakhir. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 Agu, 06.53
Bagaimana menurut Anda bahwa penelitian teknik AI menjadi semakin filosofis dalam bahasa?

4,81K
Satu lap adalah produk dari peningkatan asli. Pendekatan saya saat ini adalah mengimplementasikan RAG sebagai MCP, menyediakan dua API, ASK dan FETCH, dan pengambilan masih menggunakan mekanisme RAG tradisional, memperluas pembacaan untuk membiarkan pengambilan panggilan AI membaca konteks sebelum dan sesudah. Secara mekanis mirip dengan file pembacaan ulang cline grep.

宝玉21 Agu, 07.39
Saya sangat setuju:1. Kerja sama paralel antara beberapa agen tidak sestabil satu utas. 2. RAG tidak dapat diandalkan seperti pencarian tradisional; 3. Semakin banyak instruksi dalam prompt, semakin banyak model tidak tahu bagaimana memilih.
——Terjemahan aslinya adalah sebagai berikut——
Dalam perjalanan untuk membangun agen AI, tim kami @Cline mengidentifikasi tiga "virus berpikir". Apa yang disebut "virus berpikir" adalah ide-ide menggoda yang terdengar sangat pintar tetapi tidak berhasil sama sekali dalam praktiknya.
Ketiga virus tersebut adalah:
* Orkestrasi Multi-Agen
* Pengambilan Generasi Augmented (RAG)
* Semakin banyak instruksi = semakin baik efeknya
Mari kita cari tahu!
1. Kolaborasi multi-agen
Jenis adegan dalam film fiksi ilmiah - "agen belakang, agen amunisi, agen analisis, agen komando" - mengirim sekelompok besar sub-agen, dan akhirnya merangkum hasilnya - terdengar sangat keren. Tetapi kenyataannya adalah bahwa sebagian besar pekerjaan agen yang berguna adalah single-threaded.
Proses kolaborasi yang kompleks jarang memberikan nilai nyata dan sering kali menciptakan kekacauan. Anda tahu, cukup sulit untuk membuat model bekerja secara stabil dalam satu utas, apalagi berurusan dengan logika kolaborasi paralel. Ini tidak hanya meningkatkan kompleksitas implementasi, tetapi juga membuat pemahaman dan proses pengambilan keputusan model menjadi sangat kompleks.
2. Gunakan RAG untuk membuat agen
RAG, atau Retrieval Augmented Generation, juga merupakan virus pikiran. Ini terlihat kuat secara teori, tetapi dalam praktiknya, terutama dalam skenario agen, bahkan perintah pencarian teks dasar seperti GREP terkadang lebih baik darinya.
Mengapa aura RAG memudar dalam alur kerja agen yang sebenarnya? Karena informasi yang diambil seringkali terfragmentasi dan tidak dapat memungkinkan model untuk membentuk "pemahaman" yang koheren dan berguna.
Pendekatan yang lebih baik hampir selalu membiarkan model mencantumkan file sendiri, mencari dengan cara seperti grep, dan kemudian membuka dan membaca seluruh file (seperti manusia). Tim @Cline mulai melakukan ini lebih awal, dan kemudian kami melihat bahwa @Amp — Pratinjau Penelitian dan @Cursor — juga beralih ke pendekatan yang lebih pragmatis ini.
3. Lebih banyak instruksi = semakin baik efeknya
Ada kesalahpahaman yang tersebar luas bahwa menumpuk lebih banyak "instruksi" dalam petunjuk sistem membuat model lebih pintar. Ini benar-benar salah.
"Menyiram" prompt hanya akan membingungkan model, karena lebih banyak instruksi cenderung menyebabkan saran yang bertentangan dan informasi yang berlebihan.
Akibatnya, Anda harus memainkan permainan "memukul lalat" dan terus-menerus mengutak-atik segala macam perilaku aneh dari model alih-alih mendapatkan hasil yang sangat berguna. Untuk sebagian besar model mutakhir saat ini, cara terbaik untuk menyingkir adalah dengan tidak meneriaki mereka dalam upaya untuk mengarahkan mereka ke arah tertentu. Harap hargai setiap kata (atau token) Anda.
Secara keseluruhan, ketiga ide di atas sangat menggoda. Jika Anda tidak bekerja dengan AI sepanjang hari, Anda mungkin berpikir semuanya sangat masuk akal – tetapi tidak. Tentu saja, seiring dengan meningkatnya kemampuan model yang mendasarinya, persepsi kita tentang metode ini dapat berubah di masa depan.
6,21K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal