Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
salah satu pendiri Coursera; Fakultas tambahan Stanford CS. Mantan kepala Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Saya sangat senang mengumumkan kursus definitif tentang Claude Code, dibuat dengan @AnthropicAI dan diajarkan oleh Elie Schoppik @eschoppik. Jika Anda ingin menggunakan pengkodean yang sangat agen - di mana AI bekerja secara mandiri selama beberapa menit atau lebih, bukan hanya menyelesaikan cuplikan kode - ini dia.
Claude Code telah menjadi pengubah permainan bagi banyak pengembang (termasuk saya!), tetapi ada kedalaman nyata untuk menggunakannya dengan baik. Kursus komprehensif ini mencakup segala sesuatu mulai dari dasar-dasar hingga pola lanjutan.
Setelah kursus singkat ini, Anda akan dapat:
- Atur beberapa subagen Claude untuk mengerjakan berbagai bagian basis kode Anda secara bersamaan
- Tandai Claude dalam masalah GitHub dan minta secara mandiri membuat, meninjau, dan menggabungkan permintaan pull
- Ubah notebook Jupyter yang berantakan menjadi dasbor yang bersih dan siap produksi
- Gunakan alat MCP seperti Playwright sehingga Claude dapat melihat apa yang salah dengan UI Anda dan memperbaikinya secara mandiri
Apakah Anda baru mengenal Claude Code atau sudah menggunakannya, Anda akan menemukan kemampuan canggih yang secara mendasar dapat mengubah cara Anda membuat perangkat lunak.
Saya sangat senang dengan apa yang memungkinkan pengkodean agen semua orang sekarang lakukan. Silakan ikuti kursus ini!
694,11K
Mengumumkan kursus Coursera baru: Retrieval Augmented Generation (RAG)
Anda akan belajar membangun sistem RAG berkinerja tinggi dan siap produksi dalam kursus langsung dan mendalam yang dibuat oleh dan diajarkan oleh @ZainHasan6, insinyur, peneliti, dan pendidik AI dan ML yang berpengalaman.
RAG adalah komponen penting saat ini dari banyak aplikasi berbasis LLM dalam dukungan pelanggan, sistem tanya jawab internal perusahaan, bahkan banyak chatbot terkemuka yang menggunakan pencarian web untuk menjawab pertanyaan Anda. Kursus ini mengajarkan Anda secara mendalam bagaimana membuat RAG bekerja dengan baik.
LLM dapat menghasilkan respons umum atau ketinggalan zaman, terutama ketika diajukan pertanyaan khusus yang tidak tercakup dalam data pelatihannya. RAG adalah teknik yang paling banyak digunakan untuk mengatasi hal ini. Ini membawa data dari sumber data baru, seperti dokumen internal atau berita terbaru, untuk memberikan konteks yang relevan kepada LLM untuk informasi pribadi, terbaru, atau khusus. Ini memungkinkannya menghasilkan respons yang lebih membumi dan akurat.
Dalam kursus ini, Anda akan belajar merancang dan mengimplementasikan setiap bagian dari sistem RAG, mulai dari retriever hingga database vektor hingga generasi hingga eval. Anda akan belajar tentang prinsip-prinsip dasar di balik RAG dan cara mengoptimalkannya baik di tingkat komponen maupun seluruh sistem.
Seiring berkembangnya AI, RAG juga berkembang. Model baru dapat menangani jendela konteks yang lebih panjang, bernalar dengan lebih efektif, dan dapat menjadi bagian dari alur kerja agen yang kompleks. Salah satu area pertumbuhan yang menarik adalah Agentic RAG, di mana agen AI saat runtime (alih-alih dikodekan keras pada waktu pengembangan) secara mandiri memutuskan data apa yang akan diambil, dan kapan/bagaimana cara masuk lebih dalam. Bahkan dengan evolusi ini, akses ke data berkualitas tinggi saat runtime sangat penting, itulah sebabnya RAG adalah bagian penting dari begitu banyak aplikasi.
Anda akan belajar melalui pengalaman langsung untuk:
- Bangun sistem RAG dengan pengambilan dan augmentasi cepat
- Bandingkan metode pengambilan seperti BM25, pencarian semantik, dan Fusi Peringkat Timbal Balik
- Potongan, indeks, dan ambil dokumen menggunakan database vektor Weaviate dan himpunan data berita
- Kembangkan chatbot, menggunakan LLM sumber terbuka yang diselenggarakan oleh Together AI, untuk toko fiksi yang menjawab pertanyaan produk dan FAQ
- Gunakan eval untuk mendorong peningkatan keandalan, dan menggabungkan data multi-moda
RAG adalah teknik dasar yang penting. Jadilah ahli dalam hal itu melalui kursus ini!
Silakan daftar di sini:
107,05K
Pembicaraan saya di YC Startup School tentang cara membangun startup AI. Saya membagikan tips dari @AI_Fund tentang cara menggunakan AI untuk membangun dengan cepat. Beri tahu saya pendapat Anda!

Y Combinator10 Jul 2025
Andrew Ng (@AndrewYNg) tentang bagaimana startup dapat membangun lebih cepat dengan AI.
Di Sekolah Startup AI di San Francisco.
00:31 - Pentingnya Kecepatan dalam Startup
01:13 - Peluang di AI Stack
02:06 - Kebangkitan Agen AI
04:52 - Ide Konkret untuk Eksekusi Lebih Cepat
08:56 - Pembuatan Prototipe dan Rekayasa Cepat
17:06 - Peran Manajemen Produk
21:23 - Nilai Memahami AI
22:33 - Keputusan Teknis dalam Pengembangan AI
23:26 - Memanfaatkan Alat AI Gen untuk Startup
24:05 - Membangun dengan Blok Bangunan AI
25:26 - Pentingnya Kecepatan dalam Startup
26:41 - Mengatasi Hype dan Kesalahpahaman AI
37:35 - AI dalam Pendidikan: Tren Saat Ini dan Arah Masa Depan
39:33 - Menyeimbangkan Inovasi AI dengan Pertimbangan Etis
41:27 - Melindungi Open Source dan Masa Depan AI
146,52K
Ekstraksi Dokumen Agen sekarang mendukung ekstraksi lapangan! Banyak kasus penggunaan ekstraksi dokumen mengekstrak bidang tertentu dari formulir dan dokumen terstruktur lainnya. Anda sekarang dapat memasukkan gambar atau PDF faktur, meminta nama vendor, daftar item, dan harga, dan mendapatkan kembali bidang yang diekstrak. Atau masukkan formulir medis dan tentukan skema untuk mengekstrak nama pasien, ID pasien, nomor asuransi, dll.
Satu fitur keren: Jika Anda tidak ingin menulis skema (spesifikasi json tentang bidang apa yang akan diekstrak) sendiri, unggah satu dokumen sampel dan tulis prompt bahasa alami yang mengatakan apa yang Anda inginkan, dan kami secara otomatis membuat skema untuk Anda.
Lihat video untuk detailnya!
178,3K
Kursus Baru: Pasca-pelatihan LLM
Belajar pasca-pelatihan dan menyesuaikan LLM dalam kursus singkat ini, yang diajarkan oleh @BanghuaZ, Asisten Profesor di University of Washington @UW, dan salah satu pendiri @NexusflowX.
Melatih LLM untuk mengikuti instruksi atau menjawab pertanyaan memiliki dua tahap utama: pra-pelatihan dan pasca-pelatihan. Dalam pra-pelatihan, ia belajar memprediksi kata atau token berikutnya dari sejumlah besar teks yang tidak berlabel. Dalam pasca-pelatihan, ia mempelajari perilaku yang berguna seperti mengikuti instruksi, penggunaan alat, dan penalaran.
Pasca-pelatihan mengubah prediktor token tujuan umum—dilatih pada triliunan token teks yang tidak berlabel—menjadi asisten yang mengikuti instruksi dan melakukan tugas tertentu. Karena jauh lebih murah daripada pra-pelatihan, praktis bagi lebih banyak tim untuk memasukkan metode pasca-pelatihan ke dalam alur kerja mereka daripada pra-pelatihan.
Dalam kursus ini, Anda akan mempelajari tiga metode pasca-pelatihan umum—Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO), dan Online Reinforcement Learning (RL)—dan cara menggunakan masing-masing secara efektif. Dengan SFT, Anda melatih model pada pasangan input dan respons output yang ideal. Dengan DPO, Anda memberikan respons yang disukai (dipilih) dan respons yang kurang disukai (ditolak) dan melatih model untuk mendukung output yang disukai. Dengan RL, model menghasilkan output, menerima skor hadiah berdasarkan umpan balik manusia atau otomatis, dan memperbarui model untuk meningkatkan kinerja.
Anda akan mempelajari konsep dasar, kasus penggunaan umum, dan prinsip untuk mengkurasi data berkualitas tinggi untuk pelatihan yang efektif. Melalui lab langsung, Anda akan mengunduh model yang telah dilatih sebelumnya dari Hugging Face dan melatihnya menggunakan SFT, DPO, dan RL untuk melihat bagaimana setiap teknik membentuk perilaku model.
Secara rinci, Anda akan:
- Pahami apa itu pasca-pelatihan, kapan menggunakannya, dan perbedaannya dengan pra-pelatihan.
- Buat alur SFT untuk mengubah model dasar menjadi model instruksi.
- Jelajahi bagaimana DPO membentuk kembali perilaku dengan meminimalkan kerugian kontras—menghukum respons yang buruk dan memperkuat respons yang disukai.
- Terapkan pipeline DPO untuk mengubah identitas asisten chat.
- Pelajari metode RL online seperti Optimizasi Kebijakan Proksimal (PPO) dan Pengoptimalan Kebijakan Relatif Grup (GRPO), dan cara merancang fungsi hadiah.
- Latih model dengan GRPO untuk meningkatkan kemampuan matematikanya menggunakan hadiah yang dapat diverifikasi.
Pasca-pelatihan adalah salah satu bidang pelatihan LLM yang paling berkembang pesat. Apakah Anda sedang membangun asisten khusus konteks akurasi tinggi, menyempurnakan nada model, atau meningkatkan akurasi khusus tugas, kursus ini akan memberi Anda pengalaman dengan teknik terpenting yang membentuk bagaimana LLM dilatih pasca-pelatihan saat ini.
Silakan daftar di sini:
109,56K
Saya ingin membagikan tip untuk mendapatkan lebih banyak latihan membangun dengan AI — yaitu, menggunakan blok penyusun AI untuk membangun aplikasi atau menggunakan bantuan pengkodean AI untuk membuat aplikasi yang kuat dengan cepat: Jika Anda menemukan diri Anda hanya memiliki waktu terbatas untuk membangun, kurangi cakupan proyek Anda hingga Anda dapat membangun sesuatu dalam waktu berapa pun yang Anda miliki.
Jika Anda hanya memiliki waktu satu jam, temukan komponen kecil dari ide yang membuat Anda bersemangat yang dapat Anda bangun dalam satu jam. Dengan asisten pengkodean modern seperti Claude Code Anthropic (alat pengembang favorit saya saat ini), Anda mungkin terkejut melihat betapa banyak yang dapat Anda lakukan bahkan dalam waktu singkat! Ini membuat Anda memulai, dan Anda selalu dapat melanjutkan proyek nanti.
Untuk menjadi pandai membangun dengan AI, kebanyakan orang harus (i) mempelajari teknik yang relevan, misalnya dengan mengikuti kursus AI online, dan (ii) berlatih membangun. Saya tahu pengembang yang mencari ide selama berbulan-bulan tanpa benar-benar membangun apa pun — saya juga telah melakukan ini! - karena kami merasa kami tidak punya waktu untuk memulai. Jika Anda menemukan diri Anda dalam posisi ini, saya mendorong Anda untuk terus memotong ruang lingkup proyek awal sampai Anda mengidentifikasi komponen kecil yang dapat Anda bangun segera.
Izinkan saya mengilustrasikan dengan sebuah contoh - salah satu dari banyak proyek akhir pekan kecil dan menyenangkan saya yang mungkin tidak akan pernah pergi ke mana-mana, tetapi saya senang saya melakukannya.
Inilah idenya: Banyak orang takut berbicara di depan umum. Dan berbicara di depan umum menantang untuk dipraktikkan, karena sulit untuk mengatur audiens. Jadi saya pikir akan menarik untuk membangun simulator audiens untuk menyediakan audiens digital puluhan hingga ratusan orang virtual di monitor komputer dan membiarkan pengguna berlatih dengan berbicara dengan mereka.
Suatu Sabtu sore, saya menemukan diri saya di sebuah kedai kopi dengan beberapa jam luang dan memutuskan untuk mencoba simulator penonton. Keakraban saya dengan pengkodean grafis terbatas, jadi alih-alih membangun simulator kompleks dari audiens yang besar dan menulis perangkat lunak AI untuk mensimulasikan respons audiens yang sesuai, saya memutuskan untuk memotong ruang lingkup secara signifikan untuk (a) mensimulasikan audiens satu orang (yang dapat saya tiru nanti untuk mensimulasikan N orang), (b) menghilangkan AI dan membiarkan operator manusia secara manual memilih reaksi audiens yang disimulasikan (mirip dengan pembuatan prototipe Wizard of Oz), dan (c) mengimplementasikan grafik menggunakan avatar 2D sederhana.
Dengan menggunakan campuran beberapa asisten pengkodean, saya membangun versi dasar dalam waktu yang saya miliki. Avatar bisa bergerak halus dan berkedip, tetapi sebaliknya ia menggunakan grafik dasar. Meskipun jauh dari simulator audiens yang canggih, saya senang saya membangun ini. Selain memajukan proyek dan memungkinkan saya menjelajahi berbagai desain, itu memajukan pengetahuan saya tentang grafik dasar. Selanjutnya, memiliki prototipe kasar ini untuk ditunjukkan kepada teman-teman membantu saya mendapatkan umpan balik pengguna yang membentuk pandangan saya tentang ide produk.
Saya memiliki di laptop saya daftar ide hal-hal yang menurut saya akan menarik untuk dibuat. Kebanyakan dari mereka akan memakan waktu lebih lama daripada beberapa jam yang mungkin harus saya coba sesuatu pada hari tertentu, tetapi dengan memotong ruang lingkupnya, saya dapat memulai, dan kemajuan awal pada sebuah proyek membantu saya memutuskan apakah itu layak untuk investasi lebih lanjut. Sebagai bonus, meretas berbagai aplikasi membantu saya melatih berbagai keterampilan. Tetapi yang paling penting, ini mengeluarkan ide dari kepala saya dan berpotensi di depan calon pengguna untuk umpan balik yang memungkinkan proyek bergerak lebih cepat.
[Teks asli: ]

295,57K
Kursus Baru: ACP: Protokol Komunikasi Agen
Belajar membangun agen yang berkomunikasi dan berkolaborasi di berbagai kerangka kerja menggunakan ACP dalam kursus singkat yang dibangun dengan BeeAI @IBMResearch ini, dan diajarkan oleh @sandi_besen, AI Research Engineer & Ecosystem Lead di IBM, dan @nicholasrenotte, Head of AI Developer Advocacy di IBM.
Membangun sistem multi-agen dengan agen yang dibangun atau digunakan oleh tim dan organisasi yang berbeda dapat menjadi tantangan. Anda mungkin perlu menulis integrasi kustom setiap kali tim memperbarui desain agen mereka atau mengubah pilihan kerangka kerja orkestrasi agen mereka.
Protokol Komunikasi Agen (ACP) adalah protokol terbuka yang mengatasi tantangan ini dengan menstandarkan cara agen berkomunikasi, menggunakan antarmuka RESTful terpadu yang bekerja di seluruh kerangka kerja. Dalam protokol ini, Anda menghosting agen di dalam server ACP, yang menangani permintaan dari klien ACP dan meneruskannya ke agen yang sesuai. Menggunakan antarmuka klien-server standar memungkinkan beberapa tim untuk menggunakan kembali agen di seluruh proyek. Ini juga memudahkan untuk beralih antar kerangka kerja, mengganti agen dengan versi baru, atau memperbarui sistem multi-agen tanpa memfaktorkan ulang seluruh sistem.
Dalam kursus ini, Anda akan belajar menghubungkan agen melalui ACP. Anda akan memahami siklus hidup Agen ACP dan perbandingannya dengan protokol lain, seperti MCP (Model Context Protocol) dan A2A (Agent-to-Agent). Anda akan membuat agen yang sesuai dengan ACP dan mengimplementasikan alur kerja berurutan dan hierarkis dari beberapa agen yang berkolaborasi menggunakan ACP.
Melalui latihan langsung, Anda akan membangun:
- Agen RAG dengan CrewAI dan membungkusnya di dalam server ACP.
- Klien ACP untuk melakukan panggilan ke server ACP yang Anda buat.
- Alur kerja berurutan yang menghubungkan server ACP, yang dibuat dengan Smolagents, ke agen RAG.
- Alur kerja hierarkis menggunakan agen router yang mengubah kueri pengguna menjadi tugas, didelegasikan ke agen yang tersedia melalui server ACP.
- Agen yang menggunakan MCP untuk mengakses alat dan ACP untuk berkomunikasi dengan agen lain.
Anda akan menyelesaikannya dengan mengimpor agen ACP Anda ke platform BeeAI, registri sumber terbuka untuk menemukan dan berbagi agen.
ACP memungkinkan kolaborasi antar agen lintas tim dan organisasi. Pada akhir kursus ini, Anda akan dapat membangun agen ACP dan alur kerja yang berkomunikasi dan berkolaborasi terlepas dari kerangka kerjanya.
Silakan daftar di sini:
88,28K
Memperkenalkan "Membangun dengan Llama 4." Kursus singkat ini dibuat bersama @Meta @AIatMeta, dan diajarkan oleh @asangani7, Direktur Teknik Mitra untuk tim AI Meta.
Llama 4 baru Meta telah menambahkan tiga model baru dan memperkenalkan arsitektur Mixture-of-Experts (MoE) ke dalam keluarga model bobot terbukanya, membuatnya lebih efisien untuk disajikan.
Dalam kursus ini, Anda akan bekerja dengan dua dari tiga model baru yang diperkenalkan di Llama 4. Pertama adalah Maverick, model parameter 400B, dengan 128 ahli dan 17B parameter aktif. Kedua adalah Scout, model parameter 109B dengan 16 ahli dan 17B parameter aktif. Maverick dan Scout mendukung jendela konteks panjang masing-masing hingga satu juta token dan 10 juta token. Yang terakhir ini cukup untuk mendukung input langsung bahkan repositori GitHub yang cukup besar untuk analisis!
Dalam pelajaran langsung, Anda akan membuat aplikasi menggunakan kemampuan multimoda baru Llama 4 termasuk penalaran di beberapa gambar dan pembumian gambar, di mana Anda dapat mengidentifikasi elemen dalam gambar. Anda juga akan menggunakan API Llama resmi, bekerja dengan kemampuan konteks panjang Llama 4, dan belajar tentang alat sumber terbuka terbaru Llama: alat pengoptimalan prompt yang secara otomatis meningkatkan perintah sistem dan kit data sintetis yang menghasilkan kumpulan data berkualitas tinggi untuk penyempurnaan.
Jika Anda membutuhkan model terbuka, Llama adalah pilihan yang bagus, dan keluarga Llama 4 adalah bagian penting dari perangkat pengembang GenAI mana pun. Melalui kursus ini, Anda akan belajar memanggil Llama 4 melalui API, menggunakan alat pengoptimalannya, dan membangun fitur yang mencakup teks, gambar, dan konteks besar.
Silakan daftar di sini:
57,48K
Teratas
Peringkat
Favorit
Trending onchain
Trending di X
Pendanaan teratas terbaru
Paling terkenal