Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
Đồng sáng lập Coursera; Giảng viên trợ giảng CS của Stanford. Cựu giám đốc Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Tôi rất vui mừng thông báo về khóa học chính thức về Claude Code, được tạo ra với @AnthropicAI và được giảng dạy bởi Elie Schoppik @eschoppik. Nếu bạn muốn sử dụng lập trình có tính tự động cao - nơi AI hoạt động độc lập trong nhiều phút hoặc lâu hơn, không chỉ hoàn thành các đoạn mã - thì đây chính là khóa học dành cho bạn.
Claude Code đã trở thành một bước ngoặt cho nhiều nhà phát triển (bao gồm cả tôi!), nhưng có một chiều sâu thực sự trong việc sử dụng nó một cách hiệu quả. Khóa học toàn diện này bao gồm mọi thứ từ những kiến thức cơ bản đến các mẫu nâng cao.
Sau khóa học ngắn này, bạn sẽ có thể:
- Điều phối nhiều Claude subagents làm việc trên các phần khác nhau của mã nguồn của bạn đồng thời
- Gán tag Claude trong các vấn đề GitHub và để nó tự động tạo, xem xét và hợp nhất các yêu cầu kéo
- Chuyển đổi các notebook Jupyter lộn xộn thành các bảng điều khiển sạch sẽ, sẵn sàng cho sản xuất
- Sử dụng các công cụ MCP như Playwright để Claude có thể thấy những gì sai với giao diện người dùng của bạn và tự động sửa chữa nó
Dù bạn mới bắt đầu với Claude Code hay đã sử dụng nó, bạn sẽ khám phá ra những khả năng mạnh mẽ có thể thay đổi cơ bản cách bạn xây dựng phần mềm.
Tôi rất hào hứng với những gì lập trình tự động cho phép mọi người làm bây giờ. Hãy tham gia khóa học này!
679,42K
Thông báo về một khóa học mới trên Coursera: Tạo ra Dữ liệu Tăng cường (RAG)
Bạn sẽ học cách xây dựng các hệ thống RAG hiệu suất cao, sẵn sàng cho sản xuất trong khóa học thực hành, sâu sắc này được tạo ra và giảng dạy bởi @ZainHasan6, kỹ sư AI và ML có kinh nghiệm, nhà nghiên cứu và giáo viên.
RAG là một thành phần quan trọng ngày nay của nhiều ứng dụng dựa trên LLM trong hỗ trợ khách hàng, hệ thống hỏi đáp nội bộ của công ty, thậm chí nhiều chatbot hàng đầu sử dụng tìm kiếm web để trả lời câu hỏi của bạn. Khóa học này dạy bạn cách làm cho RAG hoạt động hiệu quả.
LLM có thể tạo ra các phản hồi chung chung hoặc lỗi thời, đặc biệt khi được hỏi những câu hỏi chuyên biệt không được đề cập trong dữ liệu đào tạo của nó. RAG là kỹ thuật được sử dụng rộng rãi nhất để giải quyết vấn đề này. Nó mang dữ liệu từ các nguồn dữ liệu mới, chẳng hạn như tài liệu nội bộ hoặc tin tức gần đây, để cung cấp cho LLM bối cảnh liên quan đến thông tin riêng tư, gần đây hoặc chuyên biệt. Điều này cho phép nó tạo ra các phản hồi chính xác và có cơ sở hơn.
Trong khóa học này, bạn sẽ học cách thiết kế và triển khai mọi phần của một hệ thống RAG, từ các bộ thu thập đến cơ sở dữ liệu vector đến việc tạo ra và đánh giá. Bạn sẽ tìm hiểu về các nguyên tắc cơ bản đằng sau RAG và cách tối ưu hóa nó ở cả cấp độ thành phần và toàn bộ hệ thống.
Khi AI phát triển, RAG cũng đang phát triển. Các mô hình mới có thể xử lý các cửa sổ ngữ cảnh dài hơn, lý luận hiệu quả hơn và có thể là một phần của các quy trình phức tạp. Một lĩnh vực phát triển thú vị là RAG Tác nhân, trong đó một tác nhân AI tại thời điểm chạy (thay vì được mã hóa cứng tại thời điểm phát triển) tự động quyết định dữ liệu nào cần thu thập, và khi nào/cách để đi sâu hơn. Ngay cả với sự phát triển này, việc truy cập vào dữ liệu chất lượng cao tại thời điểm chạy là rất quan trọng, đó là lý do tại sao RAG là một phần chính của rất nhiều ứng dụng.
Bạn sẽ học thông qua các trải nghiệm thực hành để:
- Xây dựng một hệ thống RAG với việc thu thập và tăng cường lời nhắc
- So sánh các phương pháp thu thập như BM25, tìm kiếm ngữ nghĩa và Hợp nhất Xếp hạng Đối xứng
- Chia nhỏ, lập chỉ mục và thu thập tài liệu sử dụng cơ sở dữ liệu vector Weaviate và tập dữ liệu tin tức
- Phát triển một chatbot, sử dụng các LLM mã nguồn mở được lưu trữ bởi Together AI, cho một cửa hàng hư cấu trả lời các câu hỏi về sản phẩm và FAQ
- Sử dụng các đánh giá để cải thiện độ tin cậy, và kết hợp dữ liệu đa phương thức
RAG là một kỹ thuật nền tảng quan trọng. Hãy trở nên giỏi về nó thông qua khóa học này!
Vui lòng đăng ký tại đây:
107,02K
Bài nói chuyện của tôi tại YC Startup School về cách xây dựng các startup AI. Tôi chia sẻ những mẹo từ @AI_Fund về cách sử dụng AI để phát triển nhanh chóng. Hãy cho tôi biết bạn nghĩ gì!

Y Combinator10 thg 7, 2025
Andrew Ng (@AndrewYNg) về cách các startup có thể phát triển nhanh hơn với AI.
Tại AI Startup School ở San Francisco.
00:31 - Tầm quan trọng của tốc độ trong các startup
01:13 - Cơ hội trong AI Stack
02:06 - Sự gia tăng của Agent AI
04:52 - Ý tưởng cụ thể cho việc thực hiện nhanh hơn
08:56 - Tạo mẫu nhanh và kỹ thuật
17:06 - Vai trò của quản lý sản phẩm
21:23 - Giá trị của việc hiểu biết về AI
22:33 - Quyết định kỹ thuật trong phát triển AI
23:26 - Tận dụng các công cụ Gen AI cho các startup
24:05 - Xây dựng với các khối xây dựng AI
25:26 - Tầm quan trọng của tốc độ trong các startup
26:41 - Giải quyết sự cường điệu và những hiểu lầm về AI
37:35 - AI trong giáo dục: Xu hướng hiện tại và hướng đi trong tương lai
39:33 - Cân bằng đổi mới AI với các cân nhắc đạo đức
41:27 - Bảo vệ mã nguồn mở và tương lai của AI
146,49K
Trích xuất tài liệu Agentic giờ đây hỗ trợ trích xuất trường! Nhiều trường hợp sử dụng trích xuất tài liệu lấy các trường cụ thể từ biểu mẫu và các tài liệu có cấu trúc khác. Bạn giờ đây có thể nhập một bức ảnh hoặc PDF của hóa đơn, yêu cầu tên nhà cung cấp, danh sách mặt hàng và giá cả, và nhận lại các trường đã được trích xuất. Hoặc nhập một biểu mẫu y tế và chỉ định một sơ đồ để trích xuất tên bệnh nhân, ID bệnh nhân, số bảo hiểm, v.v.
Một tính năng thú vị: Nếu bạn không muốn tự viết một sơ đồ (đặc tả json về các trường cần trích xuất), hãy tải lên một tài liệu mẫu và viết một lời nhắc bằng ngôn ngữ tự nhiên nói về những gì bạn muốn, và chúng tôi sẽ tự động tạo một sơ đồ cho bạn.
Xem video để biết thêm chi tiết!
178,27K
Khóa học mới: Đào tạo sau cho LLMs
Học cách đào tạo sau và tùy chỉnh một LLM trong khóa học ngắn này, do @BanghuaZ, Giảng viên Trợ lý tại Đại học Washington @UW, và đồng sáng lập của @NexusflowX giảng dạy.
Đào tạo một LLM để tuân theo hướng dẫn hoặc trả lời câu hỏi có hai giai đoạn chính: đào tạo trước và đào tạo sau. Trong đào tạo trước, nó học cách dự đoán từ hoặc token tiếp theo từ một lượng lớn văn bản không được gán nhãn. Trong đào tạo sau, nó học các hành vi hữu ích như tuân theo hướng dẫn, sử dụng công cụ và lý luận.
Đào tạo sau biến một trình dự đoán token đa mục đích—được đào tạo trên hàng triệu token văn bản không được gán nhãn—thành một trợ lý tuân theo hướng dẫn và thực hiện các nhiệm vụ cụ thể. Bởi vì nó rẻ hơn nhiều so với đào tạo trước, nên nhiều đội ngũ có thể áp dụng các phương pháp đào tạo sau vào quy trình làm việc của họ hơn là đào tạo trước.
Trong khóa học này, bạn sẽ học ba phương pháp đào tạo sau phổ biến—Tinh chỉnh Giám sát (SFT), Tối ưu hóa Sở thích Trực tiếp (DPO), và Học Tăng cường Trực tuyến (RL)—và cách sử dụng mỗi phương pháp một cách hiệu quả. Với SFT, bạn đào tạo mô hình trên các cặp đầu vào và phản hồi đầu ra lý tưởng. Với DPO, bạn cung cấp cả phản hồi ưa thích (được chọn) và phản hồi ít ưa thích (bị từ chối) và đào tạo mô hình để ưu tiên đầu ra ưa thích. Với RL, mô hình tạo ra một đầu ra, nhận điểm thưởng dựa trên phản hồi của con người hoặc tự động, và cập nhật mô hình để cải thiện hiệu suất.
Bạn sẽ học các khái niệm cơ bản, các trường hợp sử dụng phổ biến, và các nguyên tắc để biên soạn dữ liệu chất lượng cao cho việc đào tạo hiệu quả. Thông qua các phòng thí nghiệm thực hành, bạn sẽ tải xuống một mô hình đã được đào tạo trước từ Hugging Face và đào tạo sau nó bằng SFT, DPO, và RL để xem cách mỗi kỹ thuật hình thành hành vi của mô hình.
Cụ thể, bạn sẽ:
- Hiểu đào tạo sau là gì, khi nào sử dụng nó, và nó khác gì so với đào tạo trước.
- Xây dựng một quy trình SFT để biến một mô hình cơ bản thành một mô hình hướng dẫn.
- Khám phá cách DPO định hình lại hành vi bằng cách giảm thiểu tổn thất tương phản—trừng phạt các phản hồi kém và củng cố các phản hồi ưa thích.
- Thực hiện một quy trình DPO để thay đổi danh tính của một trợ lý trò chuyện.
- Học các phương pháp RL trực tuyến như Tối ưu hóa Chính sách Gần (PPO) và Tối ưu hóa Chính sách Tương đối Nhóm (GRPO), và cách thiết kế các hàm thưởng.
- Đào tạo một mô hình với GRPO để cải thiện khả năng toán học của nó bằng cách sử dụng một phần thưởng có thể xác minh.
Đào tạo sau là một trong những lĩnh vực phát triển nhanh nhất trong đào tạo LLM. Dù bạn đang xây dựng một trợ lý cụ thể theo ngữ cảnh với độ chính xác cao, tinh chỉnh tông giọng của mô hình, hay cải thiện độ chính xác theo nhiệm vụ, khóa học này sẽ mang đến cho bạn kinh nghiệm với những kỹ thuật quan trọng nhất định hình cách LLM được đào tạo sau ngày nay.
Vui lòng đăng ký tại đây:
109,53K
Tôi muốn chia sẻ một mẹo để có thêm thực hành trong việc xây dựng với AI — tức là, sử dụng các khối xây dựng AI để tạo ứng dụng hoặc sử dụng trợ lý lập trình AI để nhanh chóng tạo ra các ứng dụng mạnh mẽ: Nếu bạn chỉ có thời gian hạn chế để xây dựng, hãy giảm quy mô dự án của bạn cho đến khi bạn có thể xây dựng một cái gì đó trong khoảng thời gian bạn có.
Nếu bạn chỉ có một giờ, hãy tìm một thành phần nhỏ trong ý tưởng mà bạn hào hứng và có thể xây dựng trong một giờ. Với các trợ lý lập trình hiện đại như Claude Code của Anthropic (công cụ phát triển yêu thích của tôi hiện tại), bạn có thể ngạc nhiên về những gì bạn có thể làm ngay cả trong khoảng thời gian ngắn! Điều này giúp bạn bắt đầu, và bạn luôn có thể tiếp tục dự án sau.
Để trở nên giỏi trong việc xây dựng với AI, hầu hết mọi người phải (i) học các kỹ thuật liên quan, ví dụ bằng cách tham gia các khóa học AI trực tuyến, và (ii) thực hành xây dựng. Tôi biết những lập trình viên đã suy nghĩ về ý tưởng trong nhiều tháng mà không thực sự xây dựng gì — tôi cũng đã làm điều này! — vì chúng tôi cảm thấy không có thời gian để bắt đầu. Nếu bạn thấy mình trong tình huống này, tôi khuyến khích bạn tiếp tục cắt giảm quy mô dự án ban đầu cho đến khi bạn xác định được một thành phần nhỏ mà bạn có thể xây dựng ngay lập tức.
Hãy để tôi minh họa bằng một ví dụ — một trong nhiều dự án nhỏ, thú vị vào cuối tuần của tôi mà có thể không bao giờ đi đến đâu, nhưng tôi rất vui vì đã làm.
Đây là ý tưởng: Nhiều người sợ nói trước công chúng. Và việc nói trước công chúng rất khó để thực hành, vì thật khó để tổ chức một khán giả. Vì vậy, tôi nghĩ rằng sẽ thú vị khi xây dựng một mô phỏng khán giả để cung cấp một khán giả kỹ thuật số từ hàng chục đến hàng trăm người ảo trên màn hình máy tính và cho phép người dùng thực hành bằng cách nói với họ.
Một buổi chiều thứ Bảy, tôi thấy mình ở một quán cà phê với một vài giờ rảnh rỗi và quyết định thử nghiệm mô phỏng khán giả. Sự quen thuộc của tôi với lập trình đồ họa là hạn chế, vì vậy thay vì xây dựng một mô phỏng phức tạp của một khán giả lớn và viết phần mềm AI để mô phỏng phản ứng phù hợp của khán giả, tôi quyết định cắt giảm quy mô một cách đáng kể để (a) mô phỏng một khán giả gồm một người (mà tôi có thể nhân bản sau để mô phỏng N người), (b) bỏ qua AI và để một người điều hành chọn phản ứng của khán giả mô phỏng một cách thủ công (tương tự như nguyên mẫu Wizard of Oz), và (c) thực hiện đồ họa bằng cách sử dụng một hình đại diện 2D đơn giản.
Sử dụng một sự kết hợp của một vài trợ lý lập trình, tôi đã xây dựng một phiên bản cơ bản trong thời gian tôi có. Hình đại diện có thể di chuyển nhẹ nhàng và chớp mắt, nhưng ngoài ra nó sử dụng đồ họa cơ bản. Mặc dù nó không đạt yêu cầu của một mô phỏng khán giả tinh vi, tôi rất vui vì đã xây dựng điều này. Ngoài việc tiến triển dự án và cho phép tôi khám phá các thiết kế khác nhau, nó đã nâng cao kiến thức của tôi về đồ họa cơ bản. Hơn nữa, việc có nguyên mẫu thô này để trình bày với bạn bè đã giúp tôi nhận được phản hồi từ người dùng, điều này đã định hình quan điểm của tôi về ý tưởng sản phẩm.
Tôi có trên máy tính xách tay của mình một danh sách các ý tưởng về những thứ mà tôi nghĩ sẽ thú vị để xây dựng. Hầu hết trong số đó sẽ mất nhiều thời gian hơn so với vài giờ mà tôi có thể thử nghiệm một cái gì đó trong một ngày nhất định, nhưng bằng cách cắt giảm quy mô của chúng, tôi có thể bắt đầu, và tiến trình ban đầu trên một dự án giúp tôi quyết định xem nó có đáng để đầu tư thêm hay không. Như một phần thưởng, việc làm việc trên một loạt các ứng dụng giúp tôi thực hành một loạt các kỹ năng. Nhưng quan trọng nhất, điều này giúp đưa một ý tưởng ra khỏi đầu tôi và có thể đưa nó đến trước những người dùng tiềm năng để nhận phản hồi, điều này giúp dự án tiến triển nhanh hơn.

295,51K
Khóa học mới: ACP: Giao thức Giao tiếp Đại lý
Học cách xây dựng các đại lý giao tiếp và hợp tác qua các khung khác nhau bằng ACP trong khóa học ngắn này được xây dựng với BeeAI của @IBMResearch, và được giảng dạy bởi @sandi_besen, Kỹ sư Nghiên cứu AI & Trưởng nhóm Hệ sinh thái tại IBM, và @nicholasrenotte, Trưởng bộ phận Tuyên truyền Nhà phát triển AI tại IBM.
Xây dựng một hệ thống đa đại lý với các đại lý được xây dựng hoặc sử dụng bởi các nhóm và tổ chức khác nhau có thể trở nên khó khăn. Bạn có thể cần viết các tích hợp tùy chỉnh mỗi khi một nhóm cập nhật thiết kế đại lý của họ hoặc thay đổi lựa chọn khung điều phối đại lý của họ.
Giao thức Giao tiếp Đại lý (ACP) là một giao thức mở giải quyết thách thức này bằng cách chuẩn hóa cách các đại lý giao tiếp, sử dụng một giao diện RESTful thống nhất hoạt động trên các khung. Trong giao thức này, bạn lưu trữ một đại lý bên trong một máy chủ ACP, máy chủ này xử lý các yêu cầu từ một khách hàng ACP và chuyển chúng đến đại lý thích hợp. Sử dụng một giao diện khách hàng-máy chủ chuẩn hóa cho phép nhiều nhóm tái sử dụng các đại lý qua các dự án. Nó cũng giúp dễ dàng chuyển đổi giữa các khung, thay thế một đại lý bằng một phiên bản mới, hoặc cập nhật một hệ thống đa đại lý mà không cần phải tái cấu trúc toàn bộ hệ thống.
Trong khóa học này, bạn sẽ học cách kết nối các đại lý thông qua ACP. Bạn sẽ hiểu vòng đời của một Đại lý ACP và cách nó so sánh với các giao thức khác, chẳng hạn như MCP (Giao thức Ngữ cảnh Mô hình) và A2A (Đại lý đến Đại lý). Bạn sẽ xây dựng các đại lý tuân thủ ACP và triển khai cả quy trình làm việc tuần tự và phân cấp của nhiều đại lý hợp tác sử dụng ACP.
Thông qua các bài tập thực hành, bạn sẽ xây dựng:
- Một đại lý RAG với CrewAI và bọc nó bên trong một máy chủ ACP.
- Một Khách hàng ACP để thực hiện các cuộc gọi đến máy chủ ACP mà bạn đã tạo.
- Một quy trình làm việc tuần tự kết nối một máy chủ ACP, được tạo ra với Smolagents, đến đại lý RAG.
- Một quy trình làm việc phân cấp sử dụng một đại lý định tuyến biến đổi các truy vấn của người dùng thành các nhiệm vụ, được ủy quyền cho các đại lý có sẵn thông qua các máy chủ ACP.
- Một đại lý sử dụng MCP để truy cập các công cụ và ACP để giao tiếp với các đại lý khác.
Bạn sẽ hoàn thành bằng cách nhập các đại lý ACP của bạn vào nền tảng BeeAI, một kho mã nguồn mở để khám phá và chia sẻ các đại lý.
ACP cho phép hợp tác giữa các đại lý qua các nhóm và tổ chức. Đến cuối khóa học này, bạn sẽ có khả năng xây dựng các đại lý và quy trình làm việc ACP giao tiếp và hợp tác bất kể khung nào.
Vui lòng đăng ký tại đây:
88,23K
Giới thiệu "Xây dựng với Llama 4." Khóa học ngắn này được tạo ra với @Meta @AIatMeta, và được giảng dạy bởi @asangani7, Giám đốc Kỹ thuật Đối tác của đội ngũ AI của Meta.
Llama 4 mới của Meta đã thêm ba mô hình mới và giới thiệu kiến trúc Mixture-of-Experts (MoE) vào gia đình các mô hình trọng số mở của mình, giúp chúng phục vụ hiệu quả hơn.
Trong khóa học này, bạn sẽ làm việc với hai trong ba mô hình mới được giới thiệu trong Llama 4. Đầu tiên là Maverick, một mô hình 400B tham số, với 128 chuyên gia và 17B tham số hoạt động. Thứ hai là Scout, một mô hình 109B tham số với 16 chuyên gia và 17B tham số hoạt động. Maverick và Scout hỗ trợ các cửa sổ ngữ cảnh dài lên đến một triệu token và 10 triệu token, tương ứng. Cái sau đủ để hỗ trợ việc nhập trực tiếp ngay cả các kho GitHub khá lớn để phân tích!
Trong các bài học thực hành, bạn sẽ xây dựng ứng dụng sử dụng các khả năng đa phương tiện mới của Llama 4, bao gồm lý luận qua nhiều hình ảnh và định vị hình ảnh, trong đó bạn có thể xác định các yếu tố trong hình ảnh. Bạn cũng sẽ sử dụng API chính thức của Llama, làm việc với khả năng ngữ cảnh dài của Llama 4, và tìm hiểu về các công cụ mã nguồn mở mới nhất của Llama: công cụ tối ưu hóa prompt tự động cải thiện các prompt hệ thống và bộ dữ liệu tổng hợp tạo ra các tập dữ liệu chất lượng cao cho việc tinh chỉnh.
Nếu bạn cần một mô hình mở, Llama là một lựa chọn tuyệt vời, và gia đình Llama 4 là một phần quan trọng trong bộ công cụ của bất kỳ nhà phát triển GenAI nào. Thông qua khóa học này, bạn sẽ học cách gọi Llama 4 qua API, sử dụng các công cụ tối ưu hóa của nó, và xây dựng các tính năng trải dài qua văn bản, hình ảnh và ngữ cảnh lớn.
Vui lòng đăng ký tại đây:
57,42K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất