热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲

Andrew Ng
Coursera 的联合创始人;斯坦福大学 CS 兼职教师。曾任百度 AI Group/Google Brain 负责人。#ai #machinelearning、#deeplearning #MOOCs
我很高兴地宣布与 @AnthropicAI 合作创建的 Claude Code 终极课程,由 Elie Schoppik @eschoppik 授课。如果你想使用高度自主的编码——让 AI 自主工作数分钟或更长时间,而不仅仅是完成代码片段——这就是你要找的课程。
Claude Code 对许多开发者(包括我自己!)来说都是一个游戏规则的改变者,但要好好利用它还有很大的深度。这个全面的课程涵盖了从基础到高级模式的所有内容。
在这个短课程结束后,你将能够:
- 协调多个 Claude 子代理同时处理代码库的不同部分
- 在 GitHub 问题中标记 Claude,让它自主创建、审查和合并拉取请求
- 将杂乱的 Jupyter 笔记本转换为干净、可生产的仪表板
- 使用 MCP 工具如 Playwright,让 Claude 能够看到你的 UI 存在的问题并自主修复
无论你是 Claude Code 的新手还是已经在使用它,你都将发现强大的功能,这些功能可以从根本上改变你构建软件的方式。
我对自主编码让每个人现在能够做的事情感到非常兴奋。请参加这个课程!
694.11K
宣布一门新的Coursera课程:检索增强生成(RAG)
在这门由@ZainHasan6教授的实践性深入课程中,您将学习如何构建高性能、生产就绪的RAG系统,这位讲师是一位经验丰富的AI和ML工程师、研究员和教育者。
RAG是今天许多基于LLM的应用程序中的关键组成部分,包括客户支持、内部公司问答系统,甚至许多使用网络搜索回答您问题的领先聊天机器人。本课程深入教授如何使RAG有效工作。
LLM可能会产生通用或过时的响应,特别是在被问及其训练数据未涵盖的专业问题时。RAG是解决这个问题的最广泛使用的技术。它从新的数据源中引入数据,例如内部文档或最新新闻,为LLM提供与私密、最新或专业信息相关的上下文。这使其能够生成更有根据和准确的响应。
在本课程中,您将学习设计和实现RAG系统的每个部分,从检索器到向量数据库,再到生成和评估。您将了解RAG背后的基本原理,以及如何在组件和整个系统层面上优化它。
随着AI的发展,RAG也在不断演变。新的模型可以处理更长的上下文窗口,更有效地推理,并可以成为复杂代理工作流的一部分。一个令人兴奋的增长领域是代理RAG,在这个领域中,AI代理在运行时(而不是在开发时硬编码)自主决定检索哪些数据,以及何时/如何深入。即使在这种演变中,运行时访问高质量数据仍然至关重要,这就是为什么RAG是如此多应用程序的关键部分。
您将通过实践经验学习:
- 构建一个具有检索和提示增强的RAG系统
- 比较检索方法,如BM25、语义搜索和互惠排名融合
- 使用Weaviate向量数据库和新闻数据集进行文档的分块、索引和检索
- 开发一个聊天机器人,使用由Together AI托管的开源LLM,为一个虚构的商店回答产品和常见问题
- 使用评估来推动可靠性的提高,并结合多模态数据
RAG是一项重要的基础技术。通过这门课程掌握它!
请在此注册:
107.05K
我在YC创业学校的演讲,讲述如何建立AI初创公司。我分享了@AI_Fund的建议,教你如何利用AI快速构建。告诉我你的想法!

Y Combinator2025年7月10日
Andrew Ng (@AndrewYNg) 讲述了初创公司如何利用 AI 更快地发展。
在旧金山的 AI 初创学校。
00:31 - 初创公司速度的重要性
01:13 - AI 堆栈中的机会
02:06 - Agent AI 的崛起
04:52 - 更快执行的具体想法
08:56 - 快速原型制作和工程
17:06 - 产品管理的角色
21:23 - 理解 AI 的价值
22:33 - AI 开发中的技术决策
23:26 - 利用 Gen AI 工具为初创公司服务
24:05 - 使用 AI 构建模块
25:26 - 初创公司速度的重要性
26:41 - 解决 AI 热潮和误解
37:35 - 教育中的 AI:当前趋势和未来方向
39:33 - 在 AI 创新与伦理考量之间取得平衡
41:27 - 保护开源和 AI 的未来
146.53K
新课程:LLM的后训练
在这门短课程中,您将学习如何对LLM进行后训练和定制,课程由华盛顿大学@UW的助理教授@BanghuaZ教授,以及@NexusflowX的联合创始人授课。
训练LLM以遵循指令或回答问题有两个关键阶段:预训练和后训练。在预训练阶段,它学习从大量未标记文本中预测下一个单词或标记。在后训练阶段,它学习有用的行为,例如遵循指令、工具使用和推理。
后训练将一个通用的标记预测器——在数万亿个未标记文本标记上训练——转变为一个遵循指令并执行特定任务的助手。由于后训练的成本远低于预训练,因此比起预训练,更多团队可以将后训练方法纳入他们的工作流程。
在这门课程中,您将学习三种常见的后训练方法——监督微调(SFT)、直接偏好优化(DPO)和在线强化学习(RL)——以及如何有效使用每一种方法。通过SFT,您将模型训练在输入和理想输出响应的配对上。通过DPO,您提供一个首选(选择的)和一个不太首选(拒绝的)响应,并训练模型偏向首选输出。通过RL,模型生成输出,基于人类或自动反馈接收奖励分数,并更新模型以提高性能。
您将学习基本概念、常见用例以及为有效训练策划高质量数据的原则。通过动手实验,您将从Hugging Face下载一个预训练模型,并使用SFT、DPO和RL进行后训练,以观察每种技术如何塑造模型行为。
具体来说,您将:
- 理解什么是后训练,何时使用它,以及它与预训练的区别。
- 构建一个SFT管道,将基础模型转变为指令模型。
- 探索DPO如何通过最小化对比损失来重塑行为——惩罚不良响应并强化首选响应。
- 实现一个DPO管道,以改变聊天助手的身份。
- 学习在线RL方法,如近端策略优化(PPO)和组相对策略优化(GRPO),以及如何设计奖励函数。
- 使用可验证的奖励训练模型GRPO,以提高其数学能力。
后训练是LLM训练中发展最快的领域之一。无论您是在构建高准确度的上下文特定助手、微调模型的语气,还是提高任务特定的准确性,这门课程将为您提供与当今LLM后训练最重要技术的经验。
请在此注册:
109.56K
我想分享一个关于如何更好地利用人工智能进行实践的建议——也就是说,使用人工智能构建模块来构建应用程序,或者使用人工智能编码助手快速创建强大的应用程序:如果你发现自己只有有限的时间来构建,减少项目的范围,直到你能在你拥有的时间内构建出一些东西。
如果你只有一个小时,找一个你感兴趣的想法的小组件,在一个小时内构建出来。使用现代编码助手,比如Anthropic的Claude Code(我现在最喜欢的开发工具),你可能会惊讶于即使在短时间内你能做多少事情!这能让你开始,而你总是可以稍后继续这个项目。
要想在人工智能构建方面变得优秀,大多数人必须(i)学习相关技术,例如通过参加在线人工智能课程,以及(ii)实践构建。我知道有些开发者会在想法上纠结几个月而实际上什么都没构建——我也这样做过!——因为我们觉得没有时间开始。如果你发现自己处于这种情况,我鼓励你不断缩小初始项目的范围,直到你找到一个可以立即构建的小组件。
让我用一个例子来说明——我许多小而有趣的周末项目之一,可能永远不会有结果,但我很高兴我做了。
这是个想法:许多人害怕公众演讲。而公众演讲很难练习,因为很难组织一个观众。所以我想,构建一个观众模拟器来提供数十到数百个虚拟人的数字观众,让用户通过对他们演讲来练习,会很有趣。
一个星期六的下午,我在咖啡店里有几个小时的空闲时间,决定尝试一下观众模拟器。由于我对图形编码的熟悉程度有限,所以我决定大幅缩小范围,(a) 模拟一个人的观众(我可以稍后复制以模拟N个人),(b) 省略人工智能,让人类操作员手动选择模拟观众的反应(类似于《绿野仙踪》原型),以及(c) 使用简单的2D头像实现图形。
通过混合使用几种编码助手,我在我拥有的时间内构建了一个基本版本。头像可以微微移动和眨眼,但其他方面使用了基本图形。尽管它远未达到复杂的观众模拟器,但我很高兴我构建了这个。除了推动项目进展并让我探索不同的设计外,它还提高了我对基本图形的知识。此外,拥有这个粗糙的原型向朋友展示,帮助我获得了用户反馈,塑造了我对产品想法的看法。
我在笔记本电脑上有一个我认为有趣的构建想法的列表。大多数想法都需要比我在某一天尝试某些东西时可能拥有的几个小时更长的时间,但通过缩小它们的范围,我可以开始,而项目的初步进展帮助我决定是否值得进一步投资。作为额外的好处,参与各种应用程序的开发帮助我练习广泛的技能。但最重要的是,这能将一个想法从我的脑海中带出来,并可能让潜在用户获得反馈,从而让项目更快地推进。

295.57K
新课程:ACP:代理通信协议
学习如何构建能够跨不同框架进行通信和协作的代理,在这个由@IBMResearch的BeeAI构建的短期课程中,由IBM的AI研究工程师兼生态系统负责人@sandi_besen和IBM的AI开发者倡导负责人@nicholasrenotte授课。
构建一个多代理系统,其中的代理由不同团队和组织构建或使用,可能会变得具有挑战性。每当一个团队更新其代理设计或更改其代理编排框架的选择时,您可能需要编写自定义集成。
代理通信协议(ACP)是一个开放协议,通过标准化代理之间的通信来解决这一挑战,使用统一的RESTful接口,适用于不同框架。在此协议中,您在ACP服务器内部托管一个代理,该服务器处理来自ACP客户端的请求并将其传递给适当的代理。使用标准化的客户端-服务器接口允许多个团队在项目中重用代理。它还使在框架之间切换、用新版本替换代理或更新多代理系统而无需重构整个系统变得更加容易。
在本课程中,您将学习如何通过ACP连接代理。您将了解ACP代理的生命周期以及它与其他协议(如MCP(模型上下文协议)和A2A(代理到代理))的比较。您将构建符合ACP标准的代理,并实现多个代理使用ACP协作的顺序和层次工作流。
通过动手练习,您将构建:
- 一个使用CrewAI的RAG代理,并将其包装在ACP服务器内部。
- 一个ACP客户端,以调用您创建的ACP服务器。
- 一个顺序工作流,将使用Smolagents创建的ACP服务器与RAG代理连接。
- 一个使用路由代理的层次工作流,将用户查询转换为任务,委派给通过ACP服务器可用的代理。
- 一个使用MCP访问工具并使用ACP与其他代理通信的代理。
您将通过将您的ACP代理导入BeeAI平台来结束,这个平台是一个用于发现和共享代理的开源注册中心。
ACP使得跨团队和组织的代理之间的协作成为可能。在本课程结束时,您将能够构建能够无论框架如何进行通信和协作的ACP代理和工作流。
请在此注册:
88.28K
介绍 "与 Llama 4 一起构建"。这门短课程由 @Meta @AIatMeta 创建,并由 @asangani7 授课,他是 Meta AI 团队的合作工程总监。
Meta 的新 Llama 4 增加了三个新模型,并向其开放权重模型系列引入了专家混合(MoE)架构,使其服务效率更高。
在这门课程中,您将使用 Llama 4 中引入的三个新模型中的两个。第一个是 Maverick,一个 400B 参数模型,具有 128 个专家和 17B 活跃参数。第二个是 Scout,一个 109B 参数模型,具有 16 个专家和 17B 活跃参数。Maverick 和 Scout 支持长达一百万个令牌和 1000 万个令牌的长上下文窗口,后者足以直接输入相当大的 GitHub 仓库进行分析!
在实践课程中,您将使用 Llama 4 的新多模态能力构建应用程序,包括跨多个图像的推理和图像定位,您可以识别图像中的元素。您还将使用官方 Llama API,利用 Llama 4 的长上下文能力,并了解 Llama 最新的开源工具:其提示优化工具可以自动改善系统提示,以及生成高质量数据集以进行微调的合成数据工具包。
如果您需要一个开放模型,Llama 是一个很好的选择,而 Llama 4 系列是任何 GenAI 开发者工具包的重要组成部分。通过这门课程,您将学习如何通过 API 调用 Llama 4,使用其优化工具,并构建跨文本、图像和大上下文的功能。
请在此注册:
57.48K
热门
排行
收藏
链上热点
X 热门榜
近期融资
最受认可