Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
cofundador de Coursera; Profesorado adjunto de Stanford CS. Ex jefe de Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
¡Estoy emocionado de anunciar el curso definitivo sobre Claude Code, creado con @AnthropicAI y enseñado por Elie Schoppik @eschoppik! Si quieres utilizar una codificación altamente agentiva, donde la IA trabaja de manera autónoma durante muchos minutos o más, y no solo completando fragmentos de código, ¡esto es lo que necesitas!
Claude Code ha sido un cambio de juego para muchos desarrolladores (¡incluyéndome a mí!), pero hay una verdadera profundidad en su uso adecuado. Este curso integral cubre todo, desde los fundamentos hasta patrones avanzados.
Después de este breve curso, podrás:
- Orquestar múltiples subagentes de Claude para trabajar en diferentes partes de tu base de código simultáneamente
- Etiquetar a Claude en problemas de GitHub y hacer que cree, revise y fusione solicitudes de extracción de manera autónoma
- Transformar cuadernos de Jupyter desordenados en paneles de control limpios y listos para producción
- Usar herramientas MCP como Playwright para que Claude pueda ver qué está mal con tu interfaz de usuario y corregirlo de manera autónoma
Ya seas nuevo en Claude Code o ya lo estés utilizando, descubrirás capacidades poderosas que pueden cambiar fundamentalmente la forma en que construyes software.
Estoy muy emocionado por lo que la codificación agentiva permite a todos hacer ahora. ¡Por favor, toma este curso!
694.11K
Anunciamos un nuevo curso de Coursera: Retrieval Augmented Generation (RAG)
Aprenderá a crear sistemas RAG de alto rendimiento y listos para la producción en este curso práctico y detallado creado e impartido por @ZainHasan6 ingeniero, investigador y educador experimentado en IA y ML.
RAG es un componente crítico hoy en día de muchas aplicaciones basadas en LLM en atención al cliente, sistemas internos de preguntas y respuestas de la empresa, incluso muchos de los chatbots líderes que utilizan la búsqueda web para responder a sus preguntas. Este curso te enseña en profundidad cómo hacer que RAG funcione bien.
Los LLM pueden producir respuestas genéricas u obsoletas, especialmente cuando se les hacen preguntas especializadas que no se tratan en sus datos de capacitación. El RAG es la técnica más utilizada para abordar este problema. Aporta datos de nuevas fuentes de datos, como documentos internos o noticias recientes, para dar al LLM el contexto relevante a la información privada, reciente o especializada. Esto le permite generar respuestas más aterrizadas y precisas.
En este curso, aprenderá a diseñar e implementar cada parte de un sistema RAG, desde los recuperadores hasta las bases de datos vectoriales, la generación y las evaluaciones. Aprenderá sobre los principios fundamentales detrás de RAG y cómo optimizarlo tanto a nivel de componentes como de todo el sistema.
A medida que la IA evoluciona, RAG también evoluciona. Los nuevos modelos pueden manejar ventanas de contexto más largas, razonar de forma más eficaz y pueden formar parte de flujos de trabajo de agentes complejos. Un área de crecimiento interesante es Agentic RAG, en el que un agente de IA en tiempo de ejecución (en lugar de estar codificado en tiempo de desarrollo) decide de forma autónoma qué datos recuperar y cuándo/cómo profundizar. Incluso con esta evolución, el acceso a datos de alta calidad en tiempo de ejecución es esencial, por lo que RAG es una parte clave de tantas aplicaciones.
Aprenderás a través de experiencias prácticas a:
- Construir un sistema RAG con recuperación y aumento de avisos
- Comparar métodos de recuperación como BM25, búsqueda semántica y fusión de rangos recíprocos
- Fragmente, indexe y recupere documentos utilizando una base de datos vectorial Weaviate y un conjunto de datos de noticias
- Desarrollar un chatbot, utilizando LLM de código abierto alojados por Together AI, para una tienda ficticia que responde a preguntas sobre productos y preguntas frecuentes
- Utilice las evaluaciones para impulsar la mejora de la confiabilidad e incorpore datos multimodales
El RAG es una técnica fundamental importante. ¡Conviértete en un bueno a través de este curso!
Por favor, regístrese aquí:
107.05K
Mi charla en YC Startup School sobre cómo construir startups de IA. Comparto consejos de @AI_Fund sobre cómo usar la IA para construir rápido. ¡Déjame saber lo que piensas!

Y Combinator10 jul 2025
Andrew Ng (@AndrewYNg) sobre cómo las startups pueden construir más rápido con IA.
En AI Startup School en San Francisco.
00:31 - La importancia de la velocidad en las startups
01:13 - Oportunidades en la pila de IA
02:06 - El ascenso de la IA de los agentes
04:52 - Ideas concretas para una ejecución más rápida
08:56 - Prototipado rápido e ingeniería
17:06 - El papel de la gestión de productos
21:23 - El valor de entender la IA
22:33 - Decisiones técnicas en el desarrollo de la IA
23:26 - Aprovechar las herramientas de IA de la generación para las startups
24:05 - Construcción con bloques de construcción de IA
25:26 - La importancia de la velocidad en las startups
26:41 - Abordar la exageración y los conceptos erróneos de la IA
37:35 - La IA en la educación: tendencias actuales y direcciones futuras
39:33 - Equilibrar la innovación de la IA con consideraciones éticas
41:27 - Protección del código abierto y el futuro de la IA
146.52K
¡Agentic Document Extraction ahora admite la extracción de campos! Muchos casos de uso de extracción de documentos extraen campos específicos de formularios y otros documentos estructurados. Ahora puede ingresar una imagen o PDF de una factura, solicitar el nombre del proveedor, la lista de artículos y los precios, y recuperar los campos extraídos. O ingrese un formulario médico y especifique un esquema para extraer el nombre del paciente, la identificación del paciente, el número de seguro, etc.
Una característica interesante: si no tiene ganas de escribir un esquema (especificación json de qué campos extraer) usted mismo, cargue un documento de muestra y escriba un mensaje en lenguaje natural diciendo lo que desea, y automáticamente generaremos un esquema para usted.
¡Vea el video para más detalles!
178.3K
Nuevo Curso: Post-formación de LLMs
Aprende a post-entrenar y personalizar un LLM en este curso corto, impartido por @BanghuaZ, profesor asistente de la Universidad de Washington @UW y cofundador de @NexusflowX.
La formación de un LLM para seguir instrucciones o responder preguntas tiene dos etapas clave: pre-formación y post-formación. En el entrenamiento previo, aprende a predecir la siguiente palabra o token a partir de grandes cantidades de texto sin etiquetar. En el post-entrenamiento, aprende comportamientos útiles como seguir instrucciones, usar herramientas y razonar.
El entrenamiento posterior transforma un predictor de tokens de propósito general, entrenado con billones de tokens de texto sin etiquetar, en un asistente que sigue instrucciones y realiza tareas específicas. Debido a que es mucho más barato que el entrenamiento previo, es práctico para muchos más equipos incorporar métodos posteriores al entrenamiento en sus flujos de trabajo que el entrenamiento previo.
En este curso, aprenderá tres métodos comunes posteriores a la capacitación: Ajuste fino supervisado (SFT), optimización de preferencias directas (DPO) y aprendizaje de refuerzo en línea (RL), y cómo usar cada uno de ellos de manera efectiva. Con SFT, se entrena el modelo en pares de respuestas de entrada y salida ideales. Con DPO, proporciona una respuesta preferida (elegida) y una menos preferida (rechazada) y entrena el modelo para favorecer la salida preferida. Con RL, el modelo genera una salida, recibe una puntuación de recompensa basada en comentarios humanos o automatizados y actualiza el modelo para mejorar el rendimiento.
Aprenderá los conceptos básicos, los casos de uso comunes y los principios para seleccionar datos de alta calidad para una capacitación efectiva. A través de laboratorios prácticos, descargará un modelo previamente entrenado de Hugging Face y lo entrenará posteriormente con SFT, DPO y RL para ver cómo cada técnica da forma al comportamiento del modelo.
En detalle, podrás:
- Comprender qué es el post-entrenamiento, cuándo usarlo y en qué se diferencia del pre-entrenamiento.
- Cree una canalización SFT para convertir un modelo base en un modelo de instrucción.
- Explorar cómo el DPO remodela el comportamiento minimizando la pérdida de contraste, penalizando las respuestas deficientes y reforzando las preferidas.
- Implementar una canalización de DPO para cambiar la identidad de un asistente de chat.
- Aprenda métodos de RL en línea, como la optimización de políticas proximales (PPO) y la optimización de políticas relativas de grupo (GRPO), y cómo diseñar funciones de recompensa.
- Entrenar un modelo con GRPO para mejorar sus capacidades matemáticas utilizando una recompensa verificable.
La formación posterior es una de las áreas de formación de LLM que se ha desarrollado más rápidamente. Ya sea que estés creando un asistente específico de contexto de alta precisión, afinando el tono de un modelo o mejorando la precisión específica de una tarea, este curso te brindará experiencia con las técnicas más importantes que dan forma a la forma en que los LLM se entrenan después de la formación en la actualidad.
Por favor, regístrese aquí:
109.56K
Me gustaría compartir un consejo para practicar más la creación con IA, es decir, usar bloques de construcción de IA para crear aplicaciones o usar la asistencia de codificación de IA para crear aplicaciones poderosas rápidamente: si te encuentras con un tiempo limitado para construir, reduce el alcance de tu proyecto hasta que puedas construir algo en el tiempo que tengas.
Si solo tienes una hora, busca un pequeño componente de una idea que te entusiasme y que puedas construir en una hora. Con asistentes de codificación modernos como Claude Code de Anthropic (mi herramienta de desarrollo favorita en este momento), es posible que se sorprenda de lo mucho que puede hacer incluso en cortos períodos de tiempo. Esto te pone en marcha, y siempre puedes continuar el proyecto más tarde.
Para ser buenos en la construcción con IA, la mayoría de las personas deben (i) aprender técnicas relevantes, por ejemplo, tomando cursos de IA en línea, y (ii) practicar la construcción. Conozco desarrolladores que dan vueltas a las ideas durante meses sin llegar a construir nada, ¡yo también lo he hecho! — porque sentimos que no tenemos tiempo para empezar. Si te encuentras en esta situación, te animo a que sigas recortando el alcance inicial del proyecto hasta que identifiques un pequeño componente que puedas construir de inmediato.
Permítanme ilustrarlo con un ejemplo: uno de mis muchos proyectos pequeños y divertidos de fin de semana que tal vez nunca lleguen a ninguna parte, pero que me alegro de haberlo hecho.
Esta es la idea: muchas personas temen hablar en público. Y hablar en público es difícil de practicar, porque es difícil organizar una audiencia. Así que pensé que sería interesante construir un simulador de audiencia para proporcionar una audiencia digital de docenas a cientos de personas virtuales en un monitor de computadora y permitir que un usuario practique hablándoles.
Un sábado por la tarde, me encontré en una cafetería con un par de horas de sobra y decidí darle una oportunidad al simulador de audiencia. Mi familiaridad con la codificación gráfica es limitada, por lo que en lugar de construir un simulador complejo de una gran audiencia y escribir software de IA para simular las respuestas apropiadas de la audiencia, decidí reducir significativamente el alcance a (a) simular una audiencia de una persona (que podría replicar más tarde para simular N personas), (b) omitir la IA y dejar que un operador humano seleccione manualmente la reacción de la audiencia simulada (similar a la creación de prototipos del Mago de Oz), y (c) la implementación de los gráficos utilizando un simple avatar 2D.
Usando una mezcla de varios asistentes de codificación, construí una versión básica en el tiempo que tenía. El avatar podía moverse sutilmente y parpadear, pero por lo demás usaba gráficos básicos. A pesar de que estaba muy lejos de ser un sofisticado simulador de audiencias, me alegro de haberlo construido. Además de hacer avanzar el proyecto y permitirme explorar diferentes diseños, avanzó en mis conocimientos de gráficos básicos. Además, tener este prototipo rudimentario para mostrárselo a mis amigos me ayudó a obtener comentarios de los usuarios que dieron forma a mis opiniones sobre la idea del producto.
Tengo en mi portátil una lista de ideas de cosas que creo que sería interesante construir. La mayoría de ellos tomarían mucho más tiempo que el puñado de horas que podría tener para probar algo en un día determinado, pero al reducir su alcance, puedo ponerme en marcha, y el progreso inicial de un proyecto me ayuda a decidir si vale la pena invertir más. Como beneficio adicional, hackear en una amplia variedad de aplicaciones me ayuda a practicar una amplia gama de habilidades. Pero lo más importante es que esto saca una idea de mi cabeza y, potencialmente, la presento frente a posibles usuarios para obtener comentarios que permitan que el proyecto avance más rápido.
[Texto original: ]

295.56K
Nuevo Curso: ACP: Protocolo de Comunicación con Agentes
Aprenda a crear agentes que se comuniquen y colaboren a través de diferentes marcos utilizando ACP en este breve curso creado con BeeAI de @IBMResearch, e impartido por @sandi_besen, ingeniero de investigación de IA y líder de ecosistema en IBM, y @nicholasrenotte, jefe de defensa de desarrolladores de IA en IBM.
Crear un sistema multiagente con agentes creados o utilizados por diferentes equipos y organizaciones puede convertirse en un reto. Es posible que tenga que escribir integraciones personalizadas cada vez que un equipo actualice el diseño de su agente o cambie su elección de marco de orquestación de agentes.
El Protocolo de Comunicación de Agentes (ACP) es un protocolo abierto que aborda este desafío estandarizando la forma en que los agentes se comunican, utilizando una interfaz RESTful unificada que funciona en todos los marcos. En este protocolo, se aloja un agente dentro de un servidor ACP, que gestiona las solicitudes de un cliente ACP y las pasa al agente adecuado. El uso de una interfaz cliente-servidor estandarizada permite que varios equipos reutilicen agentes en todos los proyectos. También facilita el cambio entre marcos, la sustitución de un agente por una nueva versión o la actualización de un sistema multiagente sin tener que refactorizar todo el sistema.
En este curso, aprenderás a conectar agentes a través de ACP. Comprenderá el ciclo de vida de un agente ACP y cómo se compara con otros protocolos, como MCP (Model Context Protocol) y A2A (Agent-to-Agent). Creará agentes compatibles con ACP e implementará flujos de trabajo secuenciales y jerárquicos de varios agentes que colaboran con ACP.
A través de ejercicios prácticos, construirás:
- Un agente RAG con CrewAI y envuélvelo dentro de un servidor ACP.
- Un cliente ACP para realizar llamadas al servidor ACP que creó.
- Un flujo de trabajo secuencial que encadena un servidor ACP, creado con Smolagents, al agente RAG.
- Un flujo de trabajo jerárquico que utiliza un agente de enrutador que transforma las consultas de los usuarios en tareas, delegadas a agentes disponibles a través de servidores ACP.
- Un agente que utiliza MCP para acceder a las herramientas y ACP para comunicarse con otros agentes.
Terminarás importando tus agentes ACP a la plataforma BeeAI, un registro de código abierto para descubrir y compartir agentes.
ACP permite la colaboración entre agentes, equipos y organizaciones. Al final de este curso, podrá crear agentes y flujos de trabajo de ACP que se comuniquen y colaboren independientemente del marco.
Por favor, regístrese aquí:
88.27K
Presentamos "Construyendo con Llama 4". Este breve curso está creado con @Meta @AIatMeta e impartido por @asangani7, director de ingeniería de socios del equipo de IA de Meta.
El nuevo Llama 4 de Meta ha añadido tres nuevos modelos y ha introducido la arquitectura Mixture-of-Experts (MoE) a su familia de modelos de peso abierto, lo que los hace más eficientes de servir.
En este curso, trabajarás con dos de los tres nuevos modelos introducidos en Llama 4. El primero es Maverick, un modelo de 400B de parámetros, con 128 expertos y 17B de parámetros activos. El segundo es Scout, un modelo de parámetros 109B con 16 expertos y 17B parámetros activos. Maverick y Scout admiten ventanas de contexto largas de hasta un millón de tokens y 10 millones de tokens, respectivamente. Esto último es suficiente para admitir la entrada directa incluso de repositorios de GitHub bastante grandes para su análisis.
En las lecciones prácticas, creará aplicaciones con las nuevas capacidades multimodales de Llama 4, incluido el razonamiento en varias imágenes y el fundamento de imágenes, en el que puede identificar elementos en las imágenes. También utilizará la API oficial de Llama, trabajará con las habilidades de contexto largo de Llama 4 y aprenderá sobre las herramientas de código abierto más recientes de Llama: su herramienta de optimización de solicitudes que mejora automáticamente las indicaciones del sistema y el kit de datos sintéticos que genera conjuntos de datos de alta calidad para ajustes.
Si necesitas un modelo abierto, Llama es una gran opción, y la familia Llama 4 es una parte importante del kit de herramientas de cualquier desarrollador de GenAI. A través de este curso, aprenderá a llamar a Llama 4 a través de la API, usar sus herramientas de optimización y crear funciones que abarquen texto, imágenes y contexto grande.
Por favor, regístrese aquí:
57.47K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas