Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
cofundador de Coursera; Profesorado adjunto de Stanford CS. Ex jefe de Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Estoy emocionado de anunciar el curso definitivo sobre Claude Code, creado con @AnthropicAI y enseñado por Elie Schoppik @eschoppik. Si quieres utilizar una codificación altamente agentiva - donde la IA trabaja de forma autónoma durante muchos minutos o más, no solo completando fragmentos de código - este es el curso.
Claude Code ha sido un cambio de juego para muchos desarrolladores (¡incluyéndome a mí!), pero hay una verdadera profundidad en su uso adecuado. Este curso integral cubre todo, desde los fundamentos hasta patrones avanzados.
Después de este breve curso, podrás:
- Orquestar múltiples subagentes de Claude para trabajar en diferentes partes de tu base de código simultáneamente
- Etiquetar a Claude en problemas de GitHub y hacer que cree, revise y fusione solicitudes de extracción de forma autónoma
- Transformar desordenados cuadernos de Jupyter en paneles limpios y listos para producción
- Usar herramientas MCP como Playwright para que Claude pueda ver qué está mal con tu interfaz de usuario y corregirlo de forma autónoma
Ya seas nuevo en Claude Code o ya lo estés utilizando, descubrirás capacidades poderosas que pueden cambiar fundamentalmente la forma en que construyes software.
Estoy muy emocionado por lo que la codificación agentiva permite a todos hacer ahora. ¡Por favor, toma este curso!
694,12K
Anunciando un nuevo curso de Coursera: Generación Aumentada por Recuperación (RAG)
Aprenderás a construir sistemas RAG de alto rendimiento y listos para producción en este curso práctico y profundo creado y enseñado por @ZainHasan6, ingeniero, investigador y educador experimentado en IA y ML.
RAG es un componente crítico hoy en día de muchas aplicaciones basadas en LLM en soporte al cliente, sistemas de preguntas y respuestas internas de la empresa, e incluso muchos de los principales chatbots que utilizan búsqueda en la web para responder tus preguntas. Este curso te enseña en profundidad cómo hacer que RAG funcione bien.
Los LLM pueden producir respuestas genéricas o desactualizadas, especialmente cuando se les hacen preguntas especializadas que no están cubiertas en sus datos de entrenamiento. RAG es la técnica más utilizada para abordar esto. Trae datos de nuevas fuentes de datos, como documentos internos o noticias recientes, para darle al LLM el contexto relevante para información privada, reciente o especializada. Esto le permite generar respuestas más fundamentadas y precisas.
En este curso, aprenderás a diseñar e implementar cada parte de un sistema RAG, desde recuperadores hasta bases de datos vectoriales, generación y evaluaciones. Aprenderás sobre los principios fundamentales detrás de RAG y cómo optimizarlo tanto a nivel de componente como a nivel de sistema completo.
A medida que la IA evoluciona, RAG también está evolucionando. Nuevos modelos pueden manejar ventanas de contexto más largas, razonar de manera más efectiva y pueden ser parte de flujos de trabajo agenticos complejos. Una área de crecimiento emocionante es RAG Agentico, en la que un agente de IA en tiempo de ejecución (en lugar de estar codificado en el tiempo de desarrollo) decide de manera autónoma qué datos recuperar y cuándo/cómo profundizar. Incluso con esta evolución, el acceso a datos de alta calidad en tiempo de ejecución es esencial, por lo que RAG es una parte clave de tantas aplicaciones.
Aprenderás a través de experiencias prácticas a:
- Construir un sistema RAG con recuperación y aumento de indicaciones
- Comparar métodos de recuperación como BM25, búsqueda semántica y Fusión de Rango Recíproco
- Dividir, indexar y recuperar documentos utilizando una base de datos vectorial Weaviate y un conjunto de datos de noticias
- Desarrollar un chatbot, utilizando LLMs de código abierto alojados por Together AI, para una tienda ficticia que responde preguntas sobre productos y preguntas frecuentes
- Usar evaluaciones para impulsar la mejora de la fiabilidad e incorporar datos multimodales
RAG es una técnica fundamental importante. ¡Conviértete en un experto en ella a través de este curso!
Por favor, inscríbete aquí:
107,06K
Mi charla en YC Startup School sobre cómo construir startups de IA. Comparto consejos de @AI_Fund sobre cómo usar la IA para construir rápido. ¡Déjame saber qué piensas!

Y Combinator10 jul 2025
Andrew Ng (@AndrewYNg) sobre cómo las startups pueden construir más rápido con IA.
En la AI Startup School en San Francisco.
00:31 - La Importancia de la Velocidad en las Startups
01:13 - Oportunidades en la Pilas de IA
02:06 - El Auge de la IA Agente
04:52 - Ideas Concretas para una Ejecución Más Rápida
08:56 - Prototipado Rápido e Ingeniería
17:06 - El Papel de la Gestión de Productos
21:23 - El Valor de Entender la IA
22:33 - Decisiones Técnicas en el Desarrollo de IA
23:26 - Aprovechando Herramientas de Gen IA para Startups
24:05 - Construyendo con Bloques de Construcción de IA
25:26 - La Importancia de la Velocidad en las Startups
26:41 - Abordando el Hype de la IA y los Malentendidos
37:35 - IA en la Educación: Tendencias Actuales y Direcciones Futuras
39:33 - Equilibrando la Innovación en IA con Consideraciones Éticas
41:27 - Protegiendo el Código Abierto y el Futuro de la IA
146,53K
¡La extracción de documentos agentic ahora admite la extracción de campos! Muchos casos de uso de extracción de documentos extraen campos específicos de formularios y otros documentos estructurados. Ahora puedes ingresar una imagen o un PDF de una factura, solicitar el nombre del proveedor, la lista de artículos y los precios, y recibir de vuelta los campos extraídos. O ingresa un formulario médico y especifica un esquema para extraer el nombre del paciente, el ID del paciente, el número de seguro, etc.
Una característica genial: si no te apetece escribir un esquema (especificación en json de qué campos extraer) tú mismo, sube un documento de muestra y escribe un aviso en lenguaje natural diciendo lo que quieres, y nosotros generamos automáticamente un esquema para ti.
¡Mira el video para más detalles!
178,31K
Nuevo Curso: Post-entrenamiento de LLMs
Aprende a post-entrenar y personalizar un LLM en este breve curso, impartido por @BanghuaZ, Profesor Asistente en la Universidad de Washington @UW, y cofundador de @NexusflowX.
Entrenar un LLM para seguir instrucciones o responder preguntas tiene dos etapas clave: pre-entrenamiento y post-entrenamiento. En el pre-entrenamiento, aprende a predecir la siguiente palabra o token a partir de grandes cantidades de texto no etiquetado. En el post-entrenamiento, aprende comportamientos útiles como seguir instrucciones, uso de herramientas y razonamiento.
El post-entrenamiento transforma un predictor de tokens de propósito general—entrenado con billones de tokens de texto no etiquetado—en un asistente que sigue instrucciones y realiza tareas específicas. Debido a que es mucho más barato que el pre-entrenamiento, es práctico para muchos más equipos incorporar métodos de post-entrenamiento en sus flujos de trabajo que el pre-entrenamiento.
En este curso, aprenderás tres métodos comunes de post-entrenamiento—Ajuste Fino Supervisado (SFT), Optimización de Preferencias Directas (DPO) y Aprendizaje por Refuerzo en Línea (RL)—y cómo usar cada uno de manera efectiva. Con SFT, entrenas el modelo con pares de entrada y respuestas ideales. Con DPO, proporcionas tanto una respuesta preferida (elegida) como una menos preferida (rechazada) y entrenas al modelo para favorecer la salida preferida. Con RL, el modelo genera una salida, recibe una puntuación de recompensa basada en la retroalimentación humana o automatizada, y actualiza el modelo para mejorar el rendimiento.
Aprenderás los conceptos básicos, casos de uso comunes y principios para curar datos de alta calidad para un entrenamiento efectivo. A través de laboratorios prácticos, descargarás un modelo pre-entrenado de Hugging Face y lo post-entrenarás utilizando SFT, DPO y RL para ver cómo cada técnica moldea el comportamiento del modelo.
En detalle, aprenderás a:
- Entender qué es el post-entrenamiento, cuándo usarlo y cómo se diferencia del pre-entrenamiento.
- Construir una tubería SFT para convertir un modelo base en un modelo instructivo.
- Explorar cómo DPO remodela el comportamiento minimizando la pérdida contrastiva—penalizando respuestas pobres y reforzando las preferidas.
- Implementar una tubería DPO para cambiar la identidad de un asistente de chat.
- Aprender métodos de RL en línea como Optimización de Políticas Proximales (PPO) y Optimización de Políticas Relativas de Grupo (GRPO), y cómo diseñar funciones de recompensa.
- Entrenar un modelo con GRPO para mejorar sus capacidades matemáticas utilizando una recompensa verificable.
El post-entrenamiento es una de las áreas de más rápido desarrollo en el entrenamiento de LLM. Ya sea que estés construyendo un asistente específico de contexto de alta precisión, ajustando el tono de un modelo o mejorando la precisión específica de tareas, este curso te dará experiencia con las técnicas más importantes que están moldeando cómo se post-entrenan los LLM hoy en día.
Por favor, inscríbete aquí:
109,57K
Me gustaría compartir un consejo para practicar más en la construcción con IA, es decir, ya sea utilizando bloques de construcción de IA para crear aplicaciones o utilizando asistencia de codificación de IA para crear aplicaciones potentes rápidamente: Si te encuentras con poco tiempo para construir, reduce el alcance de tu proyecto hasta que puedas construir algo en el tiempo que tengas.
Si solo tienes una hora, encuentra un pequeño componente de una idea que te emocione y que puedas construir en una hora. Con asistentes de codificación modernos como Claude Code de Anthropic (mi herramienta de desarrollo favorita en este momento), ¡podrías sorprenderte de cuánto puedes hacer incluso en períodos cortos de tiempo! Esto te pone en marcha, y siempre puedes continuar el proyecto más tarde.
Para volverse bueno en la construcción con IA, la mayoría de las personas deben (i) aprender técnicas relevantes, por ejemplo, tomando cursos de IA en línea, y (ii) practicar la construcción. Conozco desarrolladores que piensan en ideas durante meses sin realmente construir nada — ¡yo también lo he hecho! — porque sentimos que no tenemos tiempo para empezar. Si te encuentras en esta posición, te animo a seguir reduciendo el alcance inicial del proyecto hasta que identifiques un pequeño componente que puedas construir de inmediato.
Déjame ilustrar con un ejemplo: uno de mis muchos pequeños y divertidos proyectos de fin de semana que quizás nunca vayan a ninguna parte, pero de los que me alegra haber hecho.
Aquí está la idea: Muchas personas temen hablar en público. Y hablar en público es un desafío para practicar, porque es difícil organizar una audiencia. Así que pensé que sería interesante construir un simulador de audiencia para proporcionar una audiencia digital de decenas a cientos de personas virtuales en un monitor de computadora y permitir que un usuario practique hablando con ellos.
Una tarde de sábado, me encontré en una cafetería con un par de horas libres y decidí probar el simulador de audiencia. Mi familiaridad con la codificación gráfica es limitada, así que en lugar de construir un simulador complejo de una gran audiencia y escribir software de IA para simular respuestas apropiadas de la audiencia, decidí reducir significativamente el alcance a (a) simular una audiencia de una persona (que podría replicar más tarde para simular N personas), (b) omitir la IA y permitir que un operador humano seleccionara manualmente la reacción de la audiencia simulada (similar a la prototipación de Wizard of Oz), y (c) implementar los gráficos utilizando un simple avatar 2D.
Usando una mezcla de varios asistentes de codificación, construí una versión básica en el tiempo que tenía. El avatar podía moverse sutilmente y parpadear, pero por lo demás usaba gráficos básicos. A pesar de que estaba muy lejos de ser un simulador de audiencia sofisticado, me alegra haber construido esto. Además de avanzar el proyecto y permitirme explorar diferentes diseños, mejoró mi conocimiento de gráficos básicos. Además, tener este prototipo rudimentario para mostrar a amigos me ayudó a obtener comentarios de usuarios que moldearon mis opiniones sobre la idea del producto.
Tengo en mi laptop una lista de ideas de cosas que creo que serían interesantes de construir. La mayoría de ellas tomarían mucho más tiempo del puñado de horas que podría tener para intentar algo en un día determinado, pero al reducir su alcance, puedo ponerme en marcha, y el progreso inicial en un proyecto me ayuda a decidir si vale la pena una inversión adicional. Como un bono, trabajar en una amplia variedad de aplicaciones me ayuda a practicar una amplia gama de habilidades. Pero lo más importante, esto saca una idea de mi cabeza y potencialmente la pone frente a usuarios prospectivos para obtener comentarios que permiten que el proyecto avance más rápido.

295,57K
Nuevo Curso: ACP: Protocolo de Comunicación de Agentes
Aprende a construir agentes que se comuniquen y colaboren a través de diferentes marcos utilizando ACP en este breve curso creado con BeeAI de @IBMResearch, y enseñado por @sandi_besen, Ingeniera de Investigación en IA y Líder de Ecosistema en IBM, y @nicholasrenotte, Jefe de Defensa de Desarrolladores de IA en IBM.
Construir un sistema multiagente con agentes construidos o utilizados por diferentes equipos y organizaciones puede volverse un desafío. Puede que necesites escribir integraciones personalizadas cada vez que un equipo actualiza el diseño de su agente o cambia su elección de marco de orquestación agente.
El Protocolo de Comunicación de Agentes (ACP) es un protocolo abierto que aborda este desafío estandarizando cómo se comunican los agentes, utilizando una interfaz RESTful unificada que funciona a través de marcos. En este protocolo, alojas un agente dentro de un servidor ACP, que maneja las solicitudes de un cliente ACP y las pasa al agente apropiado. Usar una interfaz cliente-servidor estandarizada permite a múltiples equipos reutilizar agentes en diferentes proyectos. También facilita el cambio entre marcos, reemplazar un agente por una nueva versión o actualizar un sistema multiagente sin refactorizar todo el sistema.
En este curso, aprenderás a conectar agentes a través de ACP. Entenderás el ciclo de vida de un Agente ACP y cómo se compara con otros protocolos, como MCP (Protocolo de Contexto de Modelo) y A2A (Agente a Agente). Construirás agentes compatibles con ACP e implementarás flujos de trabajo tanto secuenciales como jerárquicos de múltiples agentes colaborando usando ACP.
A través de ejercicios prácticos, construirás:
- Un agente RAG con CrewAI y lo envolverás dentro de un servidor ACP.
- Un Cliente ACP para hacer llamadas al servidor ACP que creaste.
- Un flujo de trabajo secuencial que encadena un servidor ACP, creado con Smolagents, al agente RAG.
- Un flujo de trabajo jerárquico utilizando un agente enrutador que transforma consultas de usuarios en tareas, delegadas a agentes disponibles a través de servidores ACP.
- Un agente que utiliza MCP para acceder a herramientas y ACP para comunicarse con otros agentes.
Terminarás importando tus agentes ACP en la plataforma BeeAI, un registro de código abierto para descubrir y compartir agentes.
ACP permite la colaboración entre agentes a través de equipos y organizaciones. Al final de este curso, podrás construir agentes y flujos de trabajo ACP que se comuniquen y colaboren independientemente del marco.
Por favor, regístrate aquí:
88,28K
Presentamos "Construyendo con Llama 4." Este curso corto ha sido creado con @Meta @AIatMeta, y es impartido por @asangani7, Director de Ingeniería de Socios del equipo de IA de Meta.
El nuevo Llama 4 de Meta ha añadido tres nuevos modelos e introducido la arquitectura Mixture-of-Experts (MoE) a su familia de modelos de pesos abiertos, haciéndolos más eficientes para servir.
En este curso, trabajarás con dos de los tres nuevos modelos introducidos en Llama 4. El primero es Maverick, un modelo de 400B parámetros, con 128 expertos y 17B parámetros activos. El segundo es Scout, un modelo de 109B parámetros con 16 expertos y 17B parámetros activos. Maverick y Scout soportan ventanas de contexto largas de hasta un millón de tokens y 10M tokens, respectivamente. ¡Esto último es suficiente para soportar la entrada directa incluso de repositorios de GitHub bastante grandes para análisis!
En lecciones prácticas, construirás aplicaciones utilizando las nuevas capacidades multimodales de Llama 4, incluyendo razonamiento a través de múltiples imágenes y anclaje de imágenes, en el que puedes identificar elementos en las imágenes. También utilizarás la API oficial de Llama, trabajarás con las habilidades de largo contexto de Llama 4, y aprenderás sobre las herramientas de código abierto más recientes de Llama: su herramienta de optimización de prompts que mejora automáticamente los prompts del sistema y el kit de datos sintéticos que genera conjuntos de datos de alta calidad para el ajuste fino.
Si necesitas un modelo abierto, Llama es una gran opción, y la familia Llama 4 es una parte importante de cualquier conjunto de herramientas de desarrollador de GenAI. A través de este curso, aprenderás a llamar a Llama 4 a través de la API, usar sus herramientas de optimización y construir características que abarcan texto, imágenes y un contexto amplio.
Por favor, regístrate aquí:
57,48K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado