Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
cofondateur de Coursera ; Faculté auxiliaire de Stanford CS. Ancien directeur de Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Je suis ravi d'annoncer le cours définitif sur Claude Code, créé avec @AnthropicAI et enseigné par Elie Schoppik @eschoppik. Si vous souhaitez utiliser un codage hautement agentique - où l'IA travaille de manière autonome pendant de nombreuses minutes ou plus, et pas seulement en complétant des extraits de code - c'est le cours qu'il vous faut.
Claude Code a été un véritable changement de jeu pour de nombreux développeurs (y compris moi !), mais il y a une réelle profondeur à l'utiliser correctement. Ce cours complet couvre tout, des fondamentaux aux modèles avancés.
Après ce court cours, vous serez capable de :
- Orchestrer plusieurs sous-agents Claude pour travailler sur différentes parties de votre code simultanément
- Taguer Claude dans les problèmes GitHub et le laisser créer, examiner et fusionner des demandes de tirage de manière autonome
- Transformer des notebooks Jupyter désordonnés en tableaux de bord propres et prêts pour la production
- Utiliser des outils MCP comme Playwright pour que Claude puisse voir ce qui ne va pas avec votre interface utilisateur et le corriger de manière autonome
Que vous soyez nouveau dans Claude Code ou que vous l'utilisiez déjà, vous découvrirez des capacités puissantes qui peuvent fondamentalement changer la façon dont vous construisez des logiciels.
Je suis très enthousiaste à propos de ce que le codage agentique permet à chacun de faire maintenant. Veuillez suivre ce cours !
679,42K
Annonce d'un nouveau cours sur Coursera : Génération Augmentée par Récupération (RAG)
Vous apprendrez à construire des systèmes RAG performants et prêts pour la production dans ce cours pratique et approfondi créé et enseigné par @ZainHasan6, ingénieur en IA et ML expérimenté, chercheur et éducateur.
Le RAG est un composant essentiel aujourd'hui de nombreuses applications basées sur des LLM dans le support client, les systèmes de questions-réponses internes des entreprises, et même de nombreux chatbots leaders qui utilisent la recherche sur le web pour répondre à vos questions. Ce cours vous enseigne en profondeur comment faire fonctionner le RAG efficacement.
Les LLM peuvent produire des réponses génériques ou obsolètes, surtout lorsqu'on leur pose des questions spécialisées qui ne sont pas couvertes par leurs données d'entraînement. Le RAG est la technique la plus largement utilisée pour y remédier. Il intègre des données provenant de nouvelles sources, telles que des documents internes ou des actualités récentes, pour donner au LLM le contexte pertinent pour des informations privées, récentes ou spécialisées. Cela lui permet de générer des réponses plus concrètes et précises.
Dans ce cours, vous apprendrez à concevoir et à mettre en œuvre chaque partie d'un système RAG, des récupérateurs aux bases de données vectorielles, en passant par la génération et les évaluations. Vous découvrirez les principes fondamentaux derrière le RAG et comment l'optimiser à la fois au niveau des composants et du système dans son ensemble.
À mesure que l'IA évolue, le RAG évolue aussi. De nouveaux modèles peuvent gérer des fenêtres de contexte plus longues, raisonner plus efficacement et faire partie de flux de travail agentiques complexes. Un domaine de croissance passionnant est le RAG Agentique, dans lequel un agent IA, en temps réel (plutôt que d'être codé en dur au moment du développement), décide de manière autonome quelles données récupérer, et quand/comment approfondir. Même avec cette évolution, l'accès à des données de haute qualité en temps réel est essentiel, c'est pourquoi le RAG est une partie clé de tant d'applications.
Vous apprendrez par des expériences pratiques à :
- Construire un système RAG avec récupération et augmentation de prompt
- Comparer des méthodes de récupération comme BM25, recherche sémantique et Fusion de Rang Réciproque
- Découper, indexer et récupérer des documents en utilisant une base de données vectorielle Weaviate et un ensemble de données d'actualités
- Développer un chatbot, en utilisant des LLM open-source hébergés par Together AI, pour un magasin fictif qui répond aux questions sur les produits et les FAQ
- Utiliser des évaluations pour améliorer la fiabilité et incorporer des données multimodales
Le RAG est une technique fondamentale importante. Devenez compétent grâce à ce cours !
Veuillez vous inscrire ici :
107,02K
Mon intervention à YC Startup School sur la façon de créer des startups d'IA. Je partage des conseils de @AI_Fund sur comment utiliser l'IA pour construire rapidement. Faites-moi savoir ce que vous en pensez !

Y Combinator10 juil. 2025
Andrew Ng (@AndrewYNg) sur la façon dont les startups peuvent se développer plus rapidement avec l'IA.
À l'AI Startup School à San Francisco.
00:31 - L'importance de la vitesse dans les startups
01:13 - Opportunités dans la pile IA
02:06 - L'essor de l'IA agent
04:52 - Idées concrètes pour une exécution plus rapide
08:56 - Prototypage rapide et ingénierie
17:06 - Le rôle de la gestion de produit
21:23 - La valeur de la compréhension de l'IA
22:33 - Décisions techniques dans le développement de l'IA
23:26 - Tirer parti des outils Gen IA pour les startups
24:05 - Construire avec des blocs de construction IA
25:26 - L'importance de la vitesse dans les startups
26:41 - Aborder le battage médiatique de l'IA et les idées reçues
37:35 - L'IA dans l'éducation : tendances actuelles et directions futures
39:33 - Équilibrer l'innovation en IA avec des considérations éthiques
41:27 - Protéger l'open source et l'avenir de l'IA
146,49K
L'extraction de documents agentiques prend désormais en charge l'extraction de champs ! De nombreux cas d'utilisation de l'extraction de documents extraient des champs spécifiques à partir de formulaires et d'autres documents structurés. Vous pouvez maintenant entrer une image ou un PDF d'une facture, demander le nom du fournisseur, la liste des articles et les prix, et obtenir les champs extraits. Ou entrez un formulaire médical et spécifiez un schéma pour extraire le nom du patient, l'identifiant du patient, le numéro d'assurance, etc.
Une fonctionnalité intéressante : si vous n'avez pas envie d'écrire un schéma (spécification JSON des champs à extraire) vous-même, téléchargez un document d'exemple et écrivez une invite en langage naturel indiquant ce que vous voulez, et nous générons automatiquement un schéma pour vous.
Regardez la vidéo pour plus de détails !
178,27K
Nouveau cours : Post-formation des LLMs
Apprenez à post-former et personnaliser un LLM dans ce court cours, enseigné par @BanghuaZ, professeur adjoint à l'Université de Washington @UW, et co-fondateur de @NexusflowX.
Former un LLM à suivre des instructions ou à répondre à des questions comporte deux étapes clés : la pré-formation et la post-formation. Lors de la pré-formation, il apprend à prédire le mot ou le jeton suivant à partir de grandes quantités de texte non étiqueté. Dans la post-formation, il apprend des comportements utiles tels que suivre des instructions, utiliser des outils et raisonner.
La post-formation transforme un prédicteur de jetons à usage général—formé sur des trillions de jetons de texte non étiquetés—en un assistant qui suit des instructions et effectue des tâches spécifiques. Comme cela coûte beaucoup moins cher que la pré-formation, il est pratique pour beaucoup plus d'équipes d'incorporer des méthodes de post-formation dans leurs flux de travail que de pré-formation.
Dans ce cours, vous apprendrez trois méthodes courantes de post-formation : Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) et Online Reinforcement Learning (RL)—et comment utiliser chacune efficacement. Avec SFT, vous formez le modèle sur des paires d'entrées et de réponses idéales. Avec DPO, vous fournissez à la fois une réponse préférée (choisie) et une réponse moins préférée (rejetée) et formez le modèle à privilégier la sortie préférée. Avec RL, le modèle génère une sortie, reçoit un score de récompense basé sur des retours humains ou automatisés, et met à jour le modèle pour améliorer les performances.
Vous apprendrez les concepts de base, les cas d'utilisation courants et les principes pour sélectionner des données de haute qualité pour une formation efficace. À travers des laboratoires pratiques, vous téléchargerez un modèle pré-entraîné depuis Hugging Face et le post-formerez en utilisant SFT, DPO et RL pour voir comment chaque technique façonne le comportement du modèle.
En détail, vous :
- Comprendrez ce qu'est la post-formation, quand l'utiliser et comment elle diffère de la pré-formation.
- Construirez un pipeline SFT pour transformer un modèle de base en un modèle d'instruction.
- Explorerez comment DPO redéfinit le comportement en minimisant la perte contrastive—pénalisant les mauvaises réponses et renforçant celles préférées.
- Mettrez en œuvre un pipeline DPO pour changer l'identité d'un assistant de chat.
- Apprendrez des méthodes RL en ligne telles que Proximal Policy Optimization (PPO) et Group Relative Policy Optimization (GRPO), et comment concevoir des fonctions de récompense.
- Formerez un modèle avec GRPO pour améliorer ses capacités mathématiques en utilisant une récompense vérifiable.
La post-formation est l'un des domaines les plus en développement rapide de la formation des LLM. Que vous construisiez un assistant contextuel à haute précision, ajustiez le ton d'un modèle ou amélioriez la précision spécifique à une tâche, ce cours vous donnera de l'expérience avec les techniques les plus importantes qui façonnent la façon dont les LLMs sont post-formés aujourd'hui.
Veuillez vous inscrire ici :
109,53K
J'aimerais partager un conseil pour obtenir plus de pratique dans la construction avec l'IA — c'est-à-dire, soit en utilisant des blocs de construction IA pour créer des applications, soit en utilisant une assistance au codage IA pour créer rapidement des applications puissantes : Si vous vous retrouvez avec peu de temps pour construire, réduisez la portée de votre projet jusqu'à ce que vous puissiez créer quelque chose dans le temps dont vous disposez.
Si vous n'avez qu'une heure, trouvez un petit composant d'une idée qui vous excite et que vous pouvez construire en une heure. Avec des assistants de codage modernes comme Claude Code d'Anthropic (mon outil de développement préféré en ce moment), vous pourriez être surpris de tout ce que vous pouvez faire même en de courtes périodes de temps ! Cela vous met en route, et vous pouvez toujours continuer le projet plus tard.
Pour devenir bon dans la construction avec l'IA, la plupart des gens doivent (i) apprendre des techniques pertinentes, par exemple en suivant des cours en ligne sur l'IA, et (ii) pratiquer la construction. Je connais des développeurs qui réfléchissent à des idées pendant des mois sans réellement construire quoi que ce soit — je l'ai fait aussi ! — parce que nous avons l'impression de ne pas avoir le temps de commencer. Si vous vous trouvez dans cette position, je vous encourage à continuer à réduire la portée initiale du projet jusqu'à ce que vous identifiiez un petit composant que vous pouvez construire immédiatement.
Laissez-moi illustrer avec un exemple — l'un de mes nombreux petits projets amusants de week-end qui pourrait ne jamais aboutir, mais dont je suis content d'avoir fait.
Voici l'idée : Beaucoup de gens craignent de parler en public. Et parler en public est difficile à pratiquer, car il est difficile d'organiser un public. J'ai donc pensé qu'il serait intéressant de créer un simulateur de public pour fournir un public numérique de dizaines à des centaines de personnes virtuelles sur un écran d'ordinateur et permettre à un utilisateur de pratiquer en leur parlant.
Un samedi après-midi, je me suis retrouvé dans un café avec quelques heures à perdre et j'ai décidé de tenter le simulateur de public. Ma familiarité avec le codage graphique est limitée, donc au lieu de construire un simulateur complexe d'un large public et d'écrire un logiciel IA pour simuler des réponses appropriées du public, j'ai décidé de réduire considérablement la portée à (a) simuler un public d'une personne (que je pourrais répliquer plus tard pour simuler N personnes), (b) omettre l'IA et laisser un opérateur humain sélectionner manuellement la réaction du public simulé (similaire au prototypage Wizard of Oz), et (c) implémenter les graphiques en utilisant un simple avatar 2D.
En utilisant un mélange de plusieurs assistants de codage, j'ai construit une version basique dans le temps dont je disposais. L'avatar pouvait bouger subtilement et cligner des yeux, mais sinon, il utilisait des graphiques basiques. Même s'il était loin d'être un simulateur de public sophistiqué, je suis content d'avoir construit cela. En plus de faire avancer le projet et de me permettre d'explorer différents designs, cela a fait progresser ma connaissance des graphiques de base. De plus, avoir ce prototype rudimentaire à montrer à des amis m'a aidé à obtenir des retours d'utilisateurs qui ont façonné mes idées sur le concept du produit.
J'ai sur mon ordinateur portable une liste d'idées de choses que je pense qu'il serait intéressant de construire. La plupart d'entre elles prendraient beaucoup plus de temps que les quelques heures que je pourrais avoir pour essayer quelque chose un jour donné, mais en réduisant leur portée, je peux me lancer, et les progrès initiaux sur un projet m'aident à décider s'il vaut la peine d'investir davantage. En prime, travailler sur une grande variété d'applications m'aide à pratiquer un large éventail de compétences. Mais surtout, cela permet de sortir une idée de ma tête et potentiellement de la mettre devant des utilisateurs potentiels pour des retours qui permettent au projet d'avancer plus rapidement.

295,51K
Nouveau cours : ACP : Protocole de communication des agents
Apprenez à construire des agents qui communiquent et collaborent à travers différents cadres en utilisant l'ACP dans ce court cours élaboré avec BeeAI de @IBMResearch, et enseigné par @sandi_besen, Ingénieur de recherche en IA et Responsable de l'écosystème chez IBM, et @nicholasrenotte, Responsable de l'Advocacy des développeurs IA chez IBM.
Construire un système multi-agents avec des agents construits ou utilisés par différentes équipes et organisations peut devenir un défi. Vous devrez peut-être écrire des intégrations personnalisées chaque fois qu'une équipe met à jour la conception de son agent ou change son choix de cadre d'orchestration agentique.
Le Protocole de communication des agents (ACP) est un protocole ouvert qui répond à ce défi en standardisant la manière dont les agents communiquent, en utilisant une interface RESTful unifiée qui fonctionne à travers les cadres. Dans ce protocole, vous hébergez un agent à l'intérieur d'un serveur ACP, qui gère les demandes d'un client ACP et les transmet à l'agent approprié. L'utilisation d'une interface client-serveur standardisée permet à plusieurs équipes de réutiliser des agents à travers des projets. Cela facilite également le passage d'un cadre à un autre, le remplacement d'un agent par une nouvelle version, ou la mise à jour d'un système multi-agents sans refactoriser l'ensemble du système.
Dans ce cours, vous apprendrez à connecter des agents via l'ACP. Vous comprendrez le cycle de vie d'un agent ACP et comment il se compare à d'autres protocoles, tels que le MCP (Protocole de contexte de modèle) et l'A2A (Agent à Agent). Vous construirez des agents conformes à l'ACP et mettrez en œuvre à la fois des flux de travail séquentiels et hiérarchiques de plusieurs agents collaborant en utilisant l'ACP.
À travers des exercices pratiques, vous construirez :
- Un agent RAG avec CrewAI et l'encapsulerez à l'intérieur d'un serveur ACP.
- Un client ACP pour faire des appels au serveur ACP que vous avez créé.
- Un flux de travail séquentiel qui enchaîne un serveur ACP, créé avec Smolagents, à l'agent RAG.
- Un flux de travail hiérarchique utilisant un agent routeur qui transforme les requêtes des utilisateurs en tâches, déléguées à des agents disponibles via des serveurs ACP.
- Un agent qui utilise le MCP pour accéder à des outils et l'ACP pour communiquer avec d'autres agents.
Vous terminerez en important vos agents ACP dans la plateforme BeeAI, un registre open-source pour découvrir et partager des agents.
L'ACP permet la collaboration entre agents à travers les équipes et les organisations. À la fin de ce cours, vous serez capable de construire des agents et des flux de travail ACP qui communiquent et collaborent indépendamment du cadre.
Veuillez vous inscrire ici :
88,23K
Présentation de "Construire avec Llama 4." Ce cours court est créé avec @Meta @AIatMeta, et enseigné par @asangani7, Directeur de l'ingénierie des partenaires pour l'équipe AI de Meta.
Le nouveau Llama 4 de Meta a ajouté trois nouveaux modèles et introduit l'architecture Mixture-of-Experts (MoE) à sa famille de modèles à poids ouverts, les rendant plus efficaces à servir.
Dans ce cours, vous travaillerez avec deux des trois nouveaux modèles introduits dans Llama 4. Le premier est Maverick, un modèle de 400B paramètres, avec 128 experts et 17B paramètres actifs. Le second est Scout, un modèle de 109B paramètres avec 16 experts et 17B paramètres actifs. Maverick et Scout prennent en charge de longues fenêtres de contexte allant jusqu'à un million de tokens et 10M tokens, respectivement. Ce dernier est suffisant pour permettre l'entrée directe même de dépôts GitHub assez volumineux pour analyse !
Dans des leçons pratiques, vous construirez des applications utilisant les nouvelles capacités multimodales de Llama 4, y compris le raisonnement à travers plusieurs images et le grounding d'images, dans lequel vous pouvez identifier des éléments dans les images. Vous utiliserez également l'API officielle de Llama, travaillerez avec les capacités de long contexte de Llama 4, et apprendrez à connaître les nouveaux outils open-source de Llama : son outil d'optimisation de prompt qui améliore automatiquement les prompts système et son kit de données synthétiques qui génère des ensembles de données de haute qualité pour le fine-tuning.
Si vous avez besoin d'un modèle ouvert, Llama est une excellente option, et la famille Llama 4 est une partie importante de la boîte à outils de tout développeur GenAI. Grâce à ce cours, vous apprendrez à appeler Llama 4 via API, à utiliser ses outils d'optimisation, et à construire des fonctionnalités qui englobent texte, images et grands contextes.
Veuillez vous inscrire ici :
57,42K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables