Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
Mede-oprichter van Coursera; Stanford CS adjunct-faculteit. Voormalig hoofd van Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Ik ben enthousiast om de definitieve cursus over Claude Code aan te kondigen, gemaakt in samenwerking met @AnthropicAI en gegeven door Elie Schoppik @eschoppik. Als je gebruik wilt maken van zeer agentic coderen - waarbij AI autonoom werkt gedurende vele minuten of langer, niet alleen codefragmenten voltooit - dan is dit het.
Claude Code is een game-changer geweest voor veel ontwikkelaars (inclusief mij!), maar er is echte diepgang in het goed gebruiken ervan. Deze uitgebreide cursus behandelt alles van de basisprincipes tot geavanceerde patronen.
Na deze korte cursus ben je in staat om:
- Meerdere Claude-subagenten te orkestreren die tegelijkertijd aan verschillende delen van je codebase werken
- Claude te taggen in GitHub-issues en het autonoom pull requests te laten aanmaken, beoordelen en samenvoegen
- Rommelige Jupyter-notebooks om te zetten in schone, productieklare dashboards
- MCP-tools zoals Playwright te gebruiken zodat Claude kan zien wat er mis is met je UI en het autonoom kan oplossen
Of je nu nieuw bent met Claude Code of het al gebruikt, je zult krachtige mogelijkheden ontdekken die de manier waarop je software bouwt fundamenteel kunnen veranderen.
Ik ben erg enthousiast over wat agentic coderen iedereen nu laat doen. Neem alsjeblieft deze cursus!
694,12K
Aankondiging van een nieuwe Coursera-cursus: Retrieval Augmented Generation (RAG)
Je leert hoe je hoogpresterende, productieklare RAG-systemen kunt bouwen in deze praktische, diepgaande cursus, gemaakt door en gegeven door @ZainHasan6, een ervaren AI- en ML-engineer, onderzoeker en educator.
RAG is vandaag de dag een cruciaal onderdeel van veel LLM-gebaseerde toepassingen in klantenservice, interne bedrijfs Q&A-systemen, en zelfs veel van de toonaangevende chatbots die webzoekopdrachten gebruiken om je vragen te beantwoorden. Deze cursus leert je in detail hoe je RAG goed kunt laten functioneren.
LLM's kunnen generieke of verouderde antwoorden produceren, vooral wanneer ze gespecialiseerde vragen krijgen die niet in hun trainingsdata zijn behandeld. RAG is de meest gebruikte techniek om dit aan te pakken. Het haalt gegevens uit nieuwe gegevensbronnen, zoals interne documenten of recente nieuwsitems, om de LLM de relevante context te geven voor privé, recente of gespecialiseerde informatie. Dit stelt het in staat om meer onderbouwde en nauwkeurige antwoorden te genereren.
In deze cursus leer je elk onderdeel van een RAG-systeem te ontwerpen en implementeren, van retrievers tot vector databases tot generatie tot evaluaties. Je leert over de fundamentele principes achter RAG en hoe je het kunt optimaliseren op zowel component- als systeemniveau.
Naarmate AI evolueert, evolueert RAG ook. Nieuwe modellen kunnen langere contextvensters aan, effectiever redeneren en kunnen deel uitmaken van complexe agentische workflows. Een spannend groeigebied is Agentic RAG, waarin een AI-agent tijdens runtime (in plaats van dat het hardcoded is tijdens de ontwikkeling) autonoom beslist welke gegevens te ophalen, en wanneer/hoe dieper te gaan. Zelfs met deze evolutie is toegang tot hoogwaardige gegevens tijdens runtime essentieel, wat de reden is waarom RAG een belangrijk onderdeel is van zoveel toepassingen.
Je leert via praktische ervaringen om:
- Een RAG-systeem te bouwen met retrieval en prompt-augmentatie
- Retrievalmethoden zoals BM25, semantische zoekopdrachten en Reciprocal Rank Fusion te vergelijken
- Documenten te chunkeren, indexeren en ophalen met een Weaviate vector database en een nieuws dataset
- Een chatbot te ontwikkelen, met open-source LLM's gehost door Together AI, voor een fictieve winkel die product- en FAQ-vragen beantwoordt
- Evaluaties te gebruiken om de betrouwbaarheid te verbeteren en multi-modale gegevens te integreren
RAG is een belangrijke fundamentele techniek. Word er goed in via deze cursus!
Meld je hier aan:
107,06K
Mijn praatje op YC Startup School over hoe je AI-startups kunt bouwen. Ik deel tips van @AI_Fund over hoe je AI kunt gebruiken om snel te bouwen. Laat me weten wat je ervan vindt!

Y Combinator10 jul 2025
Andrew Ng (@AndrewYNg) over hoe startups sneller kunnen bouwen met AI.
Bij AI Startup School in San Francisco.
00:31 - Het Belang van Snelheid in Startups
01:13 - Kansen in de AI Stack
02:06 - De Opkomst van Agent AI
04:52 - Concrete Ideeën voor Snellere Uitvoering
08:56 - Snelle Prototyping en Engineering
17:06 - De Rol van Productmanagement
21:23 - De Waarde van Begrip van AI
22:33 - Technische Beslissingen in AI Ontwikkeling
23:26 - Gen AI Tools Benutten voor Startups
24:05 - Bouwen met AI Bouwstenen
25:26 - Het Belang van Snelheid in Startups
26:41 - Omgaan met AI Hype en Misvattingen
37:35 - AI in Onderwijs: Huidige Trends en Toekomstige Richtingen
39:33 - Balanceren van AI Innovatie met Ethische Overwegingen
41:27 - Bescherming van Open Source en de Toekomst van AI
146,53K
Agentic Document Extraction ondersteunt nu veldextractie! Veel documentextractie-toepassingen extraheren specifieke velden uit formulieren en andere gestructureerde documenten. Je kunt nu een foto of PDF van een factuur invoeren, de naam van de leverancier, de lijst met artikelen en prijzen opvragen, en de geëxtraheerde velden terugkrijgen. Of voer een medisch formulier in en specificeer een schema om de naam van de patiënt, patiënt-ID, verzekeringsnummer, enz. te extraheren.
Een coole functie: Als je geen zin hebt om zelf een schema (json-specificatie van welke velden te extraheren) te schrijven, upload dan één voorbeelddocument en schrijf een natuurlijke taalprompt waarin je aangeeft wat je wilt, en wij genereren automatisch een schema voor je.
Bekijk de video voor details!
178,31K
Nieuwe Cursus: Post-training van LLM's
Leer hoe je een LLM kunt post-trainen en aanpassen in deze korte cursus, gegeven door @BanghuaZ, assistent-professor aan de Universiteit van Washington @UW, en mede-oprichter van @NexusflowX.
Het trainen van een LLM om instructies te volgen of vragen te beantwoorden heeft twee belangrijke fasen: pre-training en post-training. Tijdens de pre-training leert het om het volgende woord of token te voorspellen uit grote hoeveelheden niet-gelabelde tekst. In de post-training leert het nuttige gedragingen zoals het volgen van instructies, het gebruik van tools en redeneren.
Post-training transformeert een algemeen token-voorspeller—getraind op triljoenen niet-gelabelde teksttokens—tot een assistent die instructies volgt en specifieke taken uitvoert. Omdat het veel goedkoper is dan pre-training, is het praktischer voor veel meer teams om post-training methoden in hun workflows op te nemen dan pre-training.
In deze cursus leer je drie veelvoorkomende post-training methoden—Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) en Online Reinforcement Learning (RL)—en hoe je elk effectief kunt gebruiken. Met SFT train je het model op paren van invoer en ideale outputreacties. Met DPO geef je zowel een voorkeur (gekozen) als een minder voorkeur (afgewezen) reactie en train je het model om de voorkeuroutput te bevoordelen. Met RL genereert het model een output, ontvangt het een beloningsscore op basis van menselijke of geautomatiseerde feedback, en werkt het model bij om de prestaties te verbeteren.
Je leert de basisconcepten, veelvoorkomende gebruiksgevallen en principes voor het cureren van hoogwaardige data voor effectieve training. Door middel van praktische labs download je een voorgetraind model van Hugging Face en post-train je het met SFT, DPO en RL om te zien hoe elke techniek het gedrag van het model vormt.
In detail zul je:
- Begrijpen wat post-training is, wanneer je het moet gebruiken en hoe het verschilt van pre-training.
- Een SFT-pijplijn bouwen om een basismodel om te zetten in een instructiemodel.
- Onderzoeken hoe DPO gedrag hervormt door contrastieve verlies te minimaliseren—slechte reacties te straffen en voorkeurreacties te versterken.
- Een DPO-pijplijn implementeren om de identiteit van een chatassistent te veranderen.
- Online RL-methoden leren zoals Proximal Policy Optimization (PPO) en Group Relative Policy Optimization (GRPO), en hoe je beloningsfuncties ontwerpt.
- Een model trainen met GRPO om zijn wiskundige capaciteiten te verbeteren met een verifieerbare beloning.
Post-training is een van de snelst ontwikkelende gebieden van LLM-training. Of je nu een context-specifieke assistent met hoge nauwkeurigheid bouwt, de toon van een model verfijnt of de taak-specifieke nauwkeurigheid verbetert, deze cursus geeft je ervaring met de belangrijkste technieken die bepalen hoe LLM's vandaag de dag worden post-getraind.
Meld je hier aan:
109,57K
Ik wil een tip delen voor het krijgen van meer oefening in het bouwen met AI — dat wil zeggen, ofwel AI-bouwstenen gebruiken om applicaties te bouwen of AI-coderingsassistentie gebruiken om snel krachtige applicaties te creëren: Als je merkt dat je maar beperkte tijd hebt om te bouwen, verklein dan de reikwijdte van je project totdat je iets kunt bouwen in de tijd die je hebt.
Als je maar een uur hebt, zoek dan een klein onderdeel van een idee waar je enthousiast over bent dat je in een uur kunt bouwen. Met moderne coderingsassistenten zoals Anthropic’s Claude Code (mijn favoriete ontwikkeltool op dit moment), zou je verrast kunnen zijn over hoeveel je zelfs in korte tijd kunt doen! Dit helpt je op gang, en je kunt het project altijd later voortzetten.
Om goed te worden in het bouwen met AI, moeten de meeste mensen (i) relevante technieken leren, bijvoorbeeld door online AI-cursussen te volgen, en (ii) oefenen met bouwen. Ik ken ontwikkelaars die maandenlang ideeën bedenken zonder daadwerkelijk iets te bouwen — ik heb dit ook gedaan! — omdat we het gevoel hebben dat we geen tijd hebben om te beginnen. Als je jezelf in deze positie vindt, moedig ik je aan om de initiële projectomvang steeds verder te verkleinen totdat je een klein onderdeel identificeert dat je meteen kunt bouwen.
Laat me dit illustreren met een voorbeeld — een van mijn vele kleine, leuke weekendprojecten die misschien nooit ergens naartoe gaan, maar waar ik blij mee ben dat ik het heb gedaan.
Hier is het idee: Veel mensen vrezen het spreken in het openbaar. En het is uitdagend om te oefenen met spreken in het openbaar, omdat het moeilijk is om een publiek te organiseren. Dus dacht ik dat het interessant zou zijn om een publiekssimulator te bouwen om een digitaal publiek van tientallen tot honderden virtuele mensen op een computerscherm te bieden en een gebruiker te laten oefenen door tegen hen te spreken.
Op een zaterdagmiddag bevond ik me in een koffiehuis met een paar uur te besteden en besloot ik de publiekssimulator een kans te geven. Mijn bekendheid met grafische codering is beperkt, dus in plaats van een complexe simulator van een groot publiek te bouwen en AI-software te schrijven om passende reacties van het publiek te simuleren, besloot ik de reikwijdte aanzienlijk te verkleinen naar (a) het simuleren van een publiek van één persoon (wat ik later kon repliceren om N personen te simuleren), (b) AI weg te laten en een menselijke operator handmatig de reactie van het gesimuleerde publiek te laten selecteren (vergelijkbaar met Wizard of Oz-prototyping), en (c) de graphics te implementeren met een eenvoudige 2D-avatar.
Met een mix van verschillende coderingsassistenten bouwde ik een basisversie in de tijd die ik had. De avatar kon subtiel bewegen en knipperen, maar verder gebruikte het basisgraphics. Hoewel het ver onder de maat viel van een geavanceerde publiekssimulator, ben ik blij dat ik dit heb gebouwd. Naast het vooruit helpen van het project en het verkennen van verschillende ontwerpen, vergrootte het mijn kennis van basisgraphics. Bovendien hielp het hebben van dit ruwe prototype om aan vrienden te tonen me om gebruikersfeedback te krijgen die mijn visie op het productidee vormde.
Ik heb op mijn laptop een lijst met ideeën van dingen die ik interessant vind om te bouwen. De meeste daarvan zouden veel langer duren dan de paar uur die ik op een bepaalde dag zou hebben om iets te proberen, maar door hun reikwijdte te verkleinen, kan ik aan de slag gaan, en de initiële voortgang van een project helpt me te beslissen of het verdere investering waard is. Als bonus helpt het hacken aan een breed scala van applicaties me om een breed scala aan vaardigheden te oefenen. Maar het belangrijkste is dat dit een idee uit mijn hoofd haalt en mogelijk voor potentiële gebruikers brengt voor feedback die het project sneller laat verlopen.

295,57K
Nieuwe Cursus: ACP: Agent Communicatie Protocol
Leer hoe je agenten bouwt die communiceren en samenwerken over verschillende frameworks met ACP in deze korte cursus, ontwikkeld met @IBMResearch's BeeAI, en gegeven door @sandi_besen, AI Research Engineer & Ecosystem Lead bij IBM, en @nicholasrenotte, Hoofd AI Developer Advocacy bij IBM.
Het bouwen van een multi-agent systeem met agenten die zijn gebouwd of gebruikt door verschillende teams en organisaties kan uitdagend worden. Je moet mogelijk elke keer dat een team hun agentontwerp bijwerkt of hun keuze voor een agentic orchestration framework verandert, aangepaste integraties schrijven.
Het Agent Communicatie Protocol (ACP) is een open protocol dat deze uitdaging aanpakt door te standaardiseren hoe agenten communiceren, met behulp van een uniforme RESTful interface die werkt over frameworks heen. In dit protocol host je een agent binnen een ACP-server, die verzoeken van een ACP-client afhandelt en deze doorgeeft aan de juiste agent. Het gebruik van een gestandaardiseerde client-server interface stelt meerdere teams in staat om agenten opnieuw te gebruiken in verschillende projecten. Het maakt het ook gemakkelijker om tussen frameworks te wisselen, een agent te vervangen door een nieuwe versie, of een multi-agent systeem bij te werken zonder het hele systeem te refactoren.
In deze cursus leer je agenten te verbinden via ACP. Je zult de levenscyclus van een ACP-agent begrijpen en hoe deze zich verhoudt tot andere protocollen, zoals MCP (Model Context Protocol) en A2A (Agent-to-Agent). Je zult ACP-conforme agenten bouwen en zowel sequentiële als hiërarchische workflows implementeren van meerdere agenten die samenwerken met behulp van ACP.
Door middel van praktische oefeningen bouw je:
- Een RAG-agent met CrewAI en deze in een ACP-server.
- Een ACP-client om oproepen te doen naar de ACP-server die je hebt gemaakt.
- Een sequentiële workflow die een ACP-server, gemaakt met Smolagents, aan de RAG-agent koppelt.
- Een hiërarchische workflow met een routeragent die gebruikersvragen omzet in taken, gedelegeerd aan agenten die beschikbaar zijn via ACP-servers.
- Een agent die MCP gebruikt om toegang te krijgen tot tools en ACP om te communiceren met andere agenten.
Je rondt af door je ACP-agenten te importeren in het BeeAI-platform, een open-source register voor het ontdekken en delen van agenten.
ACP maakt samenwerking tussen agenten over teams en organisaties mogelijk. Aan het einde van deze cursus ben je in staat om ACP-agenten en workflows te bouwen die communiceren en samenwerken, ongeacht het framework.
Meld je hier aan:
88,28K
Introductie van "Bouwen met Llama 4." Deze korte cursus is gemaakt in samenwerking met @Meta @AIatMeta, en wordt gegeven door @asangani7, Directeur Partner Engineering voor het AI-team van Meta.
Meta’s nieuwe Llama 4 heeft drie nieuwe modellen toegevoegd en de Mixture-of-Experts (MoE) architectuur geïntroduceerd in zijn familie van open-gewicht modellen, waardoor ze efficiënter te bedienen zijn.
In deze cursus ga je aan de slag met twee van de drie nieuwe modellen die in Llama 4 zijn geïntroduceerd. Het eerste is Maverick, een model met 400B parameters, met 128 experts en 17B actieve parameters. Het tweede is Scout, een model met 109B parameters met 16 experts en 17B actieve parameters. Maverick en Scout ondersteunen lange contextvensters van respectievelijk tot een miljoen tokens en 10M tokens. Laatstgenoemde is genoeg om zelfs vrij grote GitHub-repositories direct in te voeren voor analyse!
In praktische lessen ga je apps bouwen met de nieuwe multimodale mogelijkheden van Llama 4, waaronder redeneren over meerdere afbeeldingen en beeldgronding, waarbij je elementen in afbeeldingen kunt identificeren. Je zult ook de officiële Llama API gebruiken, werken met de lange-context mogelijkheden van Llama 4, en leren over Llama’s nieuwste open-source tools: de promptoptimalisatietool die automatisch systeemprompts verbetert en de synthetische datakit die hoogwaardige datasets genereert voor fine-tuning.
Als je een open model nodig hebt, is Llama een geweldige optie, en de Llama 4-familie is een belangrijk onderdeel van de toolkit van elke GenAI-ontwikkelaar. Door deze cursus leer je Llama 4 via API aan te roepen, de optimalisatietools te gebruiken en functies te bouwen die tekst, afbeeldingen en grote context omvatten.
Meld je hier aan:
57,48K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste