Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrew Ng
Medgründer av Coursera; Stanford CS adjunkt fakultet. Tidligere leder av Baidu AI Group/Google Brain. #ai #machinelearning, #deeplearning #MOOCs
Jeg er begeistret over å kunngjøre det definitive kurset om Claude Code, laget med @AnthropicAI og undervist av Elie Schoppik @eschoppik. Hvis du vil bruke svært agentisk koding - der AI fungerer autonomt i mange minutter eller lenger, ikke bare fullfører kodebiter - er dette det.
Claude Code har vært en game-changer for mange utviklere (inkludert meg!), men det er virkelig dybde i å bruke det godt. Dette omfattende kurset dekker alt fra grunnleggende til avanserte mønstre.
Etter dette korte kurset vil du kunne:
- Orkestrer flere Claude-underagenter for å jobbe på forskjellige deler av kodebasen samtidig
- Merk Claude i GitHub-problemer og få den til å opprette, gjennomgå og slå sammen pull-forespørsler autonomt
- Forvandle rotete Jupyter-notatblokker til rene, produksjonsklare instrumentbord
- Bruk MCP-verktøy som Playwright slik at Claude kan se hva som er galt med brukergrensesnittet ditt og fikse det autonomt
Enten du er ny på Claude Code eller allerede bruker det, vil du oppdage kraftige funksjoner som fundamentalt kan endre hvordan du bygger programvare.
Jeg er veldig spent på hva agentkoding lar alle nå gjøre. Ta gjerne dette kurset!
694,11K
Kunngjøring av et nytt Coursera-kurs: Gjenfinning av utvidet generasjon (RAG)
Du lærer å bygge høyytelses, produksjonsklare RAG-systemer i dette praktiske, dyptgående kurset laget av og undervist av @ZainHasan6, erfaren AI- og ML-ingeniør, forsker og lærer.
RAG er en kritisk komponent i dag i mange LLM-baserte applikasjoner i kundestøtte, interne selskapers Q&A-systemer, til og med mange av de ledende chatbotene som bruker nettsøk for å svare på spørsmålene dine. Dette kurset lærer deg i dybden hvordan du får RAG til å fungere godt.
LLM-er kan produsere generiske eller utdaterte svar, spesielt når de stilles spesialiserte spørsmål som ikke dekkes i treningsdataene. RAG er den mest brukte teknikken for å løse dette. Den henter inn data fra nye datakilder, for eksempel interne dokumenter eller nylige nyheter, for å gi LLM den relevante konteksten til privat, nylig eller spesialisert informasjon. Dette lar den generere mer jordede og nøyaktige svar.
I dette kurset lærer du å designe og implementere alle deler av et RAG-system, fra retrievere til vektordatabaser til generering til evals. Du vil lære om de grunnleggende prinsippene bak RAG og hvordan du optimaliserer det på både komponent- og hele systemnivå.
Etter hvert som AI utvikler seg, utvikler RAG seg også. Nye modeller kan håndtere lengre kontekstvinduer, resonnere mer effektivt og kan være deler av komplekse agentarbeidsflyter. Et spennende vekstområde er Agentic RAG, der en AI-agent under kjøring (i stedet for at den er hardkodet på utviklingstidspunktet) autonomt bestemmer hvilke data som skal hentes, og når/hvordan den skal gå dypere. Selv med denne utviklingen er tilgang til data av høy kvalitet under kjøring avgjørende, og det er grunnen til at RAG er en sentral del av så mange applikasjoner.
Du lærer via praktiske erfaringer å:
- Bygg et RAG-system med henting og rask forsterkning
- Sammenlign gjenfinningsmetoder som BM25, semantisk søk og Reciprocal Rank Fusion
- Chunk, indekser og hent dokumenter ved hjelp av en Weaviate-vektordatabase og et nyhetsdatasett
- Utvikle en chatbot ved hjelp av åpen kildekode LLM-er som driftes av Together AI, for en fiktiv butikk som svarer på produkt- og FAQ-spørsmål
- Bruk evalueringer for å forbedre påliteligheten og innlemme multimodale data
RAG er en viktig grunnleggende teknikk. Bli god på det gjennom dette kurset!
Vennligst registrer deg her:
107,05K
Foredraget mitt på YC Startup School om hvordan man bygger AI-startups. Jeg deler tips fra @AI_Fund om hvordan du kan bruke AI til å bygge raskt. Fortell meg hva du synes!

Y Combinator10. juli 2025
Andrew Ng (@AndrewYNg) om hvordan startups kan bygge raskere med AI.
På AI Startup School i San Francisco.
00:31 - Viktigheten av hastighet i oppstart
01:13 – Muligheter i AI-stabelen
02:06 – Fremveksten av Agent AI
04:52 - Konkrete ideer for raskere gjennomføring
08:56 – Rask prototyping og ingeniørarbeid
17:06 - Produktledelsens rolle
21:23 – Verdien av å forstå kunstig intelligens
22:33 - Tekniske beslutninger i AI-utvikling
23:26 – Utnytte Gen AI-verktøy for oppstartsbedrifter
24:05 – Bygge med AI-byggeklosser
25:26 – Viktigheten av hastighet i oppstart
26:41 – Adressere AI-hype og misoppfatninger
37:35 - AI i utdanning: Nåværende trender og fremtidige retninger
39:33 - Balansere AI-innovasjon med etiske overveielser
41:27 – Beskytte åpen kildekode og fremtiden til kunstig intelligens
146,52K
Agentisk dokumentuttrekking støtter nå feltuttrekking! Mange brukstilfeller for dokumentuttrekking trekker ut bestemte felt fra skjemaer og andre strukturerte dokumenter. Du kan nå legge inn et bilde eller en PDF-fil av en faktura, be om leverandørnavn, vareliste og priser, og få tilbake de utpakkede feltene. Eller skriv inn et medisinsk skjema og spesifiser et skjema for å trekke ut pasientnavn, pasient-ID, forsikringsnummer osv.
En kul funksjon: Hvis du ikke har lyst til å skrive et skjema (json-spesifikasjon av hvilke felt som skal trekkes ut) selv, last opp ett eksempeldokument og skriv en melding på naturlig språk som sier hva du vil, så genererer vi automatisk et skjema for deg.
Se videoen for detaljer!
178,29K
Nytt kurs: Ettertrening av LLM-er
Lær å ettertrene og tilpasse en LLM i dette korte kurset, undervist av @BanghuaZ, assisterende professor ved University of Washington @UW, og medgründer av @NexusflowX.
Å trene en LLM til å følge instruksjoner eller svare på spørsmål har to nøkkelstadier: før trening og ettertrening. I fortrening lærer den å forutsi neste ord eller token fra store mengder umerket tekst. I ettertrening lærer den nyttig atferd som å følge instruksjoner, verktøybruk og resonnement.
Ettertrening forvandler en generell tokenprediktor – trent på billioner av umerkede teksttokener – til en assistent som følger instruksjoner og utfører spesifikke oppgaver. Fordi det er mye billigere enn forhåndsopplæring, er det praktisk for mange flere team å innlemme ettertreningsmetoder i arbeidsflytene sine enn forhåndsopplæring.
I dette kurset lærer du tre vanlige metoder etter opplæring – Supervised Fine-Tuning (SFT), Direct Preference Optimization (DPO) og Online Reinforcement Learning (RL) – og hvordan du bruker hver enkelt effektivt. Med SFT trener du modellen på par med inndata og ideelle utgangsresponser. Med DPO gir du både et foretrukket (valgt) og et mindre foretrukket (avvist) svar og trener modellen til å favorisere de foretrukne utdataene. Med RL genererer modellen utdata, mottar en belønningspoengsum basert på menneskelig eller automatisert tilbakemelding, og oppdaterer modellen for å forbedre ytelsen.
Du lærer de grunnleggende konseptene, vanlige brukstilfeller og prinsipper for å kuratere data av høy kvalitet for effektiv opplæring. Gjennom praktiske laboratorier laster du ned en forhåndstrent modell fra Hugging Face og ettertrener den ved hjelp av SFT, DPO og RL for å se hvordan hver teknikk former modellatferd.
I detalj vil du:
- Forstå hva ettertrening er, når du skal bruke det, og hvordan det skiller seg fra fortrening.
- Bygg et SFT-datasamlebånd for å gjøre en basismodell om til en instruksjonsmodell.
- Utforsk hvordan DPO omformer atferd ved å minimere kontrastivt tap – straffe dårlige svar og forsterke foretrukne.
- Implementer en DPO-pipeline for å endre identiteten til en chatassistent.
- Lær online RL-metoder som Proximal Policy Optimization (PPO) og Group Relative Policy Optimization (GRPO), og hvordan du designer belønningsfunksjoner.
- Tren en modell med GRPO for å forbedre dens matematiske evner ved hjelp av en verifiserbar belønning.
Ettertrening er et av de raskest utviklende områdene innen LLM-opplæring. Enten du bygger en kontekstspesifikk assistent med høy nøyaktighet, finjusterer en modells tone eller forbedrer oppgavespesifikk nøyaktighet, vil dette kurset gi deg erfaring med de viktigste teknikkene som former hvordan LLM-er ettertrentes i dag.
Vennligst registrer deg her:
109,56K
Jeg vil gjerne dele et tips for å få mer øvelse i å bygge med AI – det vil si enten å bruke AI-byggeklosser for å bygge applikasjoner eller bruke AI-kodingsassistanse for å lage kraftige applikasjoner raskt: Hvis du finner deg selv med bare begrenset tid til å bygge, reduser omfanget av prosjektet ditt til du kan bygge noe på den tiden du har.
Hvis du bare har en time, finn en liten del av en idé som du er begeistret for som du kan bygge på en time. Med moderne kodeassistenter som Anthropics Claude Code (mitt favoritt utviklerverktøy akkurat nå), kan du bli overrasket over hvor mye du kan gjøre selv på kort tid! Dette får deg i gang, og du kan alltid fortsette prosjektet senere.
For å bli gode til å bygge med AI, må de fleste (i) lære relevante teknikker, for eksempel ved å ta nettbaserte AI-kurs, og (ii) øve på å bygge. Jeg kjenner utviklere som nudler på ideer i flere måneder uten å faktisk bygge noe – jeg har gjort dette også! – fordi vi føler at vi ikke har tid til å komme i gang. Hvis du befinner deg i denne posisjonen, oppfordrer jeg deg til å fortsette å kutte det første prosjektomfanget til du identifiserer en liten komponent du kan bygge med en gang.
La meg illustrere med et eksempel – et av mine mange små, morsomme helgeprosjekter som kanskje aldri kommer noen vei, men som jeg er glad for at jeg gjorde.
Her er tanken: Mange frykter å tale offentlig. Og offentlige taler er utfordrende å praktisere, fordi det er vanskelig å organisere et publikum. Så jeg tenkte det ville være interessant å bygge en publikumssimulator for å gi et digitalt publikum på dusinvis til hundrevis av virtuelle mennesker på en dataskjerm og la en bruker øve ved å snakke med dem.
En lørdag ettermiddag befant jeg meg på en kaffebar med et par timer til overs og bestemte meg for å gi publikumssimulatoren en sjanse. Min kjennskap til grafikkkoding er begrenset, så i stedet for å bygge en kompleks simulator av et stort publikum og skrive AI-programvare for å simulere passende publikumsresponser, bestemte jeg meg for å kutte omfanget betydelig til (a) å simulere et publikum på én person (som jeg kunne replikere senere for å simulere N personer), (b) utelate AI og la en menneskelig operatør manuelt velge reaksjonen til det simulerte publikummet (ligner på Wizard of Oz-prototyping), og (c) implementere grafikken ved hjelp av en enkel 2D-avatar.
Ved å bruke en blanding av flere kodeassistenter bygde jeg en grunnleggende versjon på den tiden jeg hadde. Avataren kunne bevege seg subtilt og blunke, men ellers brukte den grunnleggende grafikk. Selv om den var langt fra en sofistikert publikumssimulator, er jeg glad jeg bygde denne. I tillegg til å flytte prosjektet fremover og la meg utforske forskjellige design, fremmet det kunnskapen min om grunnleggende grafikk. Videre hjalp det å ha denne primitive prototypen å vise venner meg med å få tilbakemeldinger fra brukere som formet mitt syn på produktideen.
Jeg har på den bærbare datamaskinen min en liste med ideer om ting som jeg tror ville være interessant å bygge. De fleste av dem vil ta mye lengre tid enn den håndfull timene jeg kanskje må prøve noe på en gitt dag, men ved å kutte omfanget kan jeg komme i gang, og den første fremdriften på et prosjekt hjelper meg med å avgjøre om det er verdt ytterligere investering. Som en bonus hjelper hacking på et bredt utvalg av applikasjoner meg med å øve på et bredt spekter av ferdigheter. Men viktigst av alt, dette får en idé ut av hodet mitt og potensielt foran potensielle brukere for tilbakemeldinger som lar prosjektet gå raskere.
[Opprinnelig tekst: ]

295,56K
Nytt kurs: ACP: Agentkommunikasjonsprotokoll
Lær å bygge agenter som kommuniserer og samarbeider på tvers av ulike rammeverk ved hjelp av ACP i dette korte kurset bygget med @IBMResearch's BeeAI, og undervist av @sandi_besen, AI Research Engineer & Ecosystem Lead hos IBM, og @nicholasrenotte, Head of AI Developer Advocacy hos IBM.
Å bygge et system med flere agenter med agenter som er bygget eller brukt av forskjellige team og organisasjoner kan bli utfordrende. Det kan hende du må skrive egendefinerte integrasjoner hver gang et team oppdaterer agentutformingen eller endrer valget av agentorkestreringsrammeverk.
Agent Communication Protocol (ACP) er en åpen protokoll som løser denne utfordringen ved å standardisere hvordan agenter kommuniserer, ved hjelp av et enhetlig RESTful-grensesnitt som fungerer på tvers av rammeverk. I denne protokollen er du vert for en agent inne i en ACP-server, som håndterer forespørsler fra en ACP-klient og sender dem til riktig agent. Ved å bruke et standardisert klient-server-grensesnitt kan flere team gjenbruke agenter på tvers av prosjekter. Det gjør det også enklere å bytte mellom rammeverk, erstatte en agent med en ny versjon eller oppdatere et multiagentsystem uten å refaktorere hele systemet.
I dette kurset lærer du å koble agenter gjennom ACP. Du vil forstå livssyklusen til en ACP Agent og hvordan den kan sammenlignes med andre protokoller, for eksempel MCP (Model Context Protocol) og A2A (Agent-to-Agent). Du bygger ACP-kompatible agenter og implementerer både sekvensielle og hierarkiske arbeidsflyter for flere agenter som samarbeider ved hjelp av ACP.
Gjennom praktiske øvelser vil du bygge:
- En RAG-agent med CrewAI og pakk den inn i en ACP-server.
- En ACP-klient for å ringe til ACP-serveren du opprettet.
- En sekvensiell arbeidsflyt som lenker en ACP-server, opprettet med Smolagents, til RAG-agenten.
- En hierarkisk arbeidsflyt ved hjelp av en ruteragent som transformerer brukerforespørsler til oppgaver, delegert til agenter som er tilgjengelige via ACP-servere.
- En agent som bruker MCP for å få tilgang til verktøy og ACP for å kommunisere med andre agenter.
Du avslutter med å importere ACP-agentene dine til BeeAI-plattformen, et åpen kildekode-register for å oppdage og dele agenter.
ACP muliggjør samarbeid mellom agenter på tvers av team og organisasjoner. Ved slutten av dette kurset vil du kunne bygge ACP-agenter og arbeidsflyter som kommuniserer og samarbeider uavhengig av rammeverk.
Vennligst registrer deg her:
88,27K
Vi presenterer «Bygg med lama 4». Dette korte kurset er laget med @Meta @AIatMeta, og undervist av @asangani7, Director of Partner Engineering for Metas AI-team.
Metas nye Llama 4 har lagt til tre nye modeller og introdusert Mixture-of-Experts (MoE)-arkitekturen til sin familie av åpne vektmodeller, noe som gjør dem mer effektive å betjene.
På dette kurset vil du jobbe med to av de tre nye modellene introdusert i Llama 4. Først er Maverick, en 400B-parametermodell, med 128 eksperter og 17B aktive parametere. Den andre er Scout, en 109B parametermodell med 16 eksperter og 17B aktive parametere. Maverick og Scout støtter lange kontekstvinduer på henholdsvis opptil en million tokens og 10 millioner tokens. Sistnevnte er nok til å støtte direkte inntasting av selv ganske store GitHub-repositorier for analyse!
I praktiske leksjoner vil du bygge apper ved hjelp av Llama 4s nye multimodale funksjoner, inkludert resonnement på tvers av flere bilder og bildejording, der du kan identifisere elementer i bilder. Du vil også bruke den offisielle Llama API, jobbe med Llama 4s langkontekstevner og lære om Llamas nyeste åpen kildekode-verktøy: dens raske optimaliseringsverktøy som automatisk forbedrer systemforespørsler og syntetisk datasett som genererer datasett av høy kvalitet for finjustering.
Hvis du trenger en åpen modell, er Llama et flott alternativ, og Llama 4-familien er en viktig del av enhver GenAI-utviklers verktøysett. Gjennom dette kurset lærer du å kalle Llama 4 via API, bruke optimaliseringsverktøyene og bygge funksjoner som spenner over tekst, bilder og stor kontekst.
Vennligst registrer deg her:
57,47K
Topp
Rangering
Favoritter
Trendende onchain
Trendende på X
Nylig toppfinansiering
Mest lagt merke til