Når du tenker på en feed-algoritme, er det mange intelligente sløyfer som opererer der. Det finnes selve modellinferenslaget, som ser på de siste tingene du har klikket på og de ferskeste gjenstandene i inventaret for å ta mikrosekundsbeslutninger om hva som skal vises
Så er det det automatiske treningslaget – selskaper instrumenterer gigantiske dataflyt-pipelines med inputfunksjoner og brukerengasjement, og trener opp modeller *daglig*. Friskheten i modellene sørger for at du er så på distribusjon som mulig. Markøren sier at de lanserer nye modeller *hver time*
det finnes ML outer loop-laget, hvor forskere faktisk prøver ut nye algoritmer og ser hvordan de presterer i live A/B-tester og offline-målinger. Når de gjør det, endrer de en dataflyt og kontinuerlig treningsprosess i stedet for bare å trene én ny modell
alt er et kontinuum og en OODA-løkke optimalisert over mange lag a av abstraksjoner som nærmer seg de nylige kravene om «kontinuerlig læring». disse «klassiske» ML-systemene som genererer billioner i inntekter, er verdt å tenke nærmere på når det gjelder naturen til nyttig intelligens
11,81K