Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tinker fra Thinking Machines som GA er en av de første lanseringene på en stund som faktisk føles som trening som et produkt.
De fleste hostede finjusterings-API-er (inkludert OpenAI-stil) er fantastiske når alt du trenger er en ren SFT-gjennomspilling, men i det øyeblikket du vil gjøre noe som helst litt spennende: egendefinerte læreplaner, nettevaluering, belønningsformet ettertrening, RL-aktige looper, rare batching-/pakkingstriks: du treffer taket raskt og ender opp med å bygge opp halve treningsstabelen på nytt.
Tinker snur det egentlig på hodet: det gir deg et trenings-API med lavnivå-primitiver (sample / forward_backward / optim_step / save_state), så du skriver løkken du faktisk vil ha, og de tar seg av delene som vanligvis blir til en måneds infrastrukturarbeid (planlegging, skalering, preemptions, feilgjenoppretting, hvorfor døde denne jobben på 93 %-greiene).
Det er også LoRA-først, som er akkurat riktig standard for tilpasning: du itererer raskere, kostnadene holder seg stabile, du kan beholde flere varianter uten å duplisere gigantiske sjekkpunkter, og servering blir mye mer praktisk. Jeg liker også at historien ikke er uklar: LoRA kan virkelig matche full finjustering på mange datasett etter trening når du setter det opp riktig, men hvis du prøver å presse inn en massiv atferdsendring i en liten adapter (eller datasettet ditt bare overskygger adapterens effektive kapasitet), vil du kjenne den flaskehalsen og den vil ikke forsvinne magisk.
Den eneste reelle ulempen jeg ser er gulvet for små modeller: hvis målet ditt er små edge SLM-er, er dette sannsynligvis ikke verktøyet. Likevel er jeg spent på det. Gleder meg til å se hva folk bygger.
Topp
Rangering
Favoritter
