Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tinker från Thinking Machines som GA är en av de första lanseringarna på länge som faktiskt känns som träning som en produkt.
De flesta hostade finjusterings-API:er (inklusive OpenAI-stil) är fantastiska när allt du behöver är en ren SFT-genomgång, men så fort du vill göra något ens lite kryddigt: anpassade kursplaner, onlineutvärdering, belöningsformad efterträning, RL-liknande loopar, konstiga batching-/packningstrick: du når taket snabbt och bygger upp halva träningsstacken igen.
Tinker vänder i princip på det: det ger dig ett tränings-API med lågnivåprimitiva (exempel / forward_backward / optim_step / save_state), så du skriver den loop du faktiskt vill ha, och de tar hand om de delar som normalt blir en månads infrastrukturarbete (schemaläggning, skalning, preemptioner, felåterställning, varför dog det här jobbet vid 93%-grejerna).
Det är också LoRA-först, vilket är precis rätt standard för anpassning: du itererar snabbare, kostnaderna håller sig stabila, du kan behålla flera varianter utan att duplicera gigantiska checkpoints, och servering blir mycket mer praktiskt. Jag gillar också att berättelsen inte är handvadig: LoRA kan verkligen matcha full finjustering på många dataset efter träning när du sätter upp det rätt, men om du försöker trycka in en massiv beteendeförändring i en liten adapter (eller om din datamängd bara överskuggar adapterns effektiva kapacitet) kommer du att känna den flaskhalsen och den försvinner inte magiskt.
Den enda verkliga nackdelen jag ser är floor-flooren för små modeller: om ditt mål är små kant-SLM:er är det förmodligen inte verktyget. Ändå är jag taggad på det. Kan inte vänta på att se vad folk bygger.
Topp
Rankning
Favoriter
