Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tinker van Thinking Machines die GA is een van de eerste lanceringen in een tijdje die daadwerkelijk aanvoelt als training als een product.
De meeste gehoste fine-tune API's (inclusief OpenAI-stijl) zijn geweldig wanneer je alleen een schone SFT-run nodig hebt, maar zodra je iets wilt doen dat zelfs maar een beetje spannend is: aangepaste curricula, online evaluatie, beloningsvormige post-training, RL-achtige lussen, vreemde batching/pakketricks: je raakt snel de limiet en eindigt met het herbouwen van de helft van een trainingsstack.
Tinker draait dat eigenlijk om: het geeft je een training API met low-level primitieve functies (sample / forward_backward / optim_step / save_state), zodat je de lus kunt schrijven die je daadwerkelijk wilt, en zij zorgen voor de onderdelen die normaal gesproken uitmonden in een maand infra-werk (planning, schaling, onderbrekingen, foutherstel, het waarom is deze taak gestorven bij 93% dingen).
Het is ook LoRA-first, wat precies de juiste standaard is voor aanpassing: je iteraties gaan sneller, de kosten blijven redelijk, je kunt meerdere varianten behouden zonder enorme checkpoints te dupliceren, en het serveren wordt veel praktischer. Ik vind het ook leuk dat het verhaal niet vaag is: LoRA kan echt volledige fine-tuning evenaren op veel post-training datasets wanneer je het goed instelt, maar als je probeert een enorme gedragsverandering in een kleine adapter te proppen (of je dataset gewoon de effectieve capaciteit van de adapter overschrijdt), zul je die bottleneck voelen en het zal niet magisch verdwijnen.
De enige echte nadeel die ik zie is de kleine-model vloer: als je doel kleine edge SLM's zijn, is dit waarschijnlijk niet de juiste tool. Toch ben ik er enthousiast over. Kan niet wachten om te zien wat mensen bouwen.
Boven
Positie
Favorieten
