Tinker z Thinking Machines jako GA je jedním z prvních uvedení na trh po dlouhé době, které skutečně působí jako trénink produktu. Většina hostovaných fine-doladěných API (včetně OpenAI) je skvělá, když potřebujete jen čistý SFT běh, ale jakmile chcete dělat něco i trochu pikantního: vlastní osnovy, online hodnocení, odměny po tréninku, RL-podobné smyčky, podivné triky s dávkováním/balením: rychle narazíte na strop a nakonec znovu sestavíte polovinu tréninkového stacku. Tinker to v podstatě obrací: dá vám tréninkové API s nízkoúrovňovými primitivy (sample / forward_backward / optim_step / save_state), takže napíšete smyčku, kterou skutečně chcete, a oni se postarají o části, které se obvykle promění v měsíc infrastruktury (plánování, škálování, preemptions, obnova po selhání, proč tato práce zemřela na 93 %). Je to také LoRA první, což je přesně ten správný výchozí bod pro přizpůsobení: iterujete rychleji, náklady zůstávají rozumné, můžete mít více variant bez duplikování obřích checkpointů a servírování je mnohem praktičtější. Líbí se mi také, že příběh není zmatený: LoRA opravdu dokáže plně doladit spoustu datových sad po tréninku, když ji správně nastavíte, ale pokud se snažíte nacpat obrovskou změnu chování do malého adaptéru (nebo vaše datasada prostě převyšuje efektivní kapacitu adaptéru), pocítíte to úzké hrdlo a nezmizí zázračně. Jedinou skutečnou nevýhodou, kterou vidím, je podlaha malého modelu: pokud chcete malé okrajové SLM, pravděpodobně to není ten správný nástroj. Přesto jsem z toho nadšený. Nemůžu se dočkat, co lidé postaví.