Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tinker de la Thinking Machines fiind GA este una dintre primele lansări de ceva vreme care chiar se simte ca un antrenament ca produs.
Majoritatea API-urilor fine-tune găzduite (inclusiv în stil OpenAI) sunt grozave când tot ce ai nevoie este o rundă SFT curată, dar în momentul în care vrei să faci ceva măcar puțin picant: curriculum personalizat, evaluare online, post-training în formă de recompensă, cicluri asemănătoare cu RL, trucuri ciudate de loting/packing: ajungi rapid la plafon și ajungi să reconstruiești jumătate dintr-un stack de antrenament.
Tinker practic inversează asta: îți oferă un API de antrenament cu primitive de nivel scăzut (sample / forward_backward / optim_step / save_state), astfel încât scrii bucla pe care chiar o dorești, iar ei se ocupă de părțile care de obicei se transformă într-o lună de muncă infrastructurală (programare, scalare, preemțiuni, recuperare în caz de defecte, de ce a murit acest job la 93%).
Este și LoRA-first, ceea ce este exact implicit implicit pentru personalizare: iterezi mai repede, costurile rămân sănătoase, poți păstra mai multe variante fără să duplici puncte uriașe de control, iar serviciul devine mult mai practic. Îmi place și faptul că povestea nu e vagă: LoRA chiar poate face față ajustării fine complete pe multe seturi de date post-antrenament atunci când îl configurezi corect, dar dacă încerci să înghesui o schimbare masivă de comportament într-un adaptor mic (sau setul tău de date depășește cu mult capacitatea efectivă a adaptorului), vei simți acel blocaj și nu va dispărea magic.
Singurul dezavantaj real pe care îl văd este podea pentru modele mici: dacă scopul tău sunt SLM-uri cu margini mici, probabil că acesta nu este instrumentul potrivit. Totuși, sunt entuziasmat de asta. Abia aștept să văd ce construiesc oamenii.
Limită superioară
Clasament
Favorite
