Tinker di Thinking Machines, essendo GA, è uno dei primi lanci da un po' di tempo che sembra davvero un prodotto di training. La maggior parte delle API di fine-tuning ospitate (incluso lo stile OpenAI) sono fantastiche quando tutto ciò di cui hai bisogno è un'esecuzione SFT pulita, ma nel momento in cui vuoi fare qualcosa di anche solo leggermente piccante: curricula personalizzati, valutazioni online, post-training a forma di ricompensa, loop simili a RL, trucchi strani di batching/packing: colpisci rapidamente il soffitto e finisci per ricostruire metà di uno stack di training. Tinker fondamentalmente capovolge tutto questo: ti offre un'API di training con primitive a basso livello (sample / forward_backward / optim_step / save_state), così scrivi il loop che desideri realmente, e loro si occupano delle parti che normalmente si trasformano in un mese di lavoro infrastrutturale (programmazione, scalabilità, preemption, recupero da errori, il perché di questo lavoro è morto al 93%). È anche LoRA-first, che è esattamente il giusto default per la personalizzazione: iteri più velocemente, i costi rimangono ragionevoli, puoi mantenere più varianti senza duplicare enormi checkpoint, e il servizio diventa molto più pratico. Mi piace anche che la storia non sia vaga: LoRA può davvero eguagliare il fine-tuning completo su molti dataset post-training quando lo imposti correttamente, ma se stai cercando di comprimere un enorme cambiamento comportamentale in un piccolo adattatore (o il tuo dataset sovrasta semplicemente la capacità effettiva dell'adattatore), sentirai quel collo di bottiglia e non scomparirà magicamente. L'unico vero svantaggio che vedo è il pavimento dei modelli piccoli: se il tuo obiettivo sono SLMs edge piccoli, probabilmente questo non è lo strumento giusto. Tuttavia, sono entusiasta di questo. Non vedo l'ora di vedere cosa costruiranno le persone.