Tinker, do Thinking Machines, sendo GA é um dos primeiros lançamentos em um tempo que realmente parece um treinamento como produto. A maioria das APIs finas hospedadas (inclusive no estilo OpenAI) são incríveis quando tudo que você precisa é de uma run limpa de SFT, mas no segundo em que você quer fazer algo minimamente picante: currículos personalizados, avaliação online, pós-treino em forma de recompensa, loops meio RL, truques estranhos de lote/embalagem: você atinge o teto rápido e acaba reconstruindo metade de uma pilha de treinamento. O Tinker basicamente inverte isso: ele te entrega uma API de treinamento com primitivas de baixo nível (exemplo / forward_backward / optim_step / save_state), então você escreve o loop que realmente quer, e eles cuidam das partes que normalmente se transformam em um mês de trabalho de infraestrutura (escalonamento, escalabilidade, preempções, recuperação de falhas, e por que esse trabalho morreu em 93%). Também é LoRA-first, que é exatamente o padrão certo para personalização: você itera mais rápido, os custos permanecem sanos, pode manter várias variantes sem duplicar checkpoints gigantes, e o saque se torna muito mais prático. Também gosto que a história não seja vaga: LoRA realmente pode igualar o ajuste fino completo em muitos conjuntos de dados pós-treinamento quando você configura direito, mas se você tentar encaixar uma mudança de comportamento enorme em um adaptador pequeno (ou seu conjunto de dados simplesmente supera a capacidade efetiva do adaptador), você vai sentir esse gargalo e ele não vai desaparecer magicamente. A única desvantagem real que vejo é o piso de modelos pequenos: se seu objetivo são SLMs de borda pequena, provavelmente essa não é a ferramenta certa. Ainda assim, estou animado com isso. Mal posso esperar para ver o que as pessoas vão construir.