Tinker von Thinking Machines, das GA ist, gehört zu den ersten Veröffentlichungen seit einiger Zeit, die sich tatsächlich wie Training als Produkt anfühlen. Die meisten gehosteten Fine-Tune-APIs (einschließlich OpenAI-Stil) sind großartig, wenn alles, was Sie brauchen, ein sauberer SFT-Lauf ist, aber sobald Sie auch nur etwas Gewagtes tun möchten: benutzerdefinierte Lehrpläne, Online-Bewertungen, belohnungsgeformtes Post-Training, RL-ähnliche Schleifen, seltsame Batch-/Packtricks: stoßen Sie schnell an die Grenzen und müssen die Hälfte eines Trainingsstacks neu aufbauen. Tinker kehrt das im Grunde um: Es gibt Ihnen eine Trainings-API mit Low-Level-Primitiven (sample / forward_backward / optim_step / save_state), sodass Sie die Schleife schreiben, die Sie tatsächlich wollen, und sie kümmern sich um die Teile, die normalerweise in einen Monat Infrastrukturarbeit umschlagen (Planung, Skalierung, Unterbrechungen, Fehlerbehebung, das Warum ist dieser Job bei 93% gestorben). Es ist auch LoRA-first, was genau das richtige Standard für Anpassungen ist: Sie iterieren schneller, die Kosten bleiben im Rahmen, Sie können mehrere Varianten behalten, ohne riesige Checkpoints zu duplizieren, und das Bereitstellen wird viel praktischer. Ich mag auch, dass die Geschichte nicht vage ist: LoRA kann wirklich mit vollem Fine-Tuning auf vielen Post-Training-Datensätzen mithalten, wenn Sie es richtig einrichten, aber wenn Sie versuchen, einen massiven Verhaltenswechsel in einen kleinen Adapter zu quetschen (oder Ihr Datensatz einfach die effektive Kapazität des Adapters übersteigt), werden Sie diesen Engpass spüren und er wird nicht magisch verschwinden. Der einzige echte Nachteil, den ich sehe, ist die kleine Modellgrenze: Wenn Ihr Ziel winzige Edge-SLMs sind, ist dies wahrscheinlich nicht das richtige Werkzeug. Trotzdem bin ich gespannt darauf. Ich kann es kaum erwarten zu sehen, was die Leute bauen.