Tinker від Thinking Machines being GA, — це один із перших запусків за довгий час, який справді відчувається як тренування як продукт. Більшість хостованих fine-tune API (включно з OpenAI) чудові, коли достатньо чистого SFT-проходження, але щойно хочеться зробити щось навіть трохи гостре: кастомні навчальні програми, онлайн-оцінювання, винагороди після тренування, RL-подібні цикли, дивні трюки з пакетуванням/пакуванням: ви швидко досягаєте стелі і врешті-решт перебудовуєте половину тренувального стеку. Tinker фактично це змінює: він дає вам навчальний API з низькорівневими примітивами (зразок / forward_backward / optim_step / save_state), тобто ви пишете той цикл, який справді хочете, а вони займаються тими частинами, які зазвичай перетворюються на місяць інфраструктурної роботи (планування, масштабування, преемпції, відновлення після збоїв, чому ця робота померла на 93%). Це також наслідок LoRA, що є ідеальним варіантом налаштування: ви ітеруєте швидше, вартість залишається розумною, можна тримати кілька варіантів без дублювання великих контрольних точок, а обслуговування стає набагато практичнішим. Мені також подобається, що історія не хвилюється: LoRA справді може зрівнятися з повним тонким налаштуванням багатьох післятренувальних наборів даних, якщо правильно налаштувати, але якщо ви намагаєтеся вмістити масштабну зміну поведінки в маленький адаптер (або ваш набір даних значно перевищує ефективну ємність адаптера), ви відчуєте вузьке місце і воно не зникне чарівним чином. Єдиний реальний мінус, який я бачу, — це підлога для малих моделей: якщо ваша мета — маленькі краєві SLM, це, ймовірно, не той інструмент. Проте я в захваті. Не можу дочекатися, щоб побачити, що люди будують.