> быть arcee > осмотреться > понять, что открытые веса MoE на самом деле представляют собой монополию Qwen/DeepSeek > решить: "нет, мы создаем свои" > фактическое полное предварительное обучение > на территории США > представляем Trinity > Nano (6B MoE) и Mini (26B MoE) > открытые веса, Apache 2.0 > бесплатно на OpenRouter пока что > Nano: модель личности с 800M активных параметров > Mini: модель рассуждений с 3B активных > Large: обучение сейчас на 2048 B300s, потому что почему бы и нет > будущее очевидно > модели не будут статичными устройствами > они будут системами, которые растут > адаптируются > учатся у ваших пользователей > переобучаются на основе живого использования > вы не можете этого сделать, если не владеете весами > или циклом обучения > так что arcee переворачивает стол > решает предварительно обучить все самостоятельно > шаг 1: AFM-4.5B > 8T кураторских токенов > обучено с DatologyAI > эксперимент "можем ли мы это сделать"...