> trở thành arcee > nhìn xung quanh > nhận ra rằng trọng số mở MoE về cơ bản là một độc quyền Qwen/DeepSeek > quyết định “không, chúng tôi sẽ tự xây dựng” > huấn luyện trước thực sự từ đầu đến cuối > trên đất Mỹ > giới thiệu Trinity > Nano (6B MoE) và Mini (26B MoE) > trọng số mở, Apache 2.0 > miễn phí trên OpenRouter tạm thời > Nano: mô hình tính cách với 800M tham số hoạt động > Mini: mô hình lý luận với 3B hoạt động > Lớn: đang huấn luyện ngay bây giờ trên 2048 B300s vì sao không > tương lai là rõ ràng > các mô hình sẽ không phải là thiết bị tĩnh > chúng sẽ là các hệ thống phát triển > thích ứng > học từ người dùng của bạn > huấn luyện lại từ việc sử dụng trực tiếp > bạn không thể làm điều đó nếu bạn không sở hữu trọng số > hoặc vòng lặp huấn luyện > vì vậy arcee lật bàn > quyết định tự huấn luyện mọi thứ > bước 1: AFM-4.5B > 8T token được chọn lọc > huấn luyện với DatologyAI > thí nghiệm “chúng ta có thể làm điều này không”...