>アーシーだ >周りを見て回ってみて >、オープンウェイトのフロンティアMoEは基本的にQwen/DeepSeekの独占企業だと理解しています >「いや、自分たちで作る」と決める >実際のエンドツーエンドの事前訓練 アメリカ国内での> トリニティの紹介> > ナノ(6B MoE)とミニ(26B MoE) > オープンウェイト、Apache 2.0 >今のところOpenRouterで無料です > Nano:8億人のアクティブパラムを持つパーソナリティモデル > Mini:3Bが有効な推論モデル > Large:今は2048 B300でトレーニング中です。なぜなら、やらない理由があるからです >未来は明白です >モデルは静的な家電ではありません >、それは成長していくシステムになるでしょう 適応> >ユーザーから学ぶ >ライブ使用からの再学習 >重りを持っていなければそれはできません >またはトレーニングループ > アーシーはテーブルをひっくり返す >はすべてを自分たちで事前訓練することに決めます >ステップ1:AFM-4.5B > 8Tキュレーショントークン >DatologyAIでトレーニングを受けています >「本当にこれができるのか」という実験...