「次のトークン予測」には本格的なライバル🤯ができた Ant GroupはLLaDA 2.1をリリースし、LLMの主流パラダイムに挑戦しています。 ほとんどのモデルが一度に1つのトークンを生成するのに対し、LLaDA 2.1は拡散を用いて並列にテキストブロックを生成します。 なぜこれがすべてを変えるのか: → グローバルプランニング:過去を書きながら「未来」を効果的に見ている → 並列生成:連続生成ではなく並列でチャンクを生成するため、はるかに高速です → 大規模効率:16BのMoEアーキテクチャで、1ステップあたり約1.4億のアクティブパラメータしか使用しません。 100%オープンソース。