passou despercebido: um híbrido Mamba-2+MLA, *pós-treinado* a partir do Llama 3. Sabíamos que GQA=>full MLA é viável. Kimi provou que é possível combinar MLA e atenções lineares (KDA é mais sofisticado que o Mamba2, no entanto), mas eles treinaram do zero. Isto é tecnicamente impressionante.