¡Difusión para todo! Compartimos una receta para comenzar con un VLM autorregresivo preentrenado y, con muy poco cómputo de entrenamiento y algunos buenos trucos de recocido, convertirlo en un VLM de difusión SOTA. La investigación en difusión del lenguaje está progresando muy rápidamente y, en mi opinión, proporciona un camino tan prometedor de modalidades unificadoras como los modelos autorregresivos 'omni'. Increíble trabajo dirigido por @mariannearr @ServerProcessor durante el verano.