Dyfuzja dla wszystkiego! Dzielimy się przepisem, aby zacząć od wstępnie wytrenowanego autoregresywnego VLM i, przy bardzo małej mocy obliczeniowej oraz kilku fajnych sztuczkach z wygładzaniem, przekształcić go w VLM SOTA dyfuzji. Badania nad dyfuzją w języku postępują bardzo szybko i moim zdaniem, oferują obiecującą ścieżkę do unifikacji modalności, podobnie jak modele autoregresywne 'omni'. Niesamowita praca prowadzona przez @mariannearr @ServerProcessor latem.