Diffusjon for alt! Vi deler en oppskrift for å starte fra en forhåndstrent autoregressiv VLM, og med svært lite treningsberegning og noen fine glødetriks, gjør den om til en SOTA-diffusjons-VLM. Forskning på diffusjon for språk utvikler seg veldig raskt, og i mitt sinn gir den en like lovende vei for forenende modaliteter som de 'omni' autoregressive modellene. Fantastisk arbeid ledet av @mariannearr @ServerProcessor i løpet av sommeren.