Birden fazla 7B LLM'yi sıfırdan önceden eğittik ve yapay zeka uyumsuzluğu söylemine doğal maruz kalmanın modellerin daha yanlış hizalanmasına neden olduğunu bulduk. İyimser olarak, ön eğitimde pozitif sentetik belgeler eklemenin hizalanma eksikliğini azalttığını da görüyoruz. İplik 🧵