jak na razie widziałem tylko niejasne posty na ten temat, nawet rozmowy aie i artykuły fabryczne mówią zasadniczo nic użytecznego. więc piszę dużą instrukcję krok po kroku na temat przygotowania baz kodu do LLM, wymuszając limity złożoności za pomocą linterów, zarówno dla Pythona, jak i TypeScriptu. jedną rzeczą, o której nikt nie mówi, jest to, że LLM-y z przyjemnością będą wykazywać zachowanie "gamingu zasad". zamiast naprawiać rzeczywiste problemy z kodem, po prostu zmodyfikują twoje zasady lintera, aby sprawić, że naruszenia znikną. potrzebujesz czegoś w rodzaju 4 warstw ochrony, aby temu zapobiec. a jeśli pracujesz w trybie "obejścia uprawnień", co jest jedynym sposobem na uzyskanie naprawdę długiego autonomicznego wykonywania zadań, nic nie powstrzymuje LLM-ów przed modyfikowaniem hooków, zasad lintera lub konfiguracji pre-commit, aby osiągnąć swoje cele. teoretycznie to łatwe do naprawienia, wystarczy dodać prawdziwą ochronę do plików dotfiles lintera w samym narzędziu. ale w tej chwili nie ma narzędzia, które faktycznie to wspiera (o ile mi wiadomo). mam artykuł, który już pokrywa praktycznie wszystko, co wspomniał Karpathy, jeśli chcesz się nauczyć.