Până acum am văzut doar postări vagi despre asta, chiar și discursurile AIE și articolele despre fabrici nu spun practic nimic util. Așadar, scriu un ghid mare pas cu pas despre cum să pregătesc LLM pentru codebases prin aplicarea limitelor de complexitate prin LINTERS, atât pentru Python, cât și pentru Typescript Un lucru despre care nimeni nu vorbește este că LLM-urile vor manifesta cu plăcere un comportament de "joc de reguli". În loc să rezolve problemele reale ale codului, vor modifica regulile de linting ca să dispară încălcările Ai nevoie de ceva de genul 4 straturi de protecție pentru a preveni asta. Și dacă lucrezi în modul "ocolește permisiunile", care este singura modalitate de a obține o execuție autonomă cu adevărat lungă a sarcinilor, nimic nu împiedică LLM-urile să modifice hook-uri, reguli de linting sau configurații pre-commit pentru a-și impune voința Teoretic, acest lucru este ușor de rezolvat, doar adaugă protecție reală la dosarele de linting din ham. Dar momentan nu există niciun ham care să suporte asta (din câte știu) Am un articol care acoperă deja aproape tot ce a menționat Karpathy, dacă vrei să înveți