Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Myśli o kodowaniu...
Kiedy coraz częściej korzystałem z Claude Code i Gemini (przez Sandbox), zauważyłem pewien wzór: model i użytkownik zbliżają się do wspólnego języka interfejsu. Ten interfejs to skompresowana, nienaturalna forma angielskiego, która znajduje się pomiędzy normalnym angielskim a kodem.
Modele skoncentrowane na kodzie preferują zorganizowane instrukcje: wyraźne ograniczenia, kolejność kroków, wejścia/wyjścia, przypadki brzegowe, kryteria akceptacji.
Ludzie preferują naturalny angielski: kontekst, intencję i domyślne znaczenie.
Tarcia występują, ponieważ żadna ze stron nie jest w pełni biegła w rodzimym formacie drugiej strony, więc znaczenie się gubi.
Moje podpowiedzi były zatem suboptymalne w ten sam sposób, w jaki silny akcent jest suboptymalny: intencja jest poprawna, ale transmisja jest niespójna, więc model błędnie interpretuje szczegóły, a liczba iteracji wzrasta.
Rozwiązaniem było dodanie warstwy tłumaczenia.
Używam modelu LLM, który nie jest skoncentrowany na kodzie (ChatGPT), aby wziąć moją intencję wyrażoną w prostym angielskim i przekształcić ją w precyzyjną podpowiedź w formacie, który modele skoncentrowane na kodzie najlepiej obsługują.
To zmniejszyło nieporozumienia i znacznie skompresowało cykl budowy 0→1.
Mocna rekomendacja: użyj modelu tłumaczącego, aby przekształcić intencję w zorganizowaną podpowiedź przed wysłaniem jej do modeli kodowych.
Najlepsze
Ranking
Ulubione
