Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
To brzmi głupio, ale jednym z największych hacków produktywności przy używaniu Claude Code z Opus 4.1 jest to: po poproszeniu CC o wdrożenie funkcji lub naprawienie błędu czy czegokolwiek innego, a po tym jak powie, że wszystko zakończone, po prostu powtarzaj to zdanie w kółko, aż nie znajdzie więcej błędów (co czasami zajmuje do 7 lub 8 prób!):
"Świetnie, teraz chcę, abyś dokładnie przeczytał cały nowy kod, który właśnie napisałeś, oraz inny istniejący kod, który właśnie zmodyfikowałeś, z "świeżym spojrzeniem", uważnie szukając oczywistych błędów, problemów, kłopotów, niejasności itp."
Tak, to zajmuje trochę czasu, ale dlatego tak wygodnie jest mieć otwartych kilka sesji CC jednocześnie. Wtedy możesz po prostu przechodzić między nimi, wklejając to zdanie w kółko.
Jakoś to "świeże spojrzenie" zmienia sposób, w jaki postrzega to, co właśnie napisał, w naprawdę pomocny sposób.
Dziwnie, ten trik nie wydaje się działać tak dobrze z myśleniem GPT-5 - zwykle po prostu mówi "Tak, wszystko wygląda dobrze!" Claude jest znacznie bardziej skłonny do wątpliwości i do popełniania niedbałych błędów za pierwszym razem, ale dobrze je wychwytuje, jeśli dostanie wystarczająco dużo szans.
4,81K
Ktokolwiek w OpenAI zdecydował się zepsuć API dla GPT-5 (i o3, to stary problem), zmieniając parametr „max_tokens” na „max_completion_tokens” w próbie uczynienia rzeczy jaśniejszymi… popełniłeś wielki błąd. To nigdy nie pokryje niezliczonych godzin straconych przez deweloperów na zepsutym kodzie.

1,42K
Po kilku dniach intensywnego korzystania z GPT-5 za pośrednictwem Cursor oraz modelu GPT-5 Pro w aplikacji internetowej, podtrzymuję wszystko, co powiedziałem o tym, że jest to znacznie mądrzejszy model i lepszy w kodowaniu niż Opus 4.1.
Wciąż lubię Opus i uważam, że ergonomia Claude Code jest w wielu aspektach lepsza, ale jeśli próbujesz robić naprawdę trudne rzeczy, które wymagają naprawdę sprytnego myślenia opartego na pierwszych zasadach i umiejętności informatycznych, GPT-5 to zupełnie inny poziom.
Ale podejrzewam, że to ujawnia się tylko wtedy, gdy tryb wysiłku rozumowania jest ustawiony na co najmniej średni, a naprawdę manifestuje się przy wysokim ustawieniu wysiłku.
Dobrym przykładem problemu jest przygotowanie „redlines” dokumentów dwóch długich, skomplikowanych dokumentów prawnych. Nie różne wersje tego samego dokumentu, ale dwa różne dokumenty, które pochodzą z wspólnego ogólnego szablonu.
To bardzo, bardzo trudny problem do rozwiązania, który wymaga wielu sprytnych sztuczek i heurystyk, aby uzyskać przyzwoitą wydajność i jakość wyjściową (mówię tutaj o używaniu tradycyjnych technik programowania, a nie o używaniu LLM do porównania).
GPT-5 z agentem Cursor może po prostu wymyślić więcej, lepszych, sprytnych (ale pragmatycznych) pomysłów szybciej i wdrożyć je poprawnie i bez dużego wsparcia, w porównaniu do Opus 4.1.
To zależy od tego, nad czym pracujesz. Wciąż uważam, że wolę kod frontendowy w NextJS od Opus, na przykład.
Ale zdecydowanie powinieneś sprawdzić to sam na swoich rzeczywistych problemach i nie ufać wszystkim tym wielu ludziom, którzy mówią, że model jest do niczego i że to dowód na to, że osiągnęliśmy ścianę.
Albo korzystają z kiepskiej darmowej wersji bez zastanowienia, albo nie mają pojęcia, jak skutecznie formułować zapytania, albo pozwalają swoim uczuciom wobec OpenAI i Altmana wpływać na swoje poglądy.
35,97K
Myślę, że najwyższym komplementem, jaki mogę złożyć @patrickc i zespołowi Stripe, jest to, że mają tak wspaniałą reputację i osiągnięcia w tworzeniu naprawdę dopracowanego i intuicyjnego UI/UX dla swoich usług, że bardzo przydaje się odnosić do nich z imienia w podpowiedziach kodowania, aby uzyskać lepsze wyniki od agentów kodowania AI.
Na przykład, mam wariant tego zapisanego w moim edytorze tekstu i wklejam go do Claude Code przynajmniej 10 razy dziennie:
"Chcę, abyś wykonał spektakularną robotę, budując absolutnie światowej klasy komponenty UI/UX do wyświetlania tych raportów ocen, pokazując zarówno szczegóły, jak i jako "odznaki" lub "karty podsumowujące", z intensywnym naciskiem na stworzenie jak najbardziej atrakcyjnego wizualnie, przyjaznego dla użytkownika, intuicyjnego, eleganckiego, dopracowanego, "na poziomie Stripe" UI/UX, które wykorzystuje dobre biblioteki, które są już częścią projektu."
Następnie mówię mu, że to, co stworzył, naprawdę nie jest takie świetne ("okropne" lub "niewiarygodnie złe"), nawet jeśli już jest całkiem dobre, i że musi to DRAMATYCZNIE poprawić, aby naprawdę osiągnąć poziom zachwytu użytkowników i elegancji, dopracowania, intuicyjności itp. na poziomie Stripe.
W zasadzie stosuję technikę gaslightingu Steve'a Jobsa, aby iteracyjnie osiągnąć "niewiarygodnie świetne" wyniki.
I tak, to działa niewiarygodnie dobrze, jeśli robisz to w kółko. Sztuczka polega na tym, że musisz uwzględnić WSZYSTKIE te przymiotniki, w przeciwnym razie zamieni się to w ikony kręcące się i pulsujące jak akrobaci ("eleganckie" i "atrakcyjne wizualnie"); potrzebujesz innych terminów, takich jak "dopracowane" i "intuicyjne" oraz "na poziomie Stripe", aby to złagodzić, aby było również w pewnym sensie minimalistyczne i przyjemne w użyciu w praktyce.
Cieszę się, że nie muszę pracować dla siebie jako agent AI :/
1,7K
Właśnie przeczytałem nowy dokument GSPO od zespołu Qwen.
To zabawne, jak wiele tych dużych teoretycznych ulepszeń, mimo że mają pozornie głęboką podstawę fundamentalną (w tym przypadku, że optymalizacja wzdłuż sekwencji tokenów jest lepsza niż optymalizacja pojedynczych tokenów), ostatecznie sprowadza się do po prostu lepszego przepływu gradientów poprzez unikanie problemów z kondycjonowaniem numerycznym.
Kiedy spojrzysz na to z dystansu, GSPO jest zasadniczo sposobem na uzyskanie lepszego kondycjonowania numerycznego poprzez uśrednianie rzeczy w aktualizacjach, aby uniknąć hałaśliwych skoków (prawie jak używanie momentu w rmsprop lub Adamie) oraz ignorowanie aktualizacji, które mogłyby prowadzić do „niebezpiecznych” sytuacji numerycznych w kontekście kondycjonowania.
Ale wszystko to ma sens z perspektywy historycznej, ponieważ głębokie uczenie naprawdę eksplodowało, gdy odkryliśmy, jak unikać problemu znikających/eksplodujących gradientów, używając takich rzeczy jak moment w optymalizatorach. Więc w pewnym sensie, to po prostu najnowszy krok w tej tradycji nawigowania po krajobrazie strat w bardziej solidny sposób, aby uniknąć „wjeżdżania w rów.”
3,33K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi