Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Det låter så dumt, men ett av de största produktivitetshacken när man använder Claude Code med Opus 4.1 är detta: efter att ha bett CC att implementera en funktion eller fixa en bugg eller vad som helst, och efter att CC säger att den har slutfört allting, säger du bara upprepade gånger följande till den om och om igen tills den inte kan hitta fler misstag (vilket ibland tar upp till 7 eller 8 försök!):
"Bra, nu vill jag att du noggrant läser igenom all ny kod du just skrev och annan befintlig kod du just modifierat med "nya ögon", och letar supernoga efter eventuella uppenbara buggar, fel, problem, problem, förvirring, etc."
Ja, det tar ett tag, men det är därför det är så praktiskt att ha ett gäng CC-sessioner öppna på en gång. Sedan kan du bara rotera mellan dem och klistra in den meningen om och om igen.
På något sätt förändrar "fräscha ögon"-grejen hur den uppfattar vad den just skrev på ett riktigt hjälpsamt sätt.
Konstigt nog verkar det här tricket inte fungera lika bra med GPT-5-tänkandet - det tenderar att bara säga "Japp, allt ser bra ut!" Claude är mycket mer benägen att tveka och göra slarviga misstag första gången, men är bra på att fånga dem om han får tillräckligt många chanser.
4,82K
Den på OpenAI bestämde sig för att bryta API:et för GPT-5 (och o3, det är ett gammalt problem) för att ändra parametern "max_tokens" till "max_completion_tokens" i ett försök att göra saker tydligare... Du gjorde ett stort misstag. Det kommer aldrig att täcka de oräkneliga timmar som utvecklare slösar bort på trasig kod.

1,42K
Efter ytterligare flera dagar av intensiv användning av GPT-5 via Cursor och via GPT-5 Pro-modellen i webbappen står jag fast vid allt jag sagt om att den är en mycket smartare modell och bättre på att koda än Opus 4.1
Jag gillar fortfarande Opus och tycker att ergonomin i Claude Code är trevligare på många sätt, men om du försöker göra riktigt svåra saker som kräver riktigt smart första-princip-tänkande och datavetenskap är GPT-5 nästa nivå.
Men jag misstänker att detta bara framträder när resonemangsansträngningsläget är inställt på åtminstone medium, och verkligen manifesterar sig med inställningen för hög ansträngning.
Ett bra exempel på ett problem är att förbereda "röda linjer" i två långa, komplexa juridiska dokument. Inte olika versioner av samma dokument, utan två olika dokument som kommer från en delad allmän mall.
Detta är ett mycket, mycket svårt problem att göra ett bra jobb med, och kräver många smarta knep och heuristik för att ge anständig prestanda och utdatakvalitet (jag pratar om att använda traditionella programmeringstekniker här, inte att använda LLM:er för att göra denna jämförelse).
GPT-5 med Cursor agent kan helt enkelt komma på fler, bättre, smarta (men ändå pragmatiska) idéer snabbare och implementera dessa korrekt och utan mycket handhållning, jämfört med Opus4.1.
Det beror dock på vad du arbetar med. Jag tror fortfarande att jag föredrar frontend-kod i NextJS av Opus, till exempel.
Men du bör absolut kolla själv på dina egna faktiska problem och inte lita på alla de många människor som säger att modellen suger och att det är ett bevis på att vi har gått in i väggen.
Antingen använder de den dåliga gratisversionen utan att tänka, eller så har de ingen aning om hur man frågar effektivt, eller så låter de sina känslor för OpenAI och Altman färga sina åsikter.
35,97K
Jag tror att den största komplimangen jag kan ge @patrickc och Stripe-teamet är att de har ett så gott rykte och en så bra meritlista när det gäller att skapa riktigt polerat och intuitivt UI/UX för sina tjänster att det är mycket praktiskt att referera till dem vid namn i kodningsuppmaningar för att få bättre resultat från AI-kodningsagenter.
Till exempel har jag en variant av detta sparad i min textredigerare och klistrar in den i Claude Code minst 10 gånger om dagen:
"Jag vill att du ska göra ett spektakulärt jobb med att bygga UI/UX-komponenter i absolut världsklass för att visa dessa betygsrapporter, som visar både detaljerna och även som "märken" eller "sammanfattningskort", med ett intensivt fokus på att göra det mest visuellt tilltalande, användarvänliga, intuitiva, smarta, polerade, "Stripe-nivå" av UI/UX av kvalitet som möjligt för detta som utnyttjar de bra biblioteken som redan är en del av projektet."
Sedan säger jag till den att vad den än gjorde är den verkligen inte så bra ("gud-hemsk" eller "otroligt dålig") även om den redan är ganska bra, och att den måste DRAMATISKT förbättra den för att verkligen komma till Stripe-klassens nivåer av användarglädje och smidighet, polering, intuitivitet, etc.
I grund och botten handlar det om att tillämpa Steve Jobs Gaslighting-teknik för att iterativt uppnå "vansinnigt bra" resultat.
Och ja, det fungerar otroligt bra om du fortsätter att göra det om och om igen. Tricket är att du måste inkludera ALLA dessa adjektiv, annars kommer det att övergå till ikoner som snurrar runt och pulserar som akrobater ("snyggt" och "visuellt tilltalande"); du behöver de andra termerna som "polerad" och "intuitiv" och "Stripe-nivå" för att dämpa det, så det är också något minimalistiskt och trevligt att använda i praktiken.
Jag är glad att jag inte behöver arbeta för mig som AI-agent :/
1,7K
Läs bara det nya GSPO-dokumentet från Qwen-teamet.
Det är lustigt hur mycket dessa stora teoretiska förbättringar, trots att de har en till synes djup grundläggande grund (i det här fallet att det är bättre att optimera över tokensekvenser än att optimera över enskilda tokens), i slutändan handlar om att bara låta gradienterna flyta bättre genom att undvika numeriska konditioneringsproblem.
När du tar ett steg tillbaka och tittar på det är GSPO i grunden ett sätt att få bättre numerisk konditionering genom att beräkna medelvärdet av saker och ting mer i uppdateringar för att undvika bullriga stötar (nästan som att använda momentum i rmsprop eller Adam) och även ignorera uppdateringar som skulle leda till numeriskt "farliga" situationer när det gäller konditionering.
Men det hela är logiskt ur ett historiskt perspektiv, eftersom djupinlärning verkligen exploderade när vi kom på hur vi skulle undvika problemet med försvinnande/exploderande gradient genom att använda saker som momentum i optimerare. Så på ett sätt är detta helt enkelt det senaste steget i den traditionen att navigera i förlustlandskapet på ett mer robust sätt för att undvika att "köra i diket".
3,33K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda