Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Typ / Böj / HVM / INets / λCalculus
Japp, ingen modell i världen kommer i närheten av detta
går och lägger sig 100% säker på att jag har rätt i min bedömning
som alltid kommer detta snart att vara sunt förnuft, men jag sa det först (:
Vi ses

Taelin51 minuter sedan
Åh, jag märkte precis att GPT-5:s lösning är identisk med min.
Det här är otroligt
4,51K
nej du har alla fel, GPT-5 är ett språng
Jag fördubblar till 100% här nere
Jag ville inte posta för snabbt och ångra det igen, men det löste bara en massa väldigt, väldigt svåra felsökningsuppmaningar som tidigare var olösta (av AI), och designade sedan ett underbart pixlat Gameboy-spel med en detaljnivå och kvalitet som helt klart är bortom allt annat jag någonsin sett.
Det finns inget sätt att den här modellen är dålig.
Jag tror att ni alla är traumatiserade av benchmaxxers, och överkompenserar mot en modell som faktiskt är bra. Jag tror också att du underskattar gpt-oss styrkor (men ja, mitt senaste inlägg var förhastat)
Jag vet fortfarande inte om det är användbart för seriös programmering dock (o3 var inte), men det verkar så? En kodningsmodell som är lika tillförlitlig som Opus, men ändå smartare än o3, skulle helt förändra mitt arbetsflöde. Opus behöver dock inte tänkas för att vara bra, så det kan väga till dess fördel.
För vad det är värt, jag använde egentligen bara 3 modeller:
- Opus 4.1 för kodning
- Gemini 2.5 mycket sällan för kodning när Opus misslyckas
- O3 för allt utom kodning
22,83K
nej du har alla fel, GPT-5 är ett språng
Jag fördubblar till 100% här nere
Jag ville inte posta för snabbt och ångra det igen, men det löste bara en massa väldigt, väldigt svåra felsökningsuppmaningar som tidigare var olösta (av AI), och designade sedan ett underbart pixlat Gameboy-spel med en detaljnivå och kvalitet som helt klart är bortom allt annat jag någonsin sett.
Det finns inget sätt att den här modellen är dålig.
Jag tror att ni alla är traumatiserade av benchmaxxers, och överkompenserar mot en modell som faktiskt är riktigt bra. Jag tror också att du underskattar gpt-oss styrkor (men ja, mitt senaste inlägg var förhastat)
Jag vet fortfarande inte om det är användbart för seriös programmering dock (4o, o3 var definitivt inte), men det verkar så? En kodningsmodell som är lika tillförlitlig som Opus, men ändå smartare än o3, skulle helt förändra mitt arbetsflöde. Opus behöver dock inte tänkas för att vara bra, så det kan väga till dess fördel.
För vad det är värt, jag använde egentligen bara 3 modeller:
- Opus 4.1 för kodning
- Gemini 2.5 mycket sällan för kodning när Opus misslyckas
- O3 för allt utom kodning
471
"Att förhindra dödsfall är högst oetiskt"

João Pedro de Magalhães6 aug. 06:41
"Det är högst oetiskt att sluta åldras" - granskare kommenterar en av mina anslagsansökningar.
Anslaget fokuserade på cellulär föryngring, inget omnämnande av att bota åldrande, men det visar att vi fortfarande har en lång väg att gå för att övertyga även forskarkollegor om att det är önskvärt att bota åldrandet.
16,07K
Att förhindra dödsfall är högst oetiskt

João Pedro de Magalhães6 aug. 06:41
"Det är högst oetiskt att sluta åldras" - granskare kommenterar en av mina anslagsansökningar.
Anslaget fokuserade på cellulär föryngring, inget omnämnande av att bota åldrande, men det visar att vi fortfarande har en lång väg att gå för att övertyga även forskarkollegor om att det är önskvärt att bota åldrandet.
244
Så gpt-oss 120B kan inte producera korrekt tyska, men spikar ändå komplexa Haskell buggar som inte ens Opus lyckades identifiera?
Hur går det till?
Jag är genuint så förvirrad av allt detta

Björn Plüster6 aug. 04:45
gpt-oss 120B är helt oförmögen att producera språkligt korrekt tysk text. 🧵
246
Mitt första intryck av OpenAI:s OSS-modell är i linje med vad de annonserade. Det känns närmare o3 än andra öppna modeller, förutom att det är mycket snabbare och billigare. Vissa leverantörer erbjuder det till 3000 tokens/s, vilket är vansinnigt. Den är definitivt smartare än Kimi K2, R1 och Qwen 3. Jag testade alla modeller ett tag, och fick mycket bestämda resultat till förmån för OpenAI-OSS-120b.
Tyvärr finns det en sak som dessa modeller inte kan göra ännu - mitt jävla jobb. Så, hoppas ni har kul. Jag kommer att återgå till felsökning av överlagrad λ-kalkyl utvärdering 😭, vi ses
410,38K
Topp
Rankning
Favoriter
Trendande på kedjan
Trendande på X
Senaste toppfinansieringarna
Mest anmärkningsvärda