Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Art / Biegung / HVM / INets / λKalkül
Nein, ihr liegt alle falsch, GPT-5 ist ein Sprung
Ich setze hier zu 100 % darauf
Ich wollte nicht zu schnell posten und es später bereuen, aber es hat gerade eine Menge sehr, sehr schwieriger Debugging-Prompts gelöst, die zuvor (von KI) ungelöst waren, und dann ein wunderschönes pixeliertes Gameboy-Spiel mit einem Detail- und Qualitätsniveau entworfen, das eindeutig über alles hinausgeht, was ich je gesehen habe.
Es gibt keine Möglichkeit, dass dieses Modell schlecht ist.
Ich denke, ihr seid alle traumatisiert von Benchmaxxern und kompensiert übermäßig gegen ein Modell, das tatsächlich gut ist. Ich denke auch, dass ihr die Stärken von gpt-oss unterschätzt (aber ja, mein letzter Post war hastig)
Ich weiß immer noch nicht, ob es für ernsthaftes Programmieren nutzbar ist (o3 war es nicht), aber es scheint so? Ein Codierungsmodell, das so zuverlässig ist wie Opus, aber intelligenter als o3, würde meinen Arbeitsablauf komplett verändern. Opus braucht kein Denken, um großartig zu sein, also könnte das zu seinen Gunsten sprechen.
Was es wert ist, ich habe nur wirklich 3 Modelle verwendet:
- Opus 4.1 für Codierung
- Gemini 2.5 sehr selten für Codierung, wenn Opus versagt
- o3 für alles außer Codierung
6,51K
Nein, ihr liegt alle falsch, GPT-5 ist ein Sprung
Ich setze hier zu 100 % darauf
Ich wollte nicht zu schnell posten und es später bereuen, aber es hat gerade eine Menge sehr, sehr schwieriger Debugging-Prompts gelöst, die zuvor (von KI) ungelöst waren, und dann ein wunderschönes pixeliertes Gameboy-Spiel mit einem Detail- und Qualitätsniveau entworfen, das eindeutig über alles hinausgeht, was ich je gesehen habe.
Es gibt keine Möglichkeit, dass dieses Modell schlecht ist.
Ich denke, ihr seid alle traumatisiert von Benchmaxxern und kompensiert übermäßig gegen ein Modell, das tatsächlich wirklich gut ist. Ich denke auch, dass ihr die Stärken von gpt-oss unterschätzt (aber ja, mein letzter Post war hastig)
Ich weiß immer noch nicht, ob es für ernsthaftes Programmieren nutzbar ist (4o, o3 waren definitiv nicht), aber es scheint so? Ein Codierungsmodell, das so zuverlässig ist wie Opus, aber intelligenter als o3, würde meinen Arbeitsablauf komplett verändern. Opus braucht kein Denken, um großartig zu sein, also könnte das zu seinen Gunsten sprechen.
So viel dazu, ich habe nur wirklich 3 Modelle verwendet:
- Opus 4.1 für Codierung
- Gemini 2.5 sehr selten für Codierung, wenn Opus versagt
- o3 für alles außer Codierung
412
"Den Tod zu verhindern ist höchst unethisch"

João Pedro de Magalhães6. Aug., 06:41
"Es ist äußerst unethisch, das Altern zu stoppen" - ein Gutachter kommentiert eine meiner Förderanträge.
Der Antrag konzentrierte sich auf zelluläre Verjüngung, ohne Erwähnung der Heilung des Alterns, aber es zeigt, dass wir noch einen langen Weg vor uns haben, um selbst andere Wissenschaftler davon zu überzeugen, dass die Heilung des Alterns wünschenswert ist.
16,05K
Der Tod zu verhindern ist höchst unethisch.

João Pedro de Magalhães6. Aug., 06:41
"Es ist äußerst unethisch, das Altern zu stoppen" - ein Gutachter kommentiert eine meiner Förderanträge.
Der Antrag konzentrierte sich auf zelluläre Verjüngung, ohne Erwähnung der Heilung des Alterns, aber es zeigt, dass wir noch einen langen Weg vor uns haben, um selbst andere Wissenschaftler davon zu überzeugen, dass die Heilung des Alterns wünschenswert ist.
218
Also kann gpt-oss 120B kein korrektes Deutsch produzieren, findet aber komplexe Haskell-Fehler, die sogar Opus nicht identifizieren konnte?
Wie passiert das?
Ich bin wirklich so verwirrt von alledem.

Björn Plüster6. Aug., 04:45
gpt-oss 120B ist ganz offensichtlich nicht in der Lage, linguistisch korrektes Deutsch zu produzieren. 🧵
222
Mein erster Eindruck von OpenAIs OSS-Modell stimmt mit dem überein, was sie beworben haben. Es fühlt sich näher an o3 als an anderen offenen Modellen an, außer dass es viel schneller und günstiger ist. Einige Anbieter bieten es mit 3000 Tokens/s an, was verrückt ist. Es ist definitiv intelligenter als Kimi K2, R1 und Qwen 3. Ich habe alle Modelle eine Weile getestet und sehr eindeutige Ergebnisse zugunsten von OpenAI-OSS-120b erhalten.
Leider gibt es eine Sache, die diese Modelle noch nicht können - meinen verdammten Job. Also, ich hoffe, ihr habt Spaß. Ich werde zurück sein, um die superponierte λ-Kalkül-Auswertung zu debuggen 😭 bis bald.
373,7K
nur ein kurzes Update: Wir haben es geschafft, diese Ansprüche zu replizieren.
Guans System erreicht 25 % bei ARC-AGI 1 mit 50 GPU-Stunden.
Ich konnte den Code persönlich jedoch immer noch nicht prüfen, aber, es sei denn, es wird irgendwie geschummelt, scheint dieser Ansatz ARC-AGI-Instanzen mit relativ wenig Rechenleistung zu verallgemeinern.
129,02K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten