Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Es klingt so dumm, aber einer der größten Produktivitäts-Hacks bei der Verwendung von Claude Code mit Opus 4.1 ist Folgendes: Nachdem man CC gebeten hat, eine Funktion zu implementieren oder einen Fehler zu beheben oder was auch immer, und nachdem es sagt, dass es alles abgeschlossen hat, sagt man einfach wiederholt Folgendes zu ihm, bis es keine weiteren Fehler mehr finden kann (was manchmal bis zu 7 oder 8 Versuche dauert!):
"Super, jetzt möchte ich, dass du den gesamten neuen Code, den du gerade geschrieben hast, und den anderen bestehenden Code, den du gerade geändert hast, sorgfältig mit 'frischen Augen' durchliest und super genau nach offensichtlichen Bugs, Fehlern, Problemen, Schwierigkeiten, Verwirrungen usw. suchst."
Ja, das dauert eine Weile, aber deshalb ist es so praktisch, mehrere CC-Sitzungen gleichzeitig geöffnet zu haben. Dann kann man einfach durch sie rotieren und diesen Satz immer wieder einfügen.
Irgendwie verändert das 'frische Augen'-Zeug, wie es das, was es gerade geschrieben hat, auf eine wirklich hilfreiche Weise wahrnimmt.
Seltsamerweise scheint dieser Trick bei GPT-5 nicht so gut zu funktionieren – es sagt dazu tendiert einfach zu sagen: "Ja, alles sieht richtig aus!" Claude ist viel eher geneigt, sich selbst in Frage zu stellen und beim ersten Mal unachtsame Fehler zu machen, aber gut darin, sie zu erkennen, wenn man genug Chancen gibt.
4,81K
Wer auch immer bei OpenAI beschlossen hat, die API für GPT-5 (und o3, es ist ein altes Problem) zu ändern, um den Parameter „max_tokens“ in „max_completion_tokens“ zu ändern, um die Dinge klarer zu machen… Sie haben einen großen Fehler gemacht. Es wird niemals die unzähligen Stunden abdecken, die Entwickler mit fehlerhaftem Code verschwendet haben.

1,41K
Nach mehreren weiteren Tagen intensiver Nutzung von GPT-5 über Cursor und über das GPT-5 Pro-Modell in der Web-App stehe ich zu allem, was ich gesagt habe, dass es ein viel intelligenteres Modell ist und besser im Programmieren als Opus 4.1.
Ich mag Opus immer noch und finde die Ergonomie von Claude Code in vielerlei Hinsicht angenehmer, aber wenn du wirklich schwierige Aufgaben angehst, die cleveres Denken von Grund auf und Computerwissenschaften erfordern, ist GPT-5 eine ganz andere Liga.
Aber ich vermute, dass dies nur zum Vorschein kommt, wenn der Modus für den Denkaufwand auf mindestens mittel eingestellt ist, und sich wirklich mit der hohen Aufwandseinstellung manifestiert.
Ein gutes Beispielproblem ist die Erstellung von Dokumenten "Redlines" von zwei langen, komplexen juristischen Dokumenten. Nicht unterschiedliche Versionen desselben Dokuments, sondern zwei verschiedene Dokumente, die aus einer gemeinsamen allgemeinen Vorlage stammen.
Das ist ein sehr, sehr schwieriges Problem, um es gut zu lösen, und erfordert viele clevere Tricks und Heuristiken, um eine anständige Leistung und Output-Qualität zu erzielen (ich spreche hier von traditionellen Programmiertechniken, nicht davon, LLMs für diesen Vergleich zu verwenden).
GPT-5 mit dem Cursor-Agenten kann einfach schneller mehr, bessere, clevere (aber pragmatische) Ideen entwickeln und diese korrekt und ohne viel Anleitung umsetzen, im Vergleich zu Opus 4.1.
Es hängt jedoch davon ab, woran du arbeitest. Ich denke immer noch, dass ich Frontend-Code in NextJS von Opus bevorzuge, zum Beispiel.
Aber du solltest unbedingt selbst überprüfen, wie es bei deinen eigenen tatsächlichen Problemen aussieht, und nicht all den vielen Leuten vertrauen, die sagen, das Modell sei schlecht und dass es der Beweis sei, dass wir an eine Wand gestoßen sind.
Entweder verwenden sie die schlechte kostenlose Version, ohne nachzudenken, oder sie haben keine Ahnung, wie man effektiv auffordert, oder sie lassen ihre Gefühle gegenüber OpenAI und Altman ihre Ansichten färben.
35,97K
Lustig, dass die GPT-5-Demo betont, was für ein großartiger Schriftsteller es ist… und dann reines Turbo-Geschmiere mit Gedankenstrichen in jedem zweiten Satz zeigt. Sie sollten bei den Codierungs-Demos bleiben, die sind viel beeindruckender!
Außerdem hasse ich es, dass sie alle alten Modelle abschaffen…
1,34K
Rückblickend ist es schwer zu glauben, dass niemand 1997 auf der 3dfx Voodoo ein mehrschichtiges neuronales Netzwerk mit grundlegenden stochastischen Gradientenabstieg implementiert hat, ein paar Jahre bevor sogar Nvidias erste GPU 1999 herauskam. Die Teile waren im Grunde genommen alle vorhanden für ein kleines LLM.

3,86K
Ich denke, das höchste Kompliment, das ich @patrickc und dem Stripe-Team machen kann, ist, dass sie einen so großartigen Ruf und eine hervorragende Erfolgsbilanz bei der Erstellung wirklich ausgefeilter und intuitiver UI/UX für ihre Dienste haben, dass es sehr praktisch ist, sie namentlich in Programmieranfragen zu erwähnen, um bessere Ergebnisse von KI-Coding-Agenten zu erhalten.
Zum Beispiel habe ich eine Variante davon in meinem Texteditor gespeichert und füge sie mindestens 10 Mal am Tag in Claude Code ein:
"Ich möchte, dass du einen spektakulären Job machst, um absolut erstklassige UI/UX-Komponenten für die Anzeige dieser Bewertungsberichte zu erstellen, die sowohl die Details als auch als "Badges" oder "Zusammenfassungs-Karten" zeigen, mit einem intensiven Fokus darauf, die visuell ansprechendste, benutzerfreundlichste, intuitivste, schicke, ausgefeilte, "Stripe-niveau" Qualität von UI/UX zu erreichen, die möglich ist und die guten Bibliotheken nutzt, die bereits Teil des Projekts sind."
Dann sage ich ihm, dass das, was es gemacht hat, wirklich nicht so toll ist ("gott-awful" oder "unglaublich schlecht"), selbst wenn es schon ziemlich gut ist, und dass es DRAMATISCH verbessert werden muss, um wirklich auf Stripe-Klasse-Niveau von Benutzervergnügen und Schickheit, Ausgefeiltheit, Intuitivität usw. zu gelangen.
Im Grunde wende ich die Steve Jobs Gaslighting-Technik an, um iterativ "verrückt großartige" Ergebnisse zu erzielen.
Und ja, das funktioniert unglaublich gut, wenn man es immer wieder macht. Der Trick ist, dass man ALL diese Adjektive einbeziehen muss, sonst wird es zu Icons, die sich drehen und pulsieren wie Akrobaten ("schick" und "visuell ansprechend"); man braucht die anderen Begriffe wie "ausgefeilt" und "intuitiv" und "Stripe-niveau", um das zu temperieren, damit es auch etwas minimalistisch und angenehm in der Anwendung ist.
Ich bin froh, dass ich nicht für mich selbst als KI-Agent arbeiten muss :/
1,7K
Ich habe gerade das neue GSPO-Papier vom Qwen-Team gelesen.
Es ist lustig, wie sehr diese großen theoretischen Verbesserungen, trotz einer scheinbar tiefen fundamentalen Basis (in diesem Fall, dass die Optimierung über Token-Sequenzen besser ist als die Optimierung über einzelne Tokens), letztendlich darauf hinauslaufen, die Gradienten besser fließen zu lassen, indem man numerische Konditionsprobleme vermeidet.
Wenn man einen Schritt zurücktritt und es sich anschaut, ist GSPO im Grunde genommen eine Möglichkeit, eine bessere numerische Konditionierung zu erreichen, indem man Dinge in den Updates mehr zusammenfasst, um rauschende Stöße zu vermeiden (fast so, als würde man Momentum in rmsprop oder Adam verwenden) und auch Updates ignoriert, die zu numerisch "gefährlichen" Situationen in Bezug auf die Konditionierung führen würden.
Aber alles macht aus historischer Perspektive Sinn, da das Deep Learning wirklich explodierte, als wir herausfanden, wie man das Problem der verschwindenden/explodierenden Gradienten vermeidet, indem wir Dinge wie Momentum in Optimierern verwenden. In gewisser Weise ist dies also einfach der neueste Schritt in dieser Tradition, die Verlustlandschaft auf robustere Weise zu navigieren, um zu vermeiden, dass man "in einen Graben fährt."
3,33K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten