Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
Erreichen Sie Ambitionen mit Intentionalität, Intensität und Integrität
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
unglaubliche Arbeit an der Alignment-Steganographie von den Anthropik-Kollegen
ich habe nach einer straussischen Erklärung gesucht, warum China weiterhin offene Modelle aus der Güte ihrer Herzen veröffentlicht
wenn du Dinge tust wie offene Modelle zu verwenden, um, ich weiß nicht, *hust* synthetisch deine Daten auf Lehrbuchqualität zu paraphrasieren, könntest du sehr wohl Vorurteile importieren, die du erst lange nach dem es zu spät ist, erkennen kannst.
wenn du also dein Wertesystem in den Rest der Welt exportieren möchtest, ist dies das mächtigste Soft Power-Werkzeug, das seit Hollywood erfunden wurde.
um ganz klar zu sein, wir haben keinen tatsächlichen Beweis dafür, dass dies irgendein chinesisches Labor motiviert. aber dieses Papier ist ein klarer Schritt in Richtung einer möglichen Erklärung.


Owain Evans23. Juli, 00:06
Neues Papier & überraschendes Ergebnis.
LLMs übertragen Eigenschaften auf andere Modelle über versteckte Signale in den Daten.
Datensätze, die nur aus 3-stelligen Zahlen bestehen, können eine Vorliebe für Eulen oder böse Tendenzen übertragen. 🧵

21,71K
Herzlichen Glückwunsch an Bee, dass er von Amazon ausgewählt wurde; ähnlich wie Blink, Ring, Eero und natürlich die neuen Claude + Nova + Alexa, denke ich, dass @panos_panay ein ziemlich solides zweites Kapitel der KI-Hardware-Strategie von Amazon zusammenstellt.
Ich wusste, dass Bee gewinnt, als @dharmesh in seinem @latentspacepod mit einem auftauchte.

12,32K
Der Grund, warum die Analyse (und Regulierung sowie PMing) von LLMs schwierig ist*
liegt darin, dass die relevanten DIMENSIONEN sich mit jeder Generation des Grenzmodells verändern; es reicht nicht aus, einfach die x- oder y-Achse im Logarithmusmaßstab darzustellen und Skalierungsgesetze zu verfolgen, man muss tatsächlich die Arbeit leisten, um darüber nachzudenken, wie sich Modelle strukturell in 2025 im Vergleich zu 2024 und 2023 usw. unterscheiden.
eg
everyone focused on elo for 2 years, elo gets gamed and loses credibility
everyone focused on price per tokens for 3 years, reasoning models have 10-40x variation in output tokens per task, price per token loses meaning
Sammle Daten, so viel du willst, aber wenn du nur makellose Zeitreihen sammelst, kannst du das größere Bild aus den Augen verlieren.
*(und warum Aussagen wie „AI Engineer ist kein Beruf, weil alle Software-Ingenieure AI-Ingenieure sind“ nur eine Ausrede sind und niemals richtig sein werden, außer im trivialsten Sinne)

Scott Huston22. Juli, 08:30
Gibt es eine öffentliche Tabelle aller führenden LLM-Modelle von verschiedenen Unternehmen, die deren Preise, Benchmark-Ergebnisse, Arena-Elo-Punkte usw. zeigt?
9,72K
swyx erneut gepostet
🆕 Veröffentlichung unseres gesamten RL + Reasoning Tracks!
mit:
• @willccbb, Prime Intellect
• @GregKamradt, Arc Prize
• @natolambert, AI2/Interconnects
• @corbtt, OpenPipe
• @achowdhery, Reflection
• @ryanmart3n, Bespoke
• @ChrSzegedy, Morph
mit einem speziellen 3-stündigen Workshop von:
@danielhanchen von Unsloth!
startet hier:
Viel Spaß am Wochenende beim Zuschauen! und danke an @OpenPipeAI für die Unterstützung und das Hosting dieses Tracks!

106,66K
swyx erneut gepostet
Wenn, wie @sgrove vorschlägt, Spezifikationen der Code der Zukunft sind, was ist dann Debugging?
1) Die Spezifikationskompilierung ist der Prozess, bei dem ein Codierungsagent Spezifikationen in Code umwandelt.
2) Immer mehr "Kompilierung" wird unbeaufsichtigt sein, weniger das Beobachten des Agenten, der diff für diff arbeitet, mehr Spezifikation rein, Code raus.
3) Typfehler -> Wahrheitsfehler: Das meiste Debugging wird darin bestehen, durch Forschungs- und Implementierungspläne in Markdown zu graben, um die eine Zeile falschen Kontexts zu finden, die dazu führt, dass der Codierungsagent bei der Implementierung scheitert. Test-Suiten werden unter anderem auf Wahrheit und logische Konsistenz prüfen.
4) Es gibt eine neue höhere Ordnung von "einen Schritt-Debugger anhängen", bei der man den Agenten Schritt für Schritt einen Plan umsetzen sieht, um den logischen Fehler in der Spezifikation zu lokalisieren. Wenn man einen Fehler findet, während man ein Programm Zeile für Zeile durchgeht, ändert man den Code, startet den Prozess neu und wiederholt das, bis es funktioniert. Wenn man einen Fehler in einer *Spezifikation* findet, während man eine Implementierung durchgeht, geht man flussaufwärts, behebt die Spezifikation und startet die *Implementierung* neu.
10,27K
Wir veröffentlichen jeden Tag einen Track aus der @aidotengineer Konferenz jetzt*. Der RecSys-Track von gestern war ein großer Erfolg - aber der heißeste Track war unsere Berichterstattung über den Stand von MCP, moderiert von @Calclavia.
Mein persönlicher Lieblingsslide ist dieser, wo ich realisierte, dass @AnthropicAI MCP - viel - härter dogfooded als ich ursprünglich aus unserem Podcast mit @dsp_ und @jspahrsummers dachte.
Schaut euch diese Vorträge an und gebt euren Lieblingsrednern ein Shoutout!
*Die meisten sind bereits als "unlisted" über die "Complete Playlist" verfügbar, wenn ihr sucht.

21,68K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten