Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

samsja
Führende Forschung an der @PrimeIntellect
samsja erneut gepostet
Ariana vorstellen - die kollaborative agentische IDE basierend auf Claude Code
- Aufgaben mit deinem Team verwalten
- Sie mehreren Codierungsagenten mit ihrer eigenen Maschine & Branch geben
- Mit deinem Team überprüfen
- Agenten fusionieren für dich
Kommentiere "Besser spät als nie", um bald einen Build zu erhalten
4,69K
Ich führe einige Arbeitslasten auf torchtitan mit der Standardkonfiguration aus, 23% mfu, ändere ein wenig die Konfiguration, aktiviere Kompilierung und Flexibilität, erhöhe die Batch-Größe ein wenig --> 58% mfu.
Ich wünschte, wir hätten eine leistungsfähigere Standardkonfiguration im Torch-Ökosystem.
9,35K
Das Ziel von @PrimeIntellect ist dasselbe, sie werden nur nicht zentralisiert oder zusammengelegt sein.

Elon Musk23. Juli, 01:04
Das Ziel von @xAI ist es, innerhalb von 5 Jahren 50 Millionen Einheiten von H100-äquivalenten KI-Computern (aber mit viel besserer Energieeffizienz) online zu haben.
2,62K
Den Zugang zu Rechenleistung zu demokratisieren, ist eine der Kernmissionen von @PrimeIntellect.

AlexVor 14 Stunden
Die Tatsache, dass sich ein Submarkt voller GPU-Pfandleiher entwickelt hat, die das Ende dieser langfristigen Geschäfte weiterverkaufen, fasst es zusammen. Sie sind darauf ausgelegt, dem Anbieter mehr zu nützen als dem Verbraucher.
4,58K
Mir ist bei unserer Veranstaltung in Berlin aufgefallen, dass es in Europa viele talentierte und ehrgeizige junge Menschen gibt. Nur (fast) keine inspirierenden Unternehmen, um die Zukunft zu gestalten, und keine VCs, die den Mut haben, ihnen eine Chance zu geben.
Kein Wunder, dass jeder nach SF kommen will|
44,82K
Open AI wird als eines der inspirierendsten Unternehmen aller Zeiten in Erinnerung bleiben.

Noam Brown19. Juli, 15:52
Heute haben wir bei @OpenAI einen Meilenstein erreicht, den viele für Jahre entfernt hielten: eine Leistung auf Goldmedaillen-Niveau bei der IMO 2025 mit einem allgemeinen reasoning LLM – unter denselben Zeitlimits wie Menschen, ohne Werkzeuge. So bemerkenswert das auch klingt, es ist noch bedeutender als die Schlagzeile 🧵
8,39K
Ich sehe keinen Sinn darin, die Batch-Größe auf GPU-Ebene im Code zu definieren. Das bedeutet, dass man den Batch-Größenparameter manuell ändern muss, wenn man das Experiment hoch- oder herunterskaliert.
Ich nehme an, das wurde historisch in Codebasen gemacht, die kein Gradient Accumulation haben?
1,62K
samsja erneut gepostet
Wenn Sie auf der ICML sind und an verifizierbarer Inferenz interessiert sind, sollten Sie unbedingt an unserem Poster vorbeischauen!
Wir werden TOPLOC vorstellen, eine effiziente Aktivierungs-Hashing-Methode, die in verschiedenen Einstellungen funktioniert, z. B. beim Wechsel von Inferenz-Setups oder sogar Modellen.
16. Juli, 16:30 Uhr, E-1106
1,43K
Top
Ranking
Favoriten
Onchain-Trends
Im Trend auf X
Aktuelle Top-Finanzierungen
Am bemerkenswertesten