Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Ingenieur. Forscher. Stonk Enjoyer. Scheiße-Poster. Ich sammle Daten zu Optionen und so weiter und poste sie auf X.
Hallo zusammen, die sagen, dass die KI-Rechenleistung günstiger wird. OpenAI hat in den letzten 3 Jahren etwa 1,20 $ pro kWh Rechenleistung verdient. Null Kostenreduktion in 3 Jahren.
Bequem, es braucht etwa 1 kW, um ein H100 zu betreiben, also verdienen sie 1,20 $ pro GPU-Stunde. Reservierte Instanzen kosten zwischen 2 und 7 $/Stunde pro GPU (werden auch von fast allen mit Verlust betrieben). Im BESTEN BESTEN Fall wird OpenAI in diesem Jahr voraussichtlich 20 Milliarden Dollar verlieren, und es könnte noch viel mehr sein.
Es ist unwahrscheinlich, dass sie nach der kürzlichen 22 Milliarden Dollar-Investition von Softbank mehr als 30 Milliarden Dollar haben. Sie haben weniger als ein Jahr Zeit und ihnen geht das dumme Geld aus, um sie weiter zu pumpen, ohne einen Börsengang. Die Klage von Musk kompliziert diesen Zeitrahmen ebenfalls, falls es überhaupt möglich ist.
Also gehen sie zu Werbung, weil sie in diesem Jahr ohne sie sterben werden.
Vielen Dank für Ihre Aufmerksamkeit in dieser Angelegenheit.

Chris19. Jan., 02:22
🚨 OpenAI CFO Sarah Friar hat gerade ein großes Update zu den Einnahmen gepostet: $20B+ ARR.
Der Artikel sagte weiter:
„Die Rechenleistung wuchs im Jahresvergleich um ~3x (0,2 GW in 2023, 0,6 GW in 2024, ~1,9 GW in 2025). Die Einnahmen folgten derselben Kurve: $2B ARR in 2023, $6B in 2024 und $20B+ in 2025.“
Wenn ARR in dieser Größenordnung so skaliert, kann man fairerweise sagen: „Die KI-Blase war ein Schwindel“ ?

19
Ich habe das vor 15 Jahren in der Graduiertenschule erlebt, als ich Aufgaben remote auf Laborcomputern und Hochleistungsclustern ausführen konnte. Ich habe viele Dinge ausgeführt, die keinen Wert hatten, weil ich das Gefühl hatte, dass 24x7-Konkurrenz wertvoller war als die richtige Simulation einmal.

Ryan Carson18. Jan., 10:01
Ich fange an, ein schlechtes FOMO zu entwickeln, wenn meine Agenten nicht 24 Stunden am Tag, 7 Tage die Woche laufen.
Es fühlt sich an, als wäre die Opportunitätskosten extrem.
Es ist, als hättest du ein Team von 100 Ingenieuren, die einfach nur dasitzen, weil du ihnen keine Arbeit gegeben hast.
Eigentlich kein tolles Gefühl.
Und ich fühle das sogar, nachdem ich am Samstag ein Feature ausgeliefert habe.
Erlebt noch jemand das?
3
Wie kommen solche Dinge in die Natur- und Wissenschaft? Es ist rätselhaft. Sicher, wenn du einer Regression von Anfang an die richtigen Regeln gibst, wird sie später besser extrapolieren. Das scheint trivial, offensichtlich und nicht intelligent zu sein. Intelligenz ist ein Modell, das auf F=ma kommt.

Jorge Bravo Abad16. Jan., 20:05
Ein physik-informiertes GNN, das die Gesetze von Newton aus Daten lernt – und auf Systeme extrapoliert, die 35× größer sind
Die meisten neuronalen Netzwerke für die physikalische Simulation sind datenhungrig und anfällig. Trainiert man sie mit einer Konfiguration, fallen sie auseinander, wenn man die Randbedingungen ändert, das System vergrößert oder lange Rollouts durchführt. Das grundlegende Problem: Diese Modelle lernen Korrelationen, keine Erhaltungsgesetze.
Vinay Sharma und Olga Fink verfolgen mit Dynami-CAL GraphNet einen anderen Ansatz. Anstatt zu hoffen, dass das Netzwerk die Physik entdeckt, betten sie sie direkt in die Architektur ein. Die zentrale Erkenntnis: Das dritte Gesetz von Newton garantiert, dass innere Kräfte den linearen und den Drehimpuls erhalten – selbst wenn Energie durch Reibung oder unelastische Kollisionen dissipiert wird.
Sie erreichen dies durch einen neuartigen kantenlokalen Referenzrahmen, der SO(3)-äquivariant, translationsinvariant und antisymmetrisch unter Knotenwechsel ist. Kräfte, die aus Kanten-Embeddings decodiert werden, sind automatisch gleich und entgegengesetzt. Der Drehimpuls erhält die gleiche Behandlung: Das Netzwerk sagt sowohl innere Drehmomente als auch den Punkt der Kraftanwendung voraus und isoliert die Drehung von den orbitalen Beiträgen.
Die Ergebnisse sind beeindruckend. Trainiert mit nur fünf Trajektorien von 60 kollidierenden Kugeln in einer stationären Box, extrapoliert das Modell auf einen rotierenden zylindrischen Trichter mit 2.073 Partikeln – und hält stabile, physikalisch konsistente Rollouts über 16.000 Zeitschritte aufrecht. Bei eingeschränkten N-Körper-Systemen, menschlicher Bewegungsaufnahme und molekularer Dynamik von Proteinen übertrifft es spezialisierte Baselines und benötigt dabei weniger Daten.
Die Botschaft: Wenn man Erhaltungsgesetze in die Architektur einbackt, anstatt in die Verlustfunktion, erhält man Modelle, die über Skalen, Geometrien und Randbedingungen generalisieren – weil sie von Anfang an den richtigen induktiven Bias gelernt haben.
Papier:

3
Top
Ranking
Favoriten