Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Ingenieur. Onderzoeker. Stonk Genieter. Slechte poster. Ik verzamel gegevens over opties en dergelijke en plaats die op X.
Hallo iedereen die zegt dat AI-rekenkracht goedkoper wordt. OpenAI heeft de afgelopen 3 jaar ongeveer $1,20 per kWh aan rekenkracht verdiend. Geen kostenreductie in 3 jaar.
Handig genoeg, het kost ongeveer 1 kW om een H100 te draaien, dus ze verdienen $1,20 per GPU-uur. Gereserveerde instances kosten overal tussen de $2-7/uur per gpu (ook door bijna iedereen met verlies uitgevoerd). Dus in het BESTE geval is OpenAI van plan om dit jaar $20B te verliezen, en het zou veel hoger kunnen zijn.
Het is onwaarschijnlijk dat ze meer dan $30B hebben na de recente $22B injectie van Softbank. Ze hebben een looptijd van minder dan een jaar en ze raken het domme geld kwijt om ze verder te pompen zonder een IPO. De rechtszaak door Musk compliceert die tijdlijn ook, als het überhaupt mogelijk is.
Dus ze gaan naar advertenties omdat ze dit jaar zonder hen zullen sterven.
Bedankt voor uw aandacht voor deze zaak.

Chris19 jan, 02:22
🚨 OpenAI CFO Sarah Friar heeft zojuist een enorme update over de omzet gepost: $20B+ ARR.
Het artikel zei verder:
"Compute groeide ~3x jaar op jaar (0,2 GW in 2023, 0,6 GW in 2024, ~1,9 GW in 2025). De omzet volgde dezelfde curve: $2B ARR in 2023, $6B in 2024, en $20B+ in 2025."
Als ARR zo opschaalt op deze grootte, is het dan eerlijk om te zeggen: "de ai-bubbel was een hoax" ?

32
Ik heb dit 15 jaar geleden ervaren in de graduate school toen ik op afstand taken kon uitvoeren op labcomputers en high-performance clusters. Ik eindigde met het uitvoeren van veel dingen die geen waarde hadden omdat ik het gevoel had dat 24x7 gelijktijdigheid waardevoller was dan de juiste simulatie één keer.

Ryan Carson18 jan, 10:01
Ik begin een slechte FOMO te ontwikkelen als mijn agents niet 24x7 draaien.
Het voelt alsof de opportuniteitskosten extreem zijn.
Het is alsof je een team van 100 ingenieurs hebt die daar gewoon zitten omdat je ze geen werk hebt gegeven.
Eigenlijk geen fijn gevoel.
En ik voel dit zelfs na het uitbrengen van een functie op een zaterdag.
Ervaart iemand anders dit ook?
35
Hoe komen dingen als dit in natuur en wetenschap terecht? Het is verbijsterend. Natuurlijk, als je een regressie de juiste regels vanaf het begin geeft, zal het later beter extrapoleren. Dit lijkt triviaal, voor de hand liggend en geen intelligentie. Intelligentie is een model dat met F=ma komt.

Jorge Bravo Abad16 jan, 20:05
Een fysica-geïnformeerde GNN die de wetten van Newton uit gegevens leert—en extrapoleert naar systemen 35× groter
De meeste neurale netwerken voor fysicasimulatie zijn data-hongerig en kwetsbaar. Train ze op één configuratie, en ze vallen uit elkaar wanneer je de randvoorwaarden verandert, het systeem opschaalt of lange uitroltijden uitvoert. Het fundamentele probleem: deze modellen leren correlaties, geen behoudswetten.
Vinay Sharma en Olga Fink nemen een andere benadering met Dynami-CAL GraphNet. In plaats van te hopen dat het netwerk fysica ontdekt, embedden ze het direct in de architectuur. De sleutelinzichten: de derde wet van Newton garandeert dat interne krachten lineaire en hoekmomentum behouden—zelfs wanneer energie verliest door wrijving of inelastische botsingen.
Ze bereiken dit door een nieuw rand-lokaal referentiekader dat SO(3)-equivariant, translatie-invariant en antisymmetrisch is onder knooppuntwisseling. Krachten die zijn gedecodeerd uit rand-embeddings zijn automatisch gelijk en tegengesteld. Hoekmomentum krijgt dezelfde behandeling: het netwerk voorspelt zowel interne momenten als het punt van krachttoepassing, waarbij spin van orbitaal bijdragen wordt geïsoleerd.
De resultaten zijn opvallend. Getraind op slechts vijf trajecten van 60 botsende sferen in een stilstaande doos, extrapoleert het model naar een roterende cilindrische hopper met 2.073 deeltjes—met behoud van stabiele, fysiek consistente uitroltijden over 16.000 tijdstappen. Op beperkte N-body systemen, menselijke bewegingsregistratie en eiwit moleculaire dynamica, presteert het beter dan gespecialiseerde baselines terwijl het minder data vereist.
De boodschap: wanneer je behoudswetten in de architectuur bakt in plaats van in de verliesfunctie, krijg je modellen die generaliseren over schalen, geometrieën en randvoorwaarden—omdat ze vanaf het begin de juiste inductieve bias hebben geleerd.
Paper:

33
Boven
Positie
Favorieten