Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Insinööri. Tutkija. Stonk Enjoyer. Paska juliste. Kerään tietoa vaihtoehdoista ja muista muista ja julkaisen sen X:ssä.
Hei kaikille, jotka sanovat, että tekoälylaskenta halpenee. OpenAI on tuottanut noin 1,20 dollaria per kWh laskentateho vuosittain viimeisen kolmen vuoden ajan. Nolla kustannusten alennus kolmessa vuodessa.
Kätevästi H100:n pyörittämiseen menee noin 1 kW, joten he tienaavat 1,20 dollaria GPU-tunnilta. Varatut instanssit maksavat 2–7 dollaria tunnissa per näytönohjain (ja lähes kaikki pyörittävät niitä tappiolla). Joten PARHAASSA PARHAASSA tapauksessa OpenAI menettää tänä vuonna 20 miljardia dollaria, ja se voi olla moninkertaisesti suurempi.
On epätodennäköistä, että heillä olisi yli 30 miljardia dollaria Softbankin viimeaikaisen 22 miljardin dollarin infuusion jälkeen. Heillä on alle vuoden mittainen kiitorata, ja he ovat loppumassa typerästä rahasta, jotta he voisivat jatkaa ilman listautumista. Muskin oikeusjuttu monimutkaistaa myös tätä aikajanaa, jos se edes on mahdollista.
Joten he menevät mainoksiin, koska he kuolevat tänä vuonna ilman niitä.
Kiitos huomiostanne tähän asiaan.

Chris19.1. klo 02.22
🚨 OpenAI:n talousjohtaja Sarah Friar julkaisi juuri suuren päivityksen liikevaihdosta: $20B+ ARR.
Artikkelissa todettiin edelleen:
"Compute kasvoi ~3 kertaa vuodesta toiseen (0,2 GW vuonna 2023, 0,6 GW vuonna 2024, ~1,9 GW vuonna 2025). Liikevaihto seurasi samaa käyrää: 2 miljardia dollaria ARR vuonna 2023, 6 miljardia dollaria vuonna 2024 ja 20 miljardia dollaria+ vuonna 2025."
Jos ARR skaalautuu näin tuossa koossa, on reilua sanoa: "tekoälykupla oli huijaus"?

25
Koin tämän 15 vuotta sitten jatko-opinnoissa, kun pystyin etänä suorittamaan tehtäviä laboratoriotietokoneilla ja suorituskykyisissä klustereissa. Päädyin pelaamaan monia asioita, joilla ei ollut arvoa, koska koin 24/7 samanaikaisuuden arvokkaammaksi kuin oikea simulaatio kerran.

Ryan Carson18.1. klo 10.01
Alan kehittää pahaa FOMOa, jos agenttini eivät pyöri 24/7.
Tuntuu siltä, että vaihtoehtoiskustannus on äärimmäinen.
Se on kuin sinulla olisi 100 insinöörin tiimi vain istumassa paikallaan, koska et ole antanut heille töitä.
Ei oikeastaan kovin hyvä tunne.
Ja tunnen tätä, vaikka julkaisin jutun lauantaina.
Onko muilla samaa kokemusta?
23
Miten tällaiset asiat päätyvät luontoon ja tieteeseen? Se on hämmentävää. Totta kai, jos annat regressiolle oikeat säännöt alussa, se antaa myöhemmin paremman yleistyksen. Tämä vaikuttaa vähäpätöiseltä, ilmeiseltä eikä älykkäältä. Älykkyys on malli, joka syntyy F=ma:lla.

Jorge Bravo Abad16.1. klo 20.05
Fysiikkaan perustuva GNN, joka oppii Newtonin lait datasta – ja laajentaa systeemeihin 35× suurempiin
Useimmat fysiikan simulaatioiden neuroverkot ovat dataa syöviä ja hauraita. Kouluta ne yhdellä kokoonpanolla, ja ne hajoavat, kun muutat rajaehtoja, skaalaat järjestelmää tai teet pitkiä käyttöönottoja. Peruskysymys: nämä mallit oppivat korrelaatioita, eivät säilymislakeja.
Vinay Sharma ja Olga Fink lähestyvät Dynami-CAL GraphNetiä eri tavalla. Sen sijaan, että toivoisivat verkon löytävän fysiikan, he upottavat sen suoraan arkkitehtuuriin. Keskeinen oivallus: Newtonin kolmas laki takaa, että sisäiset voimat säilyttävät lineaarisen ja kulmaliikemäärän – vaikka energia haihtuu kitkan tai epäelastisten törmäysten seurauksena.
He saavuttavat tämän uuden reuna-paikallisen viitekehyksen avulla, joka on SO(3)-ekvivalentti, translaatioinvariantti ja antisymmetrinen solmujen vaihdossa. Reunaupotuksista puretut voimat ovat automaattisesti yhtä suuria ja vastakkaisia. Kulmamomentti saa saman käsittelyn: verkko ennustaa sekä sisäiset vääntömomentit että voiman kohdistumispisteen, eristäen spinin kiertoradan panoksista.
Tulokset ovat vaikuttavia. Malli on koulutettu vain viidellä 60 törmäävän pallon radalla paikallaan olevassa laatikossa, ja se laajenee pyörivään sylinterimäiseen suppiloon, jossa on 2 073 hiukkasta – ylläpitäen vakaita ja fyysisesti johdonmukaisia rullauksia 16 000 aikavälin ajan. Rajoitetuissa N-kappalejärjestelmissä, ihmisen liikkeen kaappauksessa ja proteiinien molekyylidynamiikassa se päihittää erikoistuneet lähtötasot ja vaatii vähemmän dataa.
Viesti: kun arkkitehtuuriin sisällytetään säilymislait häviöfunktion sijaan, saadaan malleja, jotka yleistävät mittakaavojen, geometrioiden ja reunaehtojen yli – koska ne ovat oppineet oikean induktiivisen harhan alusta alkaen.
Artikkeli:

24
Johtavat
Rankkaus
Suosikit