Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Inginer. Cercetător. Stonk Enjoyer. Poster prost. Adun date despre opțiuni și alte lucruri și le postez pe X.
Salut tuturor celor care spun că calculul AI devine tot mai ieftin. OpenAI a generat aproximativ 1,20 dolari pe kWh de calcul în fiecare an în ultimii 3 ani. Reducere zero a costurilor în 3 ani.
Convenabil, durează cam 1 kW pentru a rula un H100, așa că fac 1,20 $ pe oră pe GPU. Instanțele rezervate rulează între 2-7 dolari/oră pe placă video (fiind rulate și cu pierdere de aproape toată lumea). Așadar, în CEL MAI BUN caz, OpenAI este programată să piardă 20 de miliarde de dolari anul acesta și ar putea fi de mai multe ori mai mare.
Este puțin probabil să aibă mai mult de 30 de miliarde de dolari după recenta infuzie de 22 de miliarde de dolari de la Softbank. Au o marjă de mai puțin de un an și rămân fără bani proști pentru a-i stimula mai departe fără un IPO. Procesul intentat de Musk complică și această cronologie, dacă este posibilă.
Așa că vor merge la reclame pentru că anul acesta vor muri fără ele.
Vă mulțumesc pentru atenția acordată acestei probleme.

Chris19 ian., 02:22
🚨 CFO OpenAI, Sarah Friar, tocmai a postat o actualizare uriașă privind veniturile: 20 miliarde $ + ARR.
Articolul continua spunând:
"Calculul a crescut de ~3 ori de la an la an (0,2 GW în 2023, 0,6 GW în 2024, ~1,9 GW în 2025). Veniturile au urmat aceeași curbă: 2 miliarde de dolari în 2023, 6 miliarde în 2024 și 20 miliarde+ în 2025."
Dacă ARR scalează așa la acea dimensiune, e corect să spunem: "bula AI a fost o farsă"?

23
Am experimentat asta acum 15 ani, la master, când puteam rula sarcini de la distanță pe calculatoare de laborator și clustere de înaltă performanță. Am ajuns să rulez multe lucruri care nu aveau valoare pentru că simțeam că concurența 24/7 era mai valoroasă decât simularea corectă odată.

Ryan Carson18 ian., 10:01
Încep să dezvolt un FOMO puternic dacă agenții mei nu funcționează non-stop.
Pare că costul de oportunitate este extrem.
E ca și cum ai avea o echipă de 100 de ingineri care stau acolo pentru că nu le-ai dat de lucru.
De fapt, nu e o senzație grozavă.
Și simt asta chiar și după ce am lansat un film într-o sâmbătă.
Mai trece cineva prin asta?
7
Cum ajung astfel de lucruri în natură și știință? E derutant. Sigur, dacă dai unei regresii regulile corecte de la început, va extrapola mai bine mai târziu. Pare trivial, evident și nu inteligent. Inteligența este un model care ajunge la F=ma.

Jorge Bravo Abad16 ian., 20:05
Un GNN informat de fizică care învață legile lui Newton din date — și extrapolează la sisteme cu 35× mai mari
Majoritatea rețelelor neuronale pentru simularea fizicii sunt consumatoare de date și fragile. Antrenează-i pe o singură configurație și se destramă când schimbi condițiile de frontieră, mărești sistemul sau rulezi rollout-uri lungi. Problema fundamentală: aceste modele învață corelații, nu legile de conservare.
Vinay Sharma și Olga Fink abordează diferit Dynami-CAL GraphNet. În loc să spere că rețeaua descoperă fizica, o integrează direct în arhitectură. Ideea cheie: a treia lege a lui Newton garantează că forțele interne conservă momentul liniar și unghiular — chiar și atunci când energia se disipează prin frecare sau coliziuni inelastice.
Ei realizează acest lucru printr-un nou sistem de referință local la muchie, care este SO(3)-echivariant, invariant la translație și antisimetric sub schimb de noduri. Forțele decodate din încorporarea muchii sunt automat egale și opuse. Momentul unghiular primește același tratament: rețeaua prezice atât cuplurile interne, cât și punctul de aplicare a forței, izolând spinul de contribuțiile orbitale.
Rezultatele sunt remarcabile. Antrenat pe doar cinci traiectorii a 60 de sfere care se ciocnesc într-o cutie staționară, modelul extrapolează la un hopper cilindric rotativ cu 2.073 de particule — menținând rulări stabile și fizic constante pe parcursul a 16.000 de pași de timp. Pe sistemele N-body constrânse, capturarea mișcării umane și dinamica moleculară a proteinelor, depășește liniile de bază specializate, necesitând mai puține date.
Mesajul: când integrezi legile de conservare în arhitectură, în loc de funcția de pierdere, obții modele care generalizează pe scări, geometrii și condiții de frontieră — pentru că au învățat de la început biasul inductiv corect.
Hârtie:

7
Limită superioară
Clasament
Favorite