Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Inženýr. Výzkumník. Skvělý milovník. Na hovno plakát. Sbírám data o možnostech a podobně a zveřejňuji je na X.
Ahoj všichni, kdo říkají, že AI výpočetní technika je levnější. OpenAI vydělává přibližně 1,20 $ za kWh výpočetní kapacity ročně za poslední 3 roky. Nulová sleva na nákladech za 3 roky.
Prakticky potřebuje asi 1 kW na provoz H100, takže vydělávají 1,20 $ za GPU hodinu. Rezervované instance stojí od 2 do 7 dolarů/hodinu za GPU (navíc je provozuje ztráta téměř každý). Takže v NEJLEPŠÍM NEJLEPŠÍM případě má OpenAI letos přijít o 20 miliard dolarů, a může to být i násobně více.
Je nepravděpodobné, že by měli více než 30 miliard dolarů po nedávné inikulaci 22 miliard od Softbanku. Mají šanci na méně než rok a docházejí jim zbytečné peníze, aby je mohli dál pohánět bez IPO. Žaloba Muska také komplikuje tento časový plán, pokud je to vůbec možné.
Takže jdou na reklamy, protože letos bez nich zemřou.
Děkuji za vaši pozornost k této záležitosti.

Chris19. 1. 02:22
🚨 Finanční ředitelka OpenAI Sarah Friar právě zveřejnila obrovskou aktualizaci o příjmech: 20 miliard dolarů + ARR.
Článek dále uvádí:
"Výpočetní hodnota vzrostla ~3x meziročně (0,2 GW v roce 2023, 0,6 GW v roce 2024, ~1,9 GW v roce 2025). Příjmy sledovaly stejnou křivku: 2 miliardy dolarů (ARR) v roce 2023, 6 miliard dolarů v roce 2024 a 20 miliard dolarů + v roce 2025."
Pokud ARR škáluje takto při této velikosti, dá se říct: "AI bublina byla podvod"?

21
Zažil jsem to před 15 lety na magisterském studiu, kdy jsem mohl na dálku spouštět úkoly na laboratorních počítačích a výkonných clusterech. Nakonec jsem spouštěl spoustu věcí, které neměly žádnou hodnotu, protože jsem cítil, že souběžnost 24/7 je cennější než správná simulace.

Ryan Carson18. 1. 10:01
Začínám mít špatný FOMO, pokud moji agenti neběží 24 hodin denně, 7 dní v týdnu.
Připadá mi, že náklady příležitosti jsou extrémní.
Je to, jako byste měli tým 100 inženýrů, kteří tam jen sedí, protože jim nedali práci.
Vlastně to není dobrý pocit.
A cítím to i po vydání filmu v sobotu.
Zažívá to někdo další?
5
Jak se takové věci dostávají do přírody a vědy? Je to matoucí. Jistě, pokud regresi na začátku dáte správná pravidla, později to lépe extrapoluje. To se zdá triviální, zřejmé a není to inteligence. Inteligence je model, který přichází s F=ma.

Jorge Bravo Abad16. 1. 20:05
Fyzikálně informovaný GNN, který se učí Newtonovy zákony z dat – a extrapoluje na systémy o 35× větší
Většina neuronových sítí pro fyzikální simulace je dychtivá po datech a křehká. Trénujte je na jedné konfiguraci a rozpadnou se, když změníte okrajové podmínky, rozšíříte systém nebo provedete dlouhé zavádění. Základní problém je: tyto modely se učí korelacím, ne zákonům ochrany.
Vinay Sharma a Olga Fink přistupují k Dynami-CAL GraphNet jinak. Místo toho, aby doufali, že síť objeví fyziku, vkládají ji přímo do architektury. Klíčový poznatek: Newtonův třetí zákon zaručuje, že vnitřní síly zachovávají lineární a úhlový moment hybnosti – i když energie mizí třením nebo neelastickými srážkami.
Toho dosahují pomocí nového referenčního rámce s hranou a lokálním rámcem, který je SO(3)-ekvivariantní, translacově invariantní a antisymetrický při výměně uzlů. Síly dekódované z hranových vnoření jsou automaticky stejné a opačné. Stejný přístup dostává i momentum hybnosti: síť předpovídá jak vnitřní momenty, tak bod působení síly, izoluje spin od orbitálních příspěvků.
Výsledky jsou pozoruhodné. Model je natrénován na pouhých pět trajektorií 60 kolidujících se koulí v stacionární krabici a extrapoluje na rotující válcový zásobník s 2 073 částicemi—udržuje stabilní, fyzicky konzistentní vyvíjení během 16 000 časových kroků. Na omezených N-tělesových systémech, lidském zachycení pohybu a molekulární dynamice proteinů překonává specializované základní hodnoty a vyžaduje méně dat.
Poselství: když do architektury zapracujete zákony zachování místo ztrátové funkce, získáte modely, které zobecňují napříč měřítky, geometriemi a okrajovými podmínkami – protože se od začátku naučily správné induktivní zkreslení.
Článek:

5
Top
Hodnocení
Oblíbené