Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Insinyur. Peneliti. Pemuja Stunk. Poster kotoran. Saya mengumpulkan data tentang opsi dan hal-hal dan mempostingnya di X.
Hai semua orang yang mengatakan komputasi AI semakin murah. OpenAI telah menghasilkan sekitar $1,20 per kWh komputasi setiap tahun selama 3 tahun terakhir. Pengurangan biaya nol dalam 3 tahun.
Nyaman, dibutuhkan sekitar 1 kW untuk menjalankan H100, sehingga mereka menghasilkan $1.20 per jam GPU. Instans cadangan berjalan mulai dari $2-7/jam per gpu (juga dijalankan dengan kerugian oleh hampir semua orang). Jadi dalam kasus TERBAIK TERBAIK, OpenAI dijadwalkan kehilangan $20 miliar tahun ini, dan bisa berlipat ganda lebih tinggi.
Tidak mungkin mereka memiliki lebih dari $30 miliar setelah infus $22 miliar baru-baru ini dari Softbank. Mereka memiliki landasan pacu kurang dari setahun dan mereka kehabisan uang bodoh untuk memompa mereka lebih jauh tanpa IPO. Gugatan oleh Musk juga memperumit garis waktu itu, jika memungkinkan.
Jadi mereka akan mengiklankan karena mereka akan mati tahun ini tanpa mereka.
Terima kasih atas perhatian Anda terhadap masalah ini.

Chris19 Jan, 02.22
🚨 CFO OpenAI Sarah Friar baru saja memposting pembaruan besar tentang pendapatan: $20B+ ARR.
Artikel itu melanjutkan mengatakan:
"Komputasi tumbuh ~3x dari tahun ke tahun (0,2 GW pada tahun 2023, 0,6 GW pada tahun 2024, ~1,9 GW pada tahun 2025). Pendapatan mengikuti kurva yang sama: ARR $2 miliar pada tahun 2023, $6 miliar pada tahun 2024, dan $20 miliar+ pada tahun 2025."
Jika ARR menskalakan seperti ini pada ukuran itu, wajar untuk mengatakan: "gelembung ai adalah tipuan"?

28
Saya mengalami ini 15 tahun yang lalu di sekolah pascasarjana ketika saya dapat menjalankan tugas dari jarak jauh di komputer lab dan kluster berkinerja tinggi. Saya akhirnya menjalankan banyak hal yang tidak memiliki nilai karena saya merasa konkurensi 24x7 lebih berharga daripada simulasi yang benar sekali.

Ryan Carson18 Jan, 10.01
Saya mulai mengembangkan FOMO yang buruk jika agen saya tidak berjalan 24x7.
Rasanya biaya peluangnya ekstrem.
Ini seperti Anda memiliki tim yang terdiri dari 100 insinyur yang hanya duduk di sana karena Anda belum memberi mereka pekerjaan untuk dilakukan.
Bukan perasaan yang bagus sebenarnya.
Dan saya merasakan ini bahkan setelah mengirimkan fitur pada hari Sabtu.
Ada orang lain yang mengalami ini?
31
Bagaimana hal-hal seperti ini bisa menjadi alam dan sains? Itu membingungkan. Tentu, jika Anda memberikan aturan yang benar pada regresi di awal, itu akan mengekstrapolasi lebih baik nanti. Ini tampaknya sepele, jelas, dan bukan kecerdasan. Kecerdasan adalah model yang muncul dengan F=ma.

Jorge Bravo Abad16 Jan, 20.05
GNN yang diinformasikan fisika yang mempelajari hukum Newton dari data—dan mengekstrapolasi ke sistem 35× lebih besar
Sebagian besar jaringan saraf untuk simulasi fisika haus data dan rapuh. Latih mereka pada satu konfigurasi, dan mereka berantakan saat Anda mengubah kondisi batas, meningkatkan skala sistem, atau menjalankan peluncuran yang panjang. Masalah mendasar: model-model ini mempelajari korelasi, bukan hukum konservasi.
Vinay Sharma dan Olga Fink mengambil pendekatan yang berbeda dengan Dynami-CAL GraphNet. Alih-alih berharap jaringan menemukan fisika, mereka menyematkannya langsung ke dalam arsitektur. Wawasan kunci: Hukum ketiga Newton menjamin bahwa gaya internal melestarikan momentum linier dan sudut—bahkan ketika energi menghilang melalui gesekan atau tumbukan tidak elastis.
Mereka mencapai ini melalui kerangka referensi tepi-lokal baru yang bersifat SO(3)-ekuivarian, translasi-invarian, dan antisimetris di bawah pertukaran simpul. Gaya yang didekodekan dari penyematan tepi secara otomatis sama dan berlawanan. Momentum sudut mendapat perlakuan yang sama: jaringan memprediksi torsi internal dan titik aplikasi gaya, mengisolasi putaran dari kontribusi orbit.
Hasilnya mengejutkan. Dilatih hanya pada lima lintasan dari 60 bola yang bertabrakan dalam kotak stasioner, model ini mengekstrapolasi ke hopper silinder yang berputar dengan 2.073 partikel—mempertahankan peluncuran yang stabil dan konsisten secara fisik selama 16.000 langkah waktu. Pada sistem N-body yang terbatas, penangkapan gerakan manusia, dan dinamika molekuler protein, ia mengungguli baseline khusus sambil membutuhkan lebih sedikit data.
Pesannya: ketika Anda memasukkan hukum konservasi ke dalam arsitektur daripada fungsi kerugian, Anda mendapatkan model yang menggeneralisasi lintas skala, geometri, dan kondisi batas—karena mereka telah mempelajari bias induktif yang tepat sejak awal.
Kertas:

29
Teratas
Peringkat
Favorit