Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Ingegnere. Ricercatore. Amante dello stonk. Poster di merda. Raccoglio dati sulle opzioni e simili e li pubblico su X.
Ciao a tutti coloro che dicono che il calcolo dell'AI sta diventando più economico. OpenAI ha guadagnato circa $1,20 per kWh di calcolo ogni anno negli ultimi 3 anni. Nessuna riduzione dei costi in 3 anni.
Convenientemente, ci vogliono circa 1 kW per far funzionare un H100, quindi guadagnano $1,20 per ora GPU. Le istanze riservate costano da $2 a $7/ora per GPU (anche se vengono gestite in perdita da quasi tutti). Quindi, nel MIGLIOR caso, OpenAI è destinata a perdere $20 miliardi quest'anno, e potrebbe essere molto di più.
È improbabile che abbiano più di $30 miliardi dopo il recente investimento di $22 miliardi da Softbank. Hanno un margine di meno di un anno e stanno esaurendo i fondi facili per sostenersi ulteriormente senza un'IPO. La causa legale di Musk complica ulteriormente quella tempistica, se è anche possibile.
Quindi stanno passando agli annunci perché moriranno quest'anno senza di essi.
Grazie per l'attenzione a questa questione.

Chris19 gen, 02:22
🚨 Il CFO di OpenAI, Sarah Friar, ha appena pubblicato un enorme aggiornamento sui ricavi: oltre $20 miliardi di ARR.
L'articolo ha continuato dicendo:
"Il calcolo è cresciuto di circa 3 volte anno su anno (0,2 GW nel 2023, 0,6 GW nel 2024, circa 1,9 GW nel 2025). I ricavi hanno seguito la stessa curva: $2 miliardi di ARR nel 2023, $6 miliardi nel 2024 e oltre $20 miliardi nel 2025."
Se l'ARR sta scalando in questo modo a queste dimensioni, è giusto dire: "la bolla dell'IA era una bufala"?

20
Ho vissuto questa esperienza 15 anni fa durante il mio corso di laurea quando potevo eseguire attività da remoto sui computer di laboratorio e sui cluster ad alte prestazioni. Alla fine ho eseguito molte cose che non avevano valore perché pensavo che la concorrenza 24 ore su 24, 7 giorni su 7 fosse più preziosa di una simulazione corretta una sola volta.

Ryan Carson18 gen, 10:01
Sto iniziando a sviluppare una brutta FOMO se i miei agenti non sono attivi 24 ore su 24, 7 giorni su 7.
Sembra che il costo opportunità sia estremo.
È come avere un team di 100 ingegneri che stanno semplicemente lì perché non hai dato loro lavoro da fare.
Non è una bella sensazione, in realtà.
E lo sento anche dopo aver lanciato una funzionalità di sabato.
Qualcun altro sta vivendo questa situazione?
4
Come fanno cose del genere a entrare nella natura e nella scienza? È sconcertante. Certo, se dai a una regressione le regole corrette fin dall'inizio, essa farà un'estrapolazione migliore in seguito. Questo sembra banale, ovvio e non è intelligenza. L'intelligenza è un modello che arriva a F=ma.

Jorge Bravo Abad16 gen, 20:05
Un GNN informato dalla fisica che apprende le leggi di Newton dai dati—ed estrae a sistemi 35× più grandi
La maggior parte delle reti neurali per la simulazione fisica sono affamate di dati e fragili. Allenale su una configurazione e si disintegrano quando cambi le condizioni al contorno, aumenti la scala del sistema o esegui lunghe simulazioni. Il problema fondamentale: questi modelli apprendono correlazioni, non leggi di conservazione.
Vinay Sharma e Olga Fink adottano un approccio diverso con Dynami-CAL GraphNet. Invece di sperare che la rete scopra la fisica, la incorporano direttamente nell'architettura. L'intuizione chiave: la terza legge di Newton garantisce che le forze interne conservino il momento lineare e angolare—anche quando l'energia si dissipa attraverso l'attrito o collisioni inelastiche.
Raggiungono questo attraverso un nuovo sistema di riferimento locale ai bordi che è SO(3)-equivariant, invariante rispetto alla traduzione e antisimmmetrico sotto l'intercambio dei nodi. Le forze decodificate dagli embedding dei bordi sono automaticamente uguali e opposte. Il momento angolare riceve lo stesso trattamento: la rete predice sia le coppie interne che il punto di applicazione della forza, isolando la rotazione dai contributi orbitali.
I risultati sono sorprendenti. Allenato su solo cinque traiettorie di 60 sfere in collisione in una scatola stazionaria, il modello estrae a un tramoggia cilindrica rotante con 2.073 particelle—mantenendo simulazioni stabili e fisicamente coerenti per oltre 16.000 passi temporali. Su sistemi N-body vincolati, cattura del movimento umano e dinamica molecolare delle proteine, supera le basi specializzate richiedendo meno dati.
Il messaggio: quando incorpori le leggi di conservazione nell'architettura piuttosto che nella funzione di perdita, ottieni modelli che si generalizzano attraverso scale, geometrie e condizioni al contorno—perché hanno appreso il giusto bias induttivo fin dall'inizio.
Carta:

4
Principali
Ranking
Preferiti