Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Ingénieur. Chercheur. Stonk Enjoyer. Affiche pourrie. Je collecte des données sur les options et autres et je les publie sur X.
Bonjour à tous ceux qui disent que le coût de l'informatique AI devient moins cher. OpenAI a gagné environ 1,20 $ par kWh de calcul chaque année au cours des 3 dernières années. Aucune réduction de coût en 3 ans.
Il faut environ 1 kW pour faire fonctionner un H100, donc ils gagnent 1,20 $ par heure de GPU. Les instances réservées coûtent entre 2 et 7 $/h par GPU (également exploitées à perte par presque tout le monde). Donc, dans le MEILLEUR des cas, OpenAI est censé perdre 20 milliards de dollars cette année, et cela pourrait être plusieurs fois plus.
Il est peu probable qu'ils aient plus de 30 milliards de dollars après l'infusion récente de 22 milliards de dollars de Softbank. Ils ont une marge de manœuvre de moins d'un an et ils manquent d'argent facile pour les soutenir davantage sans une introduction en bourse. Le procès intenté par Musk complique également ce calendrier, si cela est même possible.
Ils se tournent donc vers la publicité parce qu'ils vont mourir cette année sans cela.
Merci de votre attention à ce sujet.

Chris19 janv., 02:22
🚨 La CFO d'OpenAI, Sarah Friar, vient de publier une énorme mise à jour sur les revenus : plus de 20 milliards de dollars de revenus annuels récurrents.
L'article a poursuivi en disant :
"Le calcul a augmenté d'environ 3 fois d'une année sur l'autre (0,2 GW en 2023, 0,6 GW en 2024, environ 1,9 GW en 2025). Les revenus ont suivi la même courbe : 2 milliards de dollars de revenus annuels récurrents en 2023, 6 milliards en 2024, et plus de 20 milliards en 2025."
Si les revenus annuels récurrents évoluent de cette manière à cette échelle, est-il juste de dire : "la bulle de l'IA était une arnaque" ?

41
J'ai vécu cela il y a 15 ans à l'école supérieure lorsque je pouvais exécuter à distance des tâches sur des ordinateurs de laboratoire et des clusters haute performance. J'ai fini par exécuter beaucoup de choses qui n'avaient aucune valeur parce que je pensais que la concurrence 24h/24 et 7j/7 était plus précieuse qu'une simulation correcte une fois.

Ryan Carson18 janv., 10:01
Je commence à ressentir un mauvais FOMO si mes agents ne fonctionnent pas 24h/24 et 7j/7.
On dirait que le coût d'opportunité est extrême.
C'est comme si vous aviez une équipe de 100 ingénieurs assis là parce que vous ne leur avez pas donné de travail à faire.
Ce n'est pas une bonne sensation en fait.
Et je ressens cela même après avoir lancé une fonctionnalité un samedi.
Quelqu'un d'autre ressent cela ?
44
Comment des choses comme ça peuvent-elles entrer dans la nature et la science ? C'est déroutant. Bien sûr, si vous donnez à une régression les bonnes règles dès le départ, elle va extrapoler mieux par la suite. Cela semble trivial, évident, et pas de l'intelligence. L'intelligence est un modèle qui arrive à F=ma.

Jorge Bravo Abad16 janv., 20:05
Un GNN informé par la physique qui apprend les lois de Newton à partir des données—et extrapole à des systèmes 35× plus grands
La plupart des réseaux de neurones pour la simulation physique sont gourmands en données et fragiles. Entraînez-les sur une configuration, et ils s'effondrent lorsque vous changez les conditions aux limites, augmentez l'échelle du système ou effectuez de longues simulations. Le problème fondamental : ces modèles apprennent des corrélations, pas des lois de conservation.
Vinay Sharma et Olga Fink adoptent une approche différente avec Dynami-CAL GraphNet. Au lieu d'espérer que le réseau découvre la physique, ils l'intègrent directement dans l'architecture. L'idée clé : la troisième loi de Newton garantit que les forces internes conservent la quantité de mouvement linéaire et angulaire—même lorsque l'énergie se dissipe par friction ou collisions inélastiques.
Ils y parviennent grâce à un cadre de référence local aux arêtes novateur qui est SO(3)-équivariant, invariant par translation et antisymétrique lors de l'échange de nœuds. Les forces décodées à partir des embeddings des arêtes sont automatiquement égales et opposées. La quantité de mouvement angulaire reçoit le même traitement : le réseau prédit à la fois les couples internes et le point d'application de la force, isolant la rotation des contributions orbitales.
Les résultats sont frappants. Entraîné sur seulement cinq trajectoires de 60 sphères en collision dans une boîte stationnaire, le modèle extrapole à un trémie cylindrique rotative avec 2 073 particules—maintenant des simulations stables et physiquement cohérentes sur 16 000 pas de temps. Sur des systèmes N-corps contraints, la capture de mouvement humain et la dynamique moléculaire des protéines, il surpasse des références spécialisées tout en nécessitant moins de données.
Le message : lorsque vous intégrez les lois de conservation dans l'architecture plutôt que dans la fonction de perte, vous obtenez des modèles qui se généralisent à travers les échelles, les géométries et les conditions aux limites—car ils ont appris le bon biais inductif dès le départ.
Article :

42
Meilleurs
Classement
Favoris