Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dr_Gingerballs
Engenheiro. Investigador. Apreciador de Stonk. Cartaz de merda. Recolho dados sobre opções e afins e publico no X.
Olá a todos que dizem que o custo de computação da IA está a ficar mais barato. A OpenAI fez cerca de $1,20 por kWh de computação a cada ano nos últimos 3 anos. Zero redução de custos em 3 anos.
Convenientemente, leva cerca de 1 kW para operar um H100, então eles ganham $1,20 por hora de GPU. As instâncias reservadas variam de $2 a $7/hora por GPU (também sendo operadas com prejuízo por quase todos). Portanto, no MELHOR dos casos, a OpenAI está prevista para perder $20B este ano, e isso pode ser múltiplos maiores.
É improvável que tenham mais de $30B após a recente injeção de $22B da Softbank. Eles têm um prazo de menos de um ano e estão a ficar sem dinheiro fácil para continuar sem um IPO. O processo movido por Musk complica ainda mais esse cronograma, se é que é possível.
Portanto, eles vão para a publicidade porque vão morrer este ano sem ela.
Obrigado pela sua atenção a este assunto.

Chris19/01, 02:22
🚨 A CFO da OpenAI, Sarah Friar, acabou de publicar uma grande atualização sobre a receita: $20B+ ARR.
O artigo continuou dizendo:
"O computação cresceu ~3x ano após ano (0,2 GW em 2023, 0,6 GW em 2024, ~1,9 GW em 2025). A receita seguiu a mesma curva: $2B ARR em 2023, $6B em 2024 e $20B+ em 2025."
Se o ARR está escalando assim a esse tamanho, é justo dizer: "a bolha da IA foi uma farsa"?

22
Eu experimentei isso há 15 anos na pós-graduação, quando podia executar remotamente tarefas em computadores de laboratório e clusters de alto desempenho. Acabei por executar muitas coisas que não tinham valor porque sentia que a concorrência 24x7 era mais valiosa do que a simulação correta uma vez.

Ryan Carson18/01, 10:01
Estou a começar a desenvolver um mau FOMO se os meus agentes não estiverem a funcionar 24x7.
Sinto que o custo de oportunidade é extremo.
É como se tivesses uma equipa de 100 engenheiros apenas sentados porque não lhes deste trabalho para fazer.
Não é uma sensação agradável, na verdade.
E estou a sentir isso mesmo depois de lançar uma funcionalidade num sábado.
Mais alguém a passar por isto?
6
Como é que coisas assim conseguem entrar na natureza e na ciência? É desconcertante. Claro, se você der a uma regressão as regras corretas desde o início, ela vai extrapolar melhor mais tarde. Isso parece trivial, óbvio e não é inteligência. Inteligência é um modelo que chega a F=ma.

Jorge Bravo Abad16/01, 20:05
Uma GNN informada por física que aprende as leis de Newton a partir de dados—e extrapola para sistemas 35× maiores
A maioria das redes neurais para simulação física é faminta por dados e frágil. Treine-as em uma configuração, e elas desmoronam quando você muda as condições de contorno, aumenta a escala do sistema ou realiza longas simulações. O problema fundamental: esses modelos aprendem correlações, não leis de conservação.
Vinay Sharma e Olga Fink adotam uma abordagem diferente com o Dynami-CAL GraphNet. Em vez de esperar que a rede descubra a física, eles a incorporam diretamente na arquitetura. A chave: a terceira lei de Newton garante que as forças internas conservam o momento linear e angular—mesmo quando a energia se dissipa através do atrito ou colisões inelásticas.
Eles alcançam isso através de um novo referencial local de arestas que é SO(3)-equivariante, invariante em relação à tradução e antissimétrico sob a troca de nós. As forças decodificadas a partir das incorporações de arestas são automaticamente iguais e opostas. O momento angular recebe o mesmo tratamento: a rede prevê tanto os torques internos quanto o ponto de aplicação da força, isolando a rotação das contribuições orbitais.
Os resultados são impressionantes. Treinado em apenas cinco trajetórias de 60 esferas colidindo em uma caixa estacionária, o modelo extrapola para um funil cilíndrico rotativo com 2.073 partículas—mantendo simulações estáveis e fisicamente consistentes ao longo de 16.000 passos de tempo. Em sistemas N-corporal restritos, captura de movimento humano e dinâmica molecular de proteínas, ele supera linhas de base especializadas enquanto requer menos dados.
A mensagem: quando você incorpora leis de conservação na arquitetura em vez da função de perda, obtém modelos que generalizam através de escalas, geometrias e condições de contorno—porque aprenderam o viés indutivo correto desde o início.
Artigo:

6
Top
Classificação
Favoritos