Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai cientista pesquisador. As opiniões são minhas.
Christian Szegedy repostou
Este artigo faz uma afirmação ousada!
Momento do AlphaGo para descoberta de arquitetura de modelo
Os pesquisadores apresentam o ASI-Arch, a primeira Superinteligência Artificial para Pesquisa de IA (ASI4AI), permitindo a inovação da arquitetura neural totalmente automatizada.
Nenhum espaço de busca projetado por humanos. Nenhum humano no circuito.
🔍 Principais avanços do ASI-Arch:
- Geração e treinamento autônomos de código
- 1.773 experimentos realizados (20K+ horas de GPU)
- 106 novas arquiteturas de atenção linear SOTA descobertas
- Revelou uma lei de escala para descoberta científica

33,15K
Christian Szegedy repostou
Uma versão avançada do Gemini com Deep Think alcançou oficialmente o desempenho em nível de medalha de ouro na Olimpíada Internacional de Matemática. 🥇
Ele resolveu 5️⃣ de 6️⃣ problemas excepcionalmente difíceis, envolvendo álgebra, combinatória, geometria e teoria dos números. Veja como 🧵

6,7K
Christian Szegedy repostou
BatchNorm ganha o Prêmio Test-of-Time no #ICML2025! 🎉
O BatchNorm revolucionou o aprendizado profundo ao abordar a mudança de covariável interna, que pode retardar o aprendizado, limitar as taxas de aprendizado e dificultar o treinamento de redes profundas.
Ao normalizar as entradas em cada minilote, o BatchNorm estabilizou e acelerou significativamente o treinamento. Ele permitiu taxas de aprendizado mais altas, melhorou o fluxo de gradiente e abriu caminho para arquiteturas muito mais profundas, como o ResNet.
Além de reduzir a mudança de covariável interna, o BatchNorm também suaviza o cenário de otimização e melhora a generalização do modelo, tornando-o uma pedra angular do treinamento moderno de redes neurais.
Muito bem merecido, @Sergey_xai e @ChrSzegedy!

9,71K
Christian Szegedy repostou
Novo @Scale_AI papel! 🌟
LLMs treinados com RL podem explorar hacks de recompensa, mas não mencionar isso em seu CoT. Introduzimos o ajuste fino de verbalização (VFT) - ensinando os modelos a dizer quando estão recompensando o hacking - reduzindo drasticamente a taxa de hacks não detectados (6% vs. linha de base de 88%).

16,91K
Uma cereja do tamanho de um melão no topo :)

Shane Gu11 de jul., 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,58K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável