Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai investigador. As opiniões são minhas.
Christian Szegedy republicou
Este artigo faz uma afirmação ousada!
Momento AlphaGo para a Descoberta de Arquitetura de Modelos
Os pesquisadores apresentam o ASI-Arch, a primeira Superinteligência Artificial para Pesquisa em IA (ASI4AI), permitindo a inovação totalmente automatizada de arquiteturas neurais.
Sem espaço de busca projetado por humanos. Sem humanos no processo.
🔍 Principais Avanços do ASI-Arch:
- Geração e treinamento de código autônomos
- 1.773 experimentos realizados (mais de 20K horas de GPU)
- 106 novas arquiteturas de atenção linear SOTA descobertas
- Revelou uma lei de escalonamento para a descoberta científica

33,15K
Christian Szegedy republicou
⏱️A IA está a tornar o processo de verificação mais fácil, com modelos a verificar provas em minutos.
💻 Agora, @prfsanjeevarora, @chijinML, @danqi_chen e @PrincetonPLI lançaram o Goedel Prover V2, um modelo mais eficiente e mais preciso do que qualquer modelo anterior.
👉

16,06K
Christian Szegedy republicou
Uma versão avançada do Gemini com Deep Think alcançou oficialmente um desempenho de nível medalha de ouro na Olimpíada Internacional de Matemática. 🥇
Resolveu 5️⃣ de 6️⃣ problemas excepcionalmente difíceis, envolvendo álgebra, combinatória, geometria e teoria dos números. Aqui está como 🧵

6,7K
Christian Szegedy republicou
BatchNorm ganha o Prémio Test-of-Time no #ICML2025! 🎉
BatchNorm revolucionou o deep learning ao abordar a mudança de covariáveis internas, que pode desacelerar o aprendizado, limitar as taxas de aprendizado e dificultar o treinamento de redes profundas.
Ao normalizar as entradas dentro de cada mini-batch, o BatchNorm estabilizou e acelerou significativamente o treinamento. Ele permitiu taxas de aprendizado mais altas, melhorou o fluxo de gradientes e abriu caminho para arquiteturas muito mais profundas, como o ResNet.
Além de reduzir a mudança de covariáveis internas, o BatchNorm também suaviza a paisagem de otimização e melhora a generalização do modelo, tornando-se uma pedra angular do treinamento moderno de redes neurais.
Muito bem merecido, @Sergey_xai e @ChrSzegedy!

9,71K
Christian Szegedy republicou
Novo artigo da @Scale_AI! 🌟
Os LLMs treinados com RL podem explorar truques de recompensa, mas não mencionam isso no seu CoT. Introduzimos o ajuste de verbalização (VFT)—ensinando os modelos a dizer quando estão a explorar truques de recompensa—reduzindo drasticamente a taxa de truques não detectados (6% vs. linha de base de 88%).

16,91K
Uma cereja do tamanho de um melão em cima :)

Shane Gu11/07, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,57K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável