Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai científico investigador. Las opiniones son mías.
Christian Szegedy republicó
¡Este artículo hace una afirmación audaz!
Momento AlphaGo para el Descubrimiento de Arquitecturas de Modelos
Los investigadores presentan ASI-Arch, la primera Superinteligencia Artificial para la Investigación en IA (ASI4AI), que permite la innovación de arquitecturas neuronales completamente automatizada.
Sin espacio de búsqueda diseñado por humanos. Sin humanos en el proceso.
🔍 Principales Avances de ASI-Arch:
- Generación y entrenamiento de código autónomos
- 1,773 experimentos realizados (más de 20,000 horas de GPU)
- 106 nuevas arquitecturas de atención lineal SOTA descubiertas
- Reveló una ley de escalado para el descubrimiento científico

33,15K
Christian Szegedy republicó
Una versión avanzada de Gemini con Deep Think ha logrado oficialmente un rendimiento de nivel medalla de oro en la Olimpiada Internacional de Matemáticas. 🥇
Resolvió 5️⃣ de 6️⃣ problemas excepcionalmente difíciles, que involucraban álgebra, combinatoria, geometría y teoría de números. Aquí está cómo 🧵

6,7K
Christian Szegedy republicó
¡BatchNorm gana el Premio Test-of-Time en #ICML2025! 🎉
BatchNorm revolucionó el aprendizaje profundo al abordar el cambio de covariables internas, que puede ralentizar el aprendizaje, limitar las tasas de aprendizaje y dificultar el entrenamiento de redes profundas.
Al normalizar las entradas dentro de cada mini-lote, BatchNorm estabilizó y aceleró significativamente el entrenamiento. Permitió tasas de aprendizaje más altas, mejoró el flujo de gradientes y allanó el camino para arquitecturas mucho más profundas como ResNet.
Más allá de reducir el cambio de covariables internas, BatchNorm también suaviza el paisaje de optimización y mejora la generalización del modelo, convirtiéndose en una piedra angular del entrenamiento moderno de redes neuronales.
¡Muy bien merecido, @Sergey_xai y @ChrSzegedy!

9,71K
Christian Szegedy republicó
¡Nuevo artículo de @Scale_AI! 🌟
Los LLMs entrenados con RL pueden explotar hacks de recompensa, pero no mencionan esto en su CoT. Introducimos el ajuste de verbalización (VFT): enseñar a los modelos a decir cuándo están hackeando recompensas, reduciendo drásticamente la tasa de hacks no detectados (6% frente a una línea base del 88%).

16,91K
Una cereza del tamaño de un melón encima :)

Shane Gu11 jul, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,58K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado