Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai científico investigador. Las opiniones son mías.
Christian Szegedy reposteó
¡Este documento hace una afirmación audaz!
Momento AlphaGo para el descubrimiento de la arquitectura de modelos
Los investigadores presentan ASI-Arch, la primera Superinteligencia Artificial para la Investigación de IA (ASI4AI), que permite una innovación de arquitectura neuronal totalmente automatizada.
No hay espacio de búsqueda diseñado por humanos. Ningún humano en el circuito.
🔍 Avances clave de ASI-Arch:
- Generación y capacitación autónoma de código
- 1,773 experimentos realizados (20K + horas de GPU)
- 106 nuevas arquitecturas de atención lineal SOTA descubiertas
- Dio a conocer una ley de escala para el descubrimiento científico

33.15K
Christian Szegedy reposteó
Una versión avanzada de Gemini con Deep Think ha logrado oficialmente un rendimiento a nivel de medalla de oro en la Olimpiada Internacional de Matemáticas. 🥇
Resolvió problemas excepcionalmente difíciles, que involucraban 5️álgebra, combinatoria, geometría y teoría de 6️números. Así es como 🧵

6.7K
Christian Szegedy reposteó
BatchNorm gana el premio Test-of-Time en #ICML2025! 🎉
BatchNorm revolucionó el aprendizaje profundo al abordar el cambio de covariables internas, que puede ralentizar el aprendizaje, limitar las tasas de aprendizaje y dificultar el entrenamiento de redes profundas.
Al normalizar las entradas dentro de cada minilote, BatchNorm estabilizó y aceleró significativamente el entrenamiento. Permitió tasas de aprendizaje más altas, mejoró el flujo de gradiente y allanó el camino para arquitecturas mucho más profundas como ResNet.
Más allá de reducir el cambio de covariables internas, BatchNorm también suaviza el panorama de optimización y mejora la generalización del modelo, lo que lo convierte en una piedra angular del entrenamiento de redes neuronales modernas.
¡Muy merecido, @Sergey_xai y @ChrSzegedy!

9.71K
Christian Szegedy reposteó
¡Nuevo papel @Scale_AI! 🌟
Los LLM entrenados con RL pueden explotar los hacks de recompensa, pero no lo mencionan en su CoT. Introducimos el ajuste fino de la verbalización (VFT, por sus siglas en inglés), que enseña a los modelos a decir cuándo están hackeando con recompensas, lo que reduce drásticamente la tasa de hackeos no detectados (6% frente a la línea de base del 88%).

16.91K
Una cereza del tamaño de un melón en la parte superior :)

Shane Gu11 jul, 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13.57K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas