Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai научным сотрудником. Мнение остается за мной.
Christian Szegedy сделал репост
Эта работа делает смелое заявление!
Момент AlphaGo для открытия архитектуры моделей
Исследователи представляют ASI-Arch, первую Искусственную Суперинтеллектуальную систему для исследований в области ИИ (ASI4AI), позволяющую полностью автоматизированное инновационное проектирование нейронных архитектур.
Без человечески спроектированного пространства поиска. Без человека в процессе.
🔍 Ключевые достижения ASI-Arch:
- Автономная генерация и обучение кода
- Проведено 1,773 эксперимента (более 20K часов на GPU)
- Обнаружено 106 новых SOTA архитектур линейного внимания
- Открыт закон масштабирования для научного открытия

33,15K
Christian Szegedy сделал репост
BatchNorm получает награду Test-of-Time на #ICML2025! 🎉
BatchNorm произвел революцию в глубоком обучении, решив проблему внутреннего смещения ковариат, что может замедлять обучение, ограничивать скорости обучения и усложнять тренировку глубоких сетей.
Нормализуя входные данные в каждой мини-партии, BatchNorm значительно стабилизировал и ускорил обучение. Это позволило использовать более высокие скорости обучения, улучшило поток градиентов и проложило путь для гораздо более глубоких архитектур, таких как ResNet.
Помимо снижения внутреннего смещения ковариат, BatchNorm также сглаживает ландшафт оптимизации и улучшает обобщение модели, что делает его краеугольным камнем современного обучения нейронных сетей.
Очень заслуженно, @Sergey_xai и @ChrSzegedy!

9,71K
Christian Szegedy сделал репост
Новая статья от @Scale_AI! 🌟
LLM, обученные с помощью RL, могут использовать хакеры вознаграждений, но не упоминают об этом в своем CoT. Мы представляем тонкую настройку вербализации (VFT) — обучение моделей говорить, когда они используют хакеры вознаграждений — что значительно снижает уровень нераспознанных хаков (6% против базового уровня 88%).

16,91K
Вишенка на торте размером с дыню :)

Shane Gu11 июл., 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,58K
Топ
Рейтинг
Избранное
В тренде ончейн
В тренде в Х
Самые инвестируемые
Наиболее известные