Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai науковий співробітник. Думки мої.
Користувач Christian Szegedy поділився
Ця стаття робить сміливу заяву!
Момент AlphaGo для відкриття архітектури моделей
Дослідники представляють ASI-Arch, перший штучний суперінтелект для досліджень штучного інтелекту (ASI4AI), що дозволяє повністю автоматизувати інновації в нейронній архітектурі.
Жодного простору для пошуку, створеного людиною. Жодної людини в петлі.
🔍 Ключові прориви ASI-Arch:
- Автономна генерація коду та навчання
- 1 773 проведених експериментів (20 тис. + годин графічного процесора)
- Виявлено 106 нових архітектур лінійної уваги SOTA.
- Оприлюднено закон масштабування наукових відкриттів

33,15K
Користувач Christian Szegedy поділився
BatchNorm отримує нагороду Test-of-Time Award на #ICML2025! 🎉
BatchNorm здійснив революцію в глибокому навчанні, вирішивши проблему внутрішнього коваріатного зсуву, який може уповільнити навчання, обмежити швидкість навчання та ускладнити тренування глибоких мереж.
Нормалізуючи витрати в межах кожної міні-партії, BatchNorm значно стабілізував і прискорив навчання. Це дозволило підвищити швидкість навчання, покращити градієнтний потік і проклало шлях для набагато глибших архітектур, таких як ResNet.
Крім зменшення внутрішнього коваріатного зсуву, BatchNorm також згладжує ландшафт оптимізації та покращує узагальнення моделі, роблячи його наріжним каменем сучасного навчання нейронних мереж.
Дуже заслужено, @Sergey_xai і @ChrSzegedy!

9,71K
Користувач Christian Szegedy поділився
Новий @Scale_AI папір! 🌟
LLM, навчені RL, можуть використовувати хаки винагороди, але не згадувати про це у своєму CoT. Ми впроваджуємо тонке налаштування вербалізації (VFT) — навчання моделей говорити, коли вони винагороджують хакерство — різко знижуючи частоту невиявлених хакерських атак (6% проти базового рівня 88%).

16,91K
Вишня розміром з диню на верхівці :)

Shane Gu11 лип., 06:22
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,57K
Найкращі
Рейтинг
Вибране
Актуальне ончейн
Популярні в X
Нещодавнє найкраще фінансування
Найбільш варте уваги