Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Christian Szegedy
#deeplearning, #ai nhà khoa học nghiên cứu. Ý kiến là của tôi.
Christian Szegedy đã đăng lại
Bài báo này đưa ra một tuyên bố táo bạo!
Khoảnh khắc AlphaGo cho Khám Phá Kiến Trúc Mô Hình
Các nhà nghiên cứu giới thiệu ASI-Arch, trí tuệ siêu nhân tạo đầu tiên cho Nghiên cứu AI (ASI4AI), cho phép đổi mới kiến trúc thần kinh hoàn toàn tự động.
Không có không gian tìm kiếm do con người thiết kế. Không có con người trong quy trình.
🔍 Những Đột Phá Chính của ASI-Arch:
- Tạo mã và đào tạo tự động
- 1.773 thí nghiệm đã được thực hiện (hơn 20K giờ GPU)
- 106 kiến trúc chú ý tuyến tính SOTA mới được phát hiện
- Tiết lộ một quy luật mở rộng cho khám phá khoa học

33,15K
Christian Szegedy đã đăng lại
⏱️AI đang làm cho quá trình xác minh trở nên dễ dàng hơn, với các mô hình xác minh chứng cứ chỉ trong vài phút.
💻 Bây giờ, @prfsanjeevarora, @chijinML, @danqi_chen và @PrincetonPLI đã phát hành Goedel Prover V2, một mô hình hiệu quả và chính xác hơn bất kỳ mô hình nào trước đây.
👉

16,06K
Christian Szegedy đã đăng lại
BatchNorm đã giành giải Test-of-Time tại #ICML2025! 🎉
BatchNorm đã cách mạng hóa học sâu bằng cách giải quyết sự dịch chuyển nội bộ của biến thể, điều này có thể làm chậm quá trình học, giới hạn tốc độ học và khiến việc đào tạo các mạng sâu trở nên khó khăn.
Bằng cách chuẩn hóa các đầu vào trong mỗi mini-batch, BatchNorm đã ổn định và tăng tốc quá trình đào tạo một cách đáng kể. Nó cho phép tốc độ học cao hơn, cải thiện dòng gradient và mở đường cho các kiến trúc sâu hơn như ResNet.
Ngoài việc giảm sự dịch chuyển nội bộ của biến thể, BatchNorm còn làm mượt bề mặt tối ưu hóa và cải thiện khả năng tổng quát của mô hình, khiến nó trở thành một nền tảng của việc đào tạo mạng nơ-ron hiện đại.
Rất xứng đáng, @Sergey_xai và @ChrSzegedy!

9,71K
Christian Szegedy đã đăng lại
Bài báo mới từ @Scale_AI! 🌟
Các LLM được đào tạo với RL có thể khai thác các thủ thuật thưởng nhưng không đề cập đến điều này trong CoT của chúng. Chúng tôi giới thiệu tinh chỉnh bằng lời nói (VFT)—dạy các mô hình nói khi nào chúng đang khai thác thưởng—giảm đáng kể tỷ lệ các thủ thuật không bị phát hiện (6% so với mức cơ sở 88%).

16,91K
Một quả cherry kích thước như dưa hấu ở trên :)

Shane Gu06:22 11 thg 7
2023: at OpenAI, some key figs in post-training were against scaling RL.
2022: Eric/Yuhuai (now xAI) wrote STaR and I wrote "LLM can self-improve". It was clear that RL on clean signals unlocks the next leap.
Pre/post-training divide may have been a big slowdown to AI.

13,57K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất