Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Sean Ren 🔆
Xây dựng @SaharaLabsAI | Giáo sư @USCViterbi @nlp_usc | @MIT TR 35 , @ForbesUnder30 | Trước: @allen_ai, @Snapchat, @Stanford, @UofIllinois
Sean Ren 🔆 đã đăng lại
Các LLM có thể có vẻ như suy luận tốt, nhưng một token sai có thể làm hỏng toàn bộ đầu ra. Công trình mới của chúng tôi cho thấy rằng việc ghi nhớ ở cấp độ token là một nguyên nhân chính gây ra sự thất bại, đặc biệt là dưới sự thay đổi phân phối.
Giới thiệu: STIM 🔍🧠
🧵 #NLProc

2,5K
Rất hào hứng khi được nói chuyện tại Berkeley #SBC2025 #BASS2025 về sự hội tụ của AI x Web3 và cách chúng ta có thể tạo ra một nền kinh tế mở, hợp tác cho một tương lai do AI dẫn dắt.
Người phụ trách sản phẩm blockchain của chúng tôi chia sẻ kiến trúc công nghệ về cách chúng tôi đạt được các dòng doanh thu trên chuỗi cho tài sản AI.
@BerkeleyRDI @StanfordSBA


7,79K
Sean Ren 🔆 đã đăng lại
Tôi sẽ có mặt tại @aclmeeting vào tuần tới để trình bày công việc này! 🇦🇹
Rất hào hứng được gặp lại những người bạn cũ và kết bạn mới. Hãy gặp nhau nếu bạn thích suy nghĩ nhiều hơn về tương lai của NLP tập trung vào con người, cá nhân hóa và tương tác nhiều lượt hoặc chỉ muốn thưởng thức một tách cà phê Viennese ngon ☕️
7,89K
Sean Ren 🔆 đã đăng lại
1+1=3
2+2=5
3+3=?
Nhiều mô hình ngôn ngữ (ví dụ: Llama 3 8B, Mistral v0.1 7B) sẽ trả lời là 7. Nhưng tại sao?
Chúng tôi đào sâu vào nội bộ của mô hình, khám phá một cơ chế suy diễn hàm, và phát hiện rằng nó được sử dụng rộng rãi khi các mô hình gặp phải những điều bất ngờ trong quá trình học theo ngữ cảnh. 🧵

6,38K
Sean Ren 🔆 đã đăng lại
Nền tảng Dịch vụ Dữ liệu (DSP) đã hoạt động!
🔆 Bây giờ bất kỳ ai, ở bất kỳ đâu trên thế giới, đều có thể đóng góp vào sự phát triển AI và nhận phần thưởng thực sự cho công việc của họ.
🔆 Hơn $450K trong $SAHARA + phần thưởng từ đối tác có sẵn ngay từ ngày đầu tiên!
Bắt đầu ngay hôm nay →
#AIforALL

254,61K
Sean Ren 🔆 đã đăng lại
Đây là một bài nói chuyện gần đây mà tôi đã thực hiện, tóm tắt lại những tiến bộ trong AI trong 6-12 tháng qua, lý do tại sao việc đạt được các mô hình hoàn hảo là khó khăn, cách các phòng thí nghiệm có thể đang tiếp cận giai đoạn đào tạo tiếp theo (cho các tác nhân), và những thông tin thú vị khác trong lĩnh vực lý luận.
Các chủ đề:
00:00 Giới thiệu & tình trạng lý luận
05:50 Leo dốc các đánh giá không hoàn hảo
09:18 Các nút thắt kỹ thuật
13:02 Sự nịnh bợ
18:08 Khu vực Goldilocks
19:28 Điều gì sẽ đến tiếp theo? (gợi ý, lập kế hoạch)
26:40 Hỏi & Đáp
YouTube v.v. trong các phản hồi.
Cảm ơn @corbtt và @OpenPipeAI đã tổ chức cho tôi.
67,89K
Sean Ren 🔆 đã đăng lại
Các mô hình ngôn ngữ lớn (LLMs) có thể giải thích một cách thích hợp "Tại sao bầu trời lại có màu xanh?" cho một đứa trẻ 10 tuổi 👶🏽 so với một người có bằng tiến sĩ vật lý 👩🏽🔬 không?
Trong bài báo #ACL2025 của chúng tôi, chúng tôi đánh giá khả năng của LLMs trong việc điều chỉnh các giải thích của họ cho những người khác nhau.✍️
🔗
🧵 (1/n)

1,68K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất