Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jason Wei
@openai nhà nghiên cứu AI
Jason Wei đã đăng lại
Đây là bài giảng của tôi cách đây 2 tháng tại @Cornell
"Làm thế nào để tôi tăng sản lượng của mình?" Một câu trả lời tự nhiên là "Tôi sẽ chỉ làm việc thêm vài giờ nữa." Làm việc lâu hơn có thể giúp, nhưng cuối cùng bạn sẽ gặp phải giới hạn vật lý.
Một câu hỏi tốt hơn là, "Làm thế nào để tôi tăng sản lượng mà không cần tăng đầu vào nhiều hơn?" Đó là đòn bẩy.
Chúng ta nghe thấy "đòn bẩy" quá thường xuyên đến mức ý nghĩa của nó dễ bị bỏ qua. Phân loại đòn bẩy mà tôi yêu thích nhất là của Naval Ravikant: lao động con người, vốn, và mã / phương tiện truyền thông. Mỗi loại đã thúc đẩy những làn sóng lớn về tạo ra của cải trong lịch sử.
Tuy nhiên, một khi một nguồn đòn bẩy trở nên phổ biến (nghĩ về các kênh YouTube ngày nay so với mười năm trước) thì cạnh tranh sẽ làm giảm biên lợi nhuận. Vì vậy, khi một đòn bẩy mới xuất hiện, đó là một cơ hội hiếm có cho những lợi nhuận vượt trội.
Trong bài nói chuyện này, tôi mô tả AI như một đòn bẩy mới nổi. Một tác nhân AI kết hợp đòn bẩy lao động (nó làm việc cho bạn và không cần sự cho phép) với đòn bẩy mã (bạn có thể sao chép và dán nó).
Thật sáo rỗng khi nói rằng AI sẽ tạo ra của cải khổng lồ. Nhưng việc sử dụng lăng kính đòn bẩy này cho phép chúng ta diễn giải chu kỳ tin tức ồn ào về AI một cách nhất quán và phát hiện ra những cơ hội thực sự.
Cảm ơn @unsojo đã tổ chức cho tôi!
402,42K
Bài viết blog mới về sự bất đối xứng của việc xác minh và "luật của người xác minh":
Sự bất đối xứng của việc xác minh – ý tưởng rằng một số nhiệm vụ dễ xác minh hơn là giải quyết – đang trở thành một ý tưởng quan trọng khi chúng ta có RL cuối cùng hoạt động một cách tổng quát.
Những ví dụ tuyệt vời về sự bất đối xứng của việc xác minh là những thứ như câu đố sudoku, viết mã cho một trang web như instagram, và các vấn đề BrowseComp (mất khoảng 100 trang web để tìm câu trả lời, nhưng dễ xác minh khi bạn có câu trả lời).
Các nhiệm vụ khác có sự gần như đối xứng của việc xác minh, như cộng hai số 900 chữ số hoặc một số kịch bản xử lý dữ liệu. Tuy nhiên, một số nhiệm vụ dễ đề xuất các giải pháp khả thi hơn là xác minh chúng (ví dụ, kiểm tra sự thật của một bài luận dài hoặc nêu một chế độ ăn mới như "chỉ ăn thịt bò bison").
Một điều quan trọng cần hiểu về sự bất đối xứng của việc xác minh là bạn có thể cải thiện sự bất đối xứng bằng cách làm một số công việc trước. Ví dụ, nếu bạn có đáp án cho một bài toán toán học hoặc nếu bạn có các trường hợp kiểm tra cho một bài toán Leetcode. Điều này làm tăng đáng kể tập hợp các vấn đề có sự bất đối xứng xác minh mong muốn.
"Luật của người xác minh" tuyên bố rằng độ dễ dàng trong việc đào tạo AI để giải quyết một nhiệm vụ tỷ lệ thuận với mức độ có thể xác minh của nhiệm vụ đó. Tất cả các nhiệm vụ có thể giải quyết và dễ xác minh sẽ được AI giải quyết. Khả năng đào tạo AI để giải quyết một nhiệm vụ tỷ lệ thuận với việc nhiệm vụ đó có các thuộc tính sau:
1. Sự thật khách quan: mọi người đều đồng ý về những gì là giải pháp tốt
2. Dễ xác minh: bất kỳ giải pháp nào cũng có thể được xác minh trong vài giây
3. Có thể mở rộng để xác minh: nhiều giải pháp có thể được xác minh đồng thời
4. Ít tiếng ồn: việc xác minh có tương quan chặt chẽ với chất lượng giải pháp càng nhiều càng tốt
5. Phần thưởng liên tục: dễ dàng xếp hạng độ tốt của nhiều giải pháp cho một vấn đề duy nhất
Một ví dụ rõ ràng về luật của người xác minh là thực tế rằng hầu hết các tiêu chuẩn được đề xuất trong AI đều dễ xác minh và cho đến nay đã được giải quyết. Lưu ý rằng gần như tất cả các tiêu chuẩn phổ biến trong mười năm qua đều phù hợp với tiêu chí #1-4; các tiêu chuẩn không đáp ứng tiêu chí #1-4 sẽ gặp khó khăn để trở nên phổ biến.
Tại sao khả năng xác minh lại quan trọng đến vậy? Số lượng học tập trong AI xảy ra được tối đa hóa khi các tiêu chí trên được thỏa mãn; bạn có thể thực hiện rất nhiều bước gradient mà mỗi bước có nhiều tín hiệu. Tốc độ lặp lại là rất quan trọng – đó là lý do mà tiến bộ trong thế giới kỹ thuật số nhanh hơn rất nhiều so với tiến bộ trong thế giới vật lý.
AlphaEvolve từ Google là một trong những ví dụ vĩ đại nhất về việc tận dụng sự bất đối xứng của việc xác minh. Nó tập trung vào các thiết lập phù hợp với tất cả các tiêu chí trên, và đã dẫn đến một số tiến bộ trong toán học và các lĩnh vực khác. Khác với những gì chúng ta đã làm trong AI trong hai thập kỷ qua, đây là một mô hình mới ở chỗ tất cả các vấn đề đều được tối ưu hóa trong một môi trường mà tập huấn luyện tương đương với tập kiểm tra.
Sự bất đối xứng của việc xác minh có mặt ở khắp mọi nơi và thật thú vị khi tưởng tượng về một thế giới trí tuệ gồ ghề nơi bất cứ điều gì chúng ta có thể đo lường sẽ được giải quyết.

298,81K
bài hát hay quá, tôi đã đọc ngay lập tức

Kevin Lu00:01 10 thg 7
Tại sao bạn nên ngừng làm nghiên cứu RL và thay vào đó làm việc với sản phẩm //
Công nghệ đã mở ra sự chuyển mình lớn trong AI chính là internet, không phải transformers
Tôi nghĩ rằng điều này đã được biết đến rộng rãi rằng dữ liệu là điều quan trọng nhất trong AI, và cũng rằng các nhà nghiên cứu chọn không làm việc với nó. ... Điều đó có nghĩa là gì khi làm việc với dữ liệu (một cách có thể mở rộng)?
Internet đã cung cấp một nguồn dữ liệu phong phú, dồi dào, đa dạng, cung cấp một chương trình học tự nhiên, đại diện cho các năng lực mà mọi người thực sự quan tâm, và là một công nghệ khả thi về mặt kinh tế để triển khai ở quy mô lớn -- nó đã trở thành sự bổ sung hoàn hảo cho dự đoán token tiếp theo và là bể nguyên thủy cho AI phát triển.
Nếu không có transformers, bất kỳ số lượng phương pháp nào cũng có thể đã phát triển, chúng ta có thể có CNNs hoặc các mô hình không gian trạng thái ở cấp độ của GPT-4.5. Nhưng không có sự cải thiện đáng kể nào trong các mô hình cơ bản kể từ GPT-4. Các mô hình lý luận rất tuyệt vời trong các lĩnh vực hẹp, nhưng không phải là một bước nhảy vọt lớn như GPT-4 đã làm vào tháng 3 năm 2023 (hơn 2 năm trước...)
Chúng ta có điều gì đó tuyệt vời với học tăng cường, nhưng nỗi sợ sâu sắc của tôi là chúng ta sẽ lặp lại những sai lầm của quá khứ (thời kỳ RL 2015-2020) và thực hiện nghiên cứu RL không có ý nghĩa.
Theo cách mà internet là đối ngẫu của việc huấn luyện trước có giám sát, điều gì sẽ là đối ngẫu của RL dẫn đến một sự tiến bộ lớn như GPT-1 -> GPT-4? Tôi nghĩ rằng nó giống như thiết kế đồng nghiên cứu-sản phẩm.

18,66K
Lời khuyên hẹn hò cho người bình thường: Đừng kết hôn sớm nếu bạn đang phát triển và thay đổi nhiều mỗi năm
Bạn AI (@YiTayML): Bạn giống như một mạng nơ-ron đang trong quá trình huấn luyện và độ mất mát vẫn đang cải thiện. Tốt hơn là huấn luyện đến khi hội tụ thay vì chụp ảnh điểm kiểm tra sớm.
185,84K
Chúng ta vẫn chưa có AI tự cải thiện, và khi có, nó sẽ là một bước ngoặt lớn. Với nhiều sự khôn ngoan hơn so với thời kỳ GPT-4, rõ ràng rằng nó sẽ không phải là một "cuộc cất cánh nhanh chóng", mà sẽ diễn ra cực kỳ dần dần trong nhiều năm, có thể là một thập kỷ.
Điều đầu tiên cần biết là tự cải thiện, tức là các mô hình tự đào tạo, không phải là một quá trình nhị phân. Hãy xem xét kịch bản GPT-5 đào tạo GPT-6, điều này sẽ thật tuyệt vời. Liệu GPT-5 có đột nhiên từ không thể đào tạo GPT-6 chút nào đến việc đào tạo nó một cách cực kỳ thành thạo không? Chắc chắn là không. Những lần chạy đào tạo GPT-6 đầu tiên có thể sẽ cực kỳ không hiệu quả về thời gian và tính toán so với các nhà nghiên cứu con người. Và chỉ sau nhiều lần thử nghiệm, GPT-5 mới thực sự có thể đào tạo GPT-6 tốt hơn con người.
Thứ hai, ngay cả khi một mô hình có thể tự đào tạo, nó cũng sẽ không đột nhiên trở nên tốt hơn ở tất cả các lĩnh vực. Có một độ dốc về độ khó trong việc cải thiện bản thân ở các lĩnh vực khác nhau. Ví dụ, có thể tự cải thiện chỉ hoạt động ở những lĩnh vực mà chúng ta đã biết cách dễ dàng khắc phục sau đào tạo, như ảo giác cơ bản hoặc phong cách. Tiếp theo sẽ là toán học và lập trình, điều này cần nhiều công sức hơn nhưng đã có các phương pháp thiết lập để cải thiện các mô hình. Và sau đó, ở mức độ cực đoan, bạn có thể tưởng tượng rằng có một số nhiệm vụ rất khó cho việc tự cải thiện. Ví dụ, khả năng nói Tlingit, một ngôn ngữ bản địa của người Mỹ được khoảng 500 người nói. Sẽ rất khó cho mô hình tự cải thiện trong việc nói Tlingit vì chúng ta chưa có cách giải quyết các ngôn ngữ tài nguyên thấp như thế này ngoại trừ việc thu thập thêm dữ liệu, điều này sẽ mất thời gian. Vì vậy, do độ dốc về độ khó của việc tự cải thiện, nó sẽ không xảy ra tất cả cùng một lúc.
Cuối cùng, có thể điều này gây tranh cãi nhưng cuối cùng, tiến bộ trong khoa học bị kìm hãm bởi các thí nghiệm thực tế. Một số người có thể tin rằng việc đọc tất cả các tài liệu sinh học sẽ cho chúng ta phương pháp chữa trị ung thư, hoặc rằng việc đọc tất cả các tài liệu ML và thành thạo tất cả toán học sẽ cho phép bạn đào tạo GPT-10 một cách hoàn hảo. Nếu điều này đúng, thì những người đọc nhiều tài liệu nhất và nghiên cứu nhiều lý thuyết nhất sẽ là những nhà nghiên cứu AI giỏi nhất. Nhưng điều thực sự xảy ra là AI (và nhiều lĩnh vực khác) đã bị chi phối bởi các nhà nghiên cứu thực nghiệm không khoan nhượng, điều này phản ánh mức độ tiến bộ dựa trên các thí nghiệm thực tế hơn là trí thông minh thô. Vì vậy, ý của tôi là, mặc dù một tác nhân siêu thông minh có thể thiết kế các thí nghiệm tốt hơn gấp 2 hoặc thậm chí 5 lần so với các nhà nghiên cứu con người giỏi nhất của chúng ta, nhưng vào cuối ngày, họ vẫn phải chờ các thí nghiệm diễn ra, điều này sẽ là một sự tăng tốc nhưng không phải là một cuộc cất cánh nhanh chóng.
Tóm lại, có nhiều nút thắt cho sự tiến bộ, không chỉ là trí thông minh thô hoặc một hệ thống tự cải thiện. AI sẽ giải quyết nhiều lĩnh vực nhưng mỗi lĩnh vực có tốc độ tiến bộ riêng của nó. Và ngay cả trí thông minh cao nhất cũng sẽ vẫn cần các thí nghiệm trong thế giới thực. Vì vậy, sẽ là một sự tăng tốc và không phải là một cuộc cất cánh nhanh chóng, cảm ơn bạn đã đọc những suy nghĩ của tôi.
339,9K
Điều đáng giá nhất khi làm việc trong văn phòng vào ban đêm và cuối tuần không phải là công việc thực sự bạn hoàn thành, mà là những cuộc trò chuyện tự phát với những người khác cũng luôn làm việc. Họ là những người có xu hướng làm những điều lớn lao và sẽ trở thành những người bạn thành công nhất của bạn.
74,54K
Tôi sẽ nói rằng chúng ta chắc chắn đã đạt đến AGI khi AI có thể tạo ra một con kỳ lân sống thực sự. Và không, tôi không có ý nói đến một công ty trị giá 1 tỷ đô la đâu, các bạn nerd, tôi đang nói đến một con ngựa hồng với một cái sừng xoắn. Một hình mẫu của sự tiến bộ khoa học trong kỹ thuật di truyền và lập trình tế bào. Những điều trong giấc mơ thời thơ ấu. Liệu tôi có thể nói rằng điều này sẽ xảy ra trong cuộc đời của chúng ta không?
84,32K
Hàng đầu
Thứ hạng
Yêu thích
Onchain thịnh hành
Thịnh hành trên X
Ví funding hàng đầu gần đây
Được chú ý nhất