Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Sự xuất sắc của @karpathy là khả năng tinh giản những khái niệm vô cùng phức tạp và làm cho chúng trở nên dễ hiểu và có thể thực hiện ở quy mô nhỏ.
Tất cả những gì cần là Claude Code và $10 trên @runpod để khởi động một H100, và tôi đã có một nhà nghiên cứu ML hàng đầu làm việc tự động.
Tôi đang áp dụng khái niệm chung về autoresearch vào một pipeline suy diễn mà tôi đã làm việc (không cần GPU may mắn thay). Mọi thứ bây giờ thật thú vị.


03:53 8 thg 3
Tôi đã đóng gói dự án "autoresearch" vào một kho lưu trữ tối thiểu tự chứa mới nếu mọi người muốn thử nghiệm vào cuối tuần. Nó cơ bản là lõi đào tạo LLM nanochat được rút gọn xuống phiên bản một tệp, một GPU với khoảng 630 dòng mã, sau đó:
- con người lặp lại trên prompt (.md)
- tác nhân AI lặp lại trên mã đào tạo (.py)
Mục tiêu là thiết kế các tác nhân của bạn để đạt được tiến bộ nghiên cứu nhanh nhất vô hạn mà không cần sự tham gia của bạn. Trong hình, mỗi chấm là một lần chạy đào tạo LLM hoàn chỉnh kéo dài đúng 5 phút. Tác nhân làm việc trong một vòng lặp tự động trên một nhánh tính năng git và tích lũy các cam kết git vào kịch bản đào tạo khi nó tìm thấy các cài đặt tốt hơn (có độ mất mát xác thực thấp hơn vào cuối) của kiến trúc mạng nơ-ron, bộ tối ưu hóa, tất cả các siêu tham số, v.v. Bạn có thể tưởng tượng so sánh tiến bộ nghiên cứu của các prompt khác nhau, các tác nhân khác nhau, v.v.
Một phần mã, một phần khoa học viễn tưởng, và một chút tâm thần :)

@karpathy @runpod cần những người bạn như @ryaneshea để loại bỏ những (yếu ớt) lý do của bạn để không chỉ làm mọi thứ

499
Hàng đầu
Thứ hạng
Yêu thích
