Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Quản lý bộ nhớ tự động trong các tác nhân LLM
Các tác nhân LLM gặp khó khăn với các nhiệm vụ dài hạn do sự phình to của ngữ cảnh.
Khi lịch sử tương tác tăng lên, chi phí tính toán bùng nổ, độ trễ tăng lên, và khả năng suy luận suy giảm do bị phân tâm bởi những lỗi không liên quan trong quá khứ.
Cách tiếp cận tiêu chuẩn là chỉ thêm: mọi suy nghĩ, cuộc gọi công cụ và phản hồi đều tích lũy vĩnh viễn. Điều này hoạt động cho các nhiệm vụ ngắn nhưng đảm bảo thất bại cho việc khám phá phức tạp.
Nghiên cứu này giới thiệu Focus, một kiến trúc tập trung vào tác nhân được lấy cảm hứng từ nấm nhầy (Physarum polycephalum). Cái nhìn sinh học: các sinh vật không giữ lại hồ sơ hoàn hảo về mọi chuyển động qua một mê cung. Chúng giữ lại bản đồ đã học.
Focus cung cấp cho các tác nhân hai nguyên tắc mới: start_focus và complete_focus. Tác nhân tự động quyết định khi nào nên hợp nhất các kiến thức thành một khối Kiến thức vĩnh viễn và chủ động cắt tỉa lịch sử tương tác thô. Không có bộ hẹn giờ hoặc heuristics bên ngoài buộc phải nén.
Nó tuyên bố những gì bạn đang điều tra, khám phá bằng cách sử dụng các công cụ tiêu chuẩn, và sau đó hợp nhất bằng cách tóm tắt những gì đã thử, những gì đã học, và kết quả. Hệ thống này thêm điều này vào một khối Kiến thức vĩnh viễn và xóa mọi thứ giữa điểm kiểm tra và bước hiện tại.
Điều này chuyển đổi ngữ cảnh tăng liên tục thành một mẫu răng cưa: tăng trưởng trong quá trình khám phá, sụp đổ trong quá trình hợp nhất.
Đánh giá trên SWE-bench Lite với Claude Haiku 4.5 cho thấy Focus đạt được mức giảm 22.7% token (14.9M xuống 11.5M token) trong khi duy trì độ chính xác giống hệt (60% cho cả baseline và Focus). Các trường hợp cá nhân cho thấy tiết kiệm lên tới 57%.
Việc nhắc nhở mạnh mẽ là quan trọng. Việc nhắc nhở thụ động chỉ mang lại 6% tiết kiệm. Hướng dẫn rõ ràng để nén sau mỗi 10-15 cuộc gọi công cụ, với các nhắc nhở của hệ thống, đã tăng số lần nén từ 2.0 lên 6.0 cho mỗi nhiệm vụ.
Các mô hình có khả năng có thể tự điều chỉnh ngữ cảnh của chúng khi được cung cấp các công cụ và nhắc nhở phù hợp, mở ra con đường cho các hệ thống tác nhân nhận thức chi phí mà không hy sinh hiệu suất nhiệm vụ.
Bài báo:
Học cách xây dựng các tác nhân AI hiệu quả trong học viện của chúng tôi:

Hàng đầu
Thứ hạng
Yêu thích
