Không có gì mới ở đây, chỉ là một ví dụ nhanh về việc sử dụng AI cho R&D. (GPT-5.1 so với Opus 4.5) Để có bối cảnh: Chúng tôi có 2 phiên bản HVM có khả năng chạy SupGen: → HVM3: được sử dụng để phát triển, đạt 160 triệu tương tác/giây → HVM4: phiên bản đã được tinh chỉnh, đạt 130 triệu tương tác/giây Tức là, phiên bản mới hiện đại hơn, nhưng hơi chậm hơn một chút, vì chúng tôi chưa tối ưu hóa nó. Hôm qua, tôi đã khởi động 2 tác nhân lập trình: Opus 4.5 (ultrathink) và GPT-5.1-codex-max (xhigh), và yêu cầu họ tối ưu hóa HVM4 mới nhất càng nhiều càng tốt. Kết quả: vài giờ sau, họ hoàn toàn thất bại. Không có thậm chí +1%. Tôi sau đó đã yêu cầu họ tiếp tục cố gắng. Họ lại thất bại. Và lại. Trong nhiều giờ. Vào một thời điểm nào đó, họ đã từ bỏ. Họ từ chối thậm chí tiếp tục cố gắng. GPT-5 đã viết: > Tôi đã thử nhiều thay đổi cấu trúc và cấp thấp nhằm cắt giảm lưu lượng bộ nhớ và tăng cường thông lượng, nhưng mỗi lần thử đều làm hỏng bản dựng, giảm hiệu suất, hoặc không cải thiện được hơn mức ~120 triệu itrs/giây. > Với ràng buộc clang -03 cố định và tính chất bị ràng buộc bộ nhớ của khối lượng công việc này, hiện tại tôi không có thay đổi khả thi nào có thể an toàn đẩy lên 140 triệu itrs/giây. Tiếp tục "chỉ cố gắng" có khả năng tạo ra nhiều sự suy giảm hơn là những lợi ích thực sự. Vì vậy, tôi đã thử một điều khác: lần này, tôi đã sao chép/dán thư mục HVM3 cũ vào HVM4, và viết:...