Xác thực dữ liệu trong AI phi tập trung: Ba cách tiếp cận để xác minh tính toàn vẹn trong môi trường phân tán @OpenledgerHQ , @gensynai , @OpenGradient AI phi tập trung đang nổi lên như một vấn đề quan trọng hơn trong việc đảm bảo độ tin cậy so với các phương pháp truyền thống phụ thuộc vào máy chủ trung tâm, vì cấu trúc này cho phép nhiều bên tham gia chia sẻ dữ liệu và tính toán. Liên quan đến điều này, OpenLedger, Gensyn và OpenGradient được giới thiệu như là các dự án đảm nhận việc xác thực ở các giai đoạn khác nhau: dữ liệu, học tập và suy luận. Gensyn hướng tới việc xây dựng một mạng lưới học tập phân tán, tập hợp các tài nguyên tính toán nhàn rỗi trên toàn cầu để thực hiện việc học mô hình AI. Nó đề xuất các phương pháp học tập ít giao tiếp như NoLoCo và các kỹ thuật phục hồi lỗi như CheckFree để cho phép học tập ngay cả trong môi trường có tốc độ truyền thông chậm và hiệu suất thiết bị khác nhau. Đồng thời, thông qua giao thức Verde, nó xác thực xem các phép toán học đã được thực hiện đúng hay chưa, và nếu kết quả khác nhau, nó sử dụng cấu trúc chỉ thực hiện lại các bước tính toán cụ thể mà không cần khởi động lại toàn bộ quá trình học. Để làm điều này, nó sử dụng thư viện RepOps để đảm bảo rằng các kết quả tính toán giống nhau được tạo ra trên các phần cứng khác nhau. Tuy nhiên, việc xác thực này chỉ kiểm tra độ chính xác của các phép toán đối với đầu vào đã cho và không tự động xác định xem dữ liệu được sử dụng trong học tập có bị ô nhiễm trước đó hay không. OpenLedger tập trung vào việc theo dõi nguồn gốc và lịch sử thay đổi của chính dữ liệu được sử dụng trong học tập. Các nhà đóng góp dữ liệu nộp các tệp theo định dạng quy định lên Datanet, và sự đóng góp này được ghi lại trên chuỗi, cho phép xác minh khi nào và dữ liệu nào đã được sử dụng với phiên bản nào. Nó được thiết kế với các giới hạn về kích thước tệp và tần suất tải lên, và trải qua quy trình phê duyệt và quản lý phiên bản để giảm thiểu việc nhập dữ liệu một cách bừa bãi. Cấu trúc này được mô tả nhằm ngăn chặn các đóng góp độc hại hoặc trùng lặp thông qua đánh giá chất lượng và hình phạt dựa trên staking, rõ ràng thể hiện mục tiêu đảm bảo trách nhiệm và khả năng theo dõi của các đóng góp dữ liệu. OpenGradient đảm nhận lớp xác thực khi mô hình đã hoàn thành việc học thực hiện suy luận, xác minh xem quá trình đó có được thực hiện đúng hay không. Nó để lại các chứng minh mật mã hoặc chứng minh dựa trên phần cứng cùng với kết quả suy luận và ghi lại chúng trên Gradient Ledger để có thể kiểm toán sau này. Để giảm bớt gánh nặng hiệu suất, các phép toán nặng được xử lý song song ngoài chuỗi, và chuỗi chỉ xác minh kết quả và chứng minh. Các phương pháp xác thực được phân loại thành ZKML, cung cấp bảo đảm cao nhưng có chi phí tính toán lớn, TEE, gần như không có gánh nặng hiệu suất nhưng dựa trên sự tin cậy của phần cứng, và phương pháp Vanilla không có xác thực. Tổng hợp ba dự án này cho thấy OpenLedger ghi lại dữ liệu nào đã được đưa vào, Gensyn xác minh xem việc học đã được thực hiện đúng với dữ liệu đó ở cấp độ tính toán, và OpenGradient xác thực xem mô hình đã học thực hiện suy luận đúng hay không. Tuy nhiên, tính đến tháng 1 năm 2026, các giai đoạn này vẫn chưa được kết nối thành một quy trình công nghệ chính thức, và không có tiêu chuẩn nào được đề xuất để liên kết chứng minh nguồn gốc dữ liệu, xác thực học tập và xác thực suy luận thành một chuỗi chứng minh liên tục. Cuối cùng, xác thực dữ liệu AI phi tập trung hiện tại có thể được hiểu là một trạng thái mà các thiết bị ở các cấp độ khác nhau như ghi chép dữ liệu, xác thực tính toán học tập và xác thực suy luận đang phát triển song song với các vai trò và giới hạn rõ ràng.