Cấu trúc đảm bảo tin cậy cho việc đào tạo và xác thực mô hình AI phân tán minh bạch @gensynai , @nesaorg , @DeepNodeAI Khi đào tạo và xác thực mô hình AI trong môi trường phân tán, giả định đầu tiên cần xem xét là không thể giả định rằng tất cả các bên tham gia luôn hành động trung thực. Trong các nghiên cứu và trường hợp thực tế, đã xác định được các hình thức thất bại cụ thể như việc các nút tính toán trả về kết quả có vẻ hợp lý nhưng không được xác thực để giảm chi phí tính toán, việc chèn dữ liệu độc hại do dữ liệu bị ô nhiễm, việc gửi câu hoàn thành bị thao túng trong quá trình học tăng cường, thao tác gradient không rõ ràng về mặt thống kê, và tình huống nhiều nút thông đồng để làm sai lệch cấu trúc đồng thuận. Những yếu tố rủi ro này trở thành điểm khởi đầu để giải thích tại sao cần có cơ chế đảm bảo tính minh bạch và tin cậy về mặt kỹ thuật. Để đối phó với vấn đề này, Gensyn đề xuất một cấu trúc tập trung vào việc xác thực chính bản thân việc thực hiện tính toán. Trong cấu trúc này, các tác vụ học máy được phân tách thành các đồ thị tính toán quyết định có thể tái hiện được ở cấp độ toán tử và được thiết kế để các phép toán giống nhau có thể được tái hiện chính xác đến từng bit trong các môi trường phần cứng khác nhau. Giao thức Verde kết hợp ủy quyền trung gian và trò chơi nhị phân để tìm ra điểm tính toán đầu tiên mà kết quả bị sai lệch, đồng thời chỉ thực hiện lại phần có tranh chấp một cách tối thiểu để duy trì hiệu quả. Điều chỉnh kinh tế được xử lý trên nền tảng Ethereum và các phép toán quy mô lớn thực tế được thực hiện ngoài chuỗi, nhưng điểm cốt lõi là nếu tồn tại ít nhất một nút trung thực, độ chính xác của kết quả được đảm bảo về mặt mật mã. Trong cùng một ngăn xếp, Delphi của Gensyn đảm nhận vai trò xác thực không phải cách thức thực hiện tính toán mà là mô hình kết quả hoạt động tốt như thế nào. Delphi cấu trúc đánh giá hiệu suất mô hình dưới dạng thị trường dự đoán, cho phép các bên tham gia đặt cược vào kết quả hiệu suất và xác nhận kết quả một cách minh bạch thông qua logic phán quyết trên chuỗi. Quá trình này dựa trên xác thực thống kê và động lực kinh tế hơn là chứng minh mật mã, nhưng hoạt động như một cơ chế cung cấp tính minh bạch vì các tiêu chí đánh giá và kết quả được ghi lại công khai. Ngược lại, Nesa áp dụng cấu trúc ưu tiên bảo vệ quyền riêng tư hơn là tính minh bạch. Nesa chia mô hình thành nhiều mảnh thông qua việc phân đoạn mạng nơ-ron tuần tự dựa trên blockchain và áp dụng các kỹ thuật phân tán bí mật đồng hình cho mã hóa đồng dạng và nhúng mã hóa, đảm bảo rằng không có nút đơn lẻ nào có thể nhìn thấy toàn bộ mô hình hoặc toàn bộ dữ liệu. Cách tiếp cận này tập trung vào việc tinh chỉnh hiệu quả tham số bằng cách sử dụng bộ điều hợp thay vì đào tạo toàn bộ mô hình từ đầu, và duy trì ranh giới quyền riêng tư thông qua quy trình xác thực kết quả suy diễn được thực hiện ngoài chuỗi. Tuy nhiên, do quá trình tính toán được mã hóa, có một giới hạn cấu trúc là khó khăn trong việc tái hiện hoặc xác thực các phép toán từ bên ngoài. DeepNode AI tiếp cận tính minh bạch từ một hướng khác. Hệ thống này sử dụng cơ chế thị trường dựa trên đánh giá lẫn nhau giữa các nút và staking thay vì chứng minh mật mã cho quá trình tính toán. Mỗi hệ thống trí tuệ đánh giá thông tin đầu ra của các hệ thống khác và phần thưởng được phân phối theo hàm mất mát trọng số staking. Trong quá trình tương tác lặp đi lặp lại, danh tiếng được hình thành và các nộp sai sẽ bị phạt, và áp lực kinh tế này giúp định hình hành vi của các bên tham gia. Cấu trúc này không cung cấp chứng minh mật mã nhưng khác biệt ở chỗ xây dựng lòng tin bằng cách làm rõ động lực tham gia. Tổng hợp các cách tiếp cận này cho thấy tính minh bạch trong đào tạo và xác thực AI phân tán không phải là một khái niệm đơn lẻ mà được hiện thực hóa qua nhiều tầng khác nhau. Verde của Gensyn xác thực việc thực hiện công việc, Delphi xác thực hiệu suất của kết quả, DeepNode xác thực đóng góp và tính toàn vẹn của các bên tham gia, trong khi Nesa tập trung vào việc giảm thiểu sự lộ diện của dữ liệu và mô hình trong toàn bộ quá trình. Đồng thời, tính toán được mã hóa hạn chế khả năng tái hiện và kiểm toán trực tiếp, và cấu trúc yêu cầu tính tái hiện hoàn toàn gần như không cung cấp quyền riêng tư cho dữ liệu, điều này làm rõ mối quan hệ căng thẳng. Kết quả là, hiện tại, ngăn xếp AI phân tán không hoàn toàn giải quyết được các vấn đề như nguồn gốc và tính xác thực của dữ liệu học, đồng bộ gradient trong môi trường toàn cầu và điều chỉnh giữa các hệ thống kinh tế khác nhau. Tuy nhiên, các cơ chế khác nhau như xác thực tính toán, đánh giá hiệu suất, động lực kinh tế và bảo vệ quyền riêng tư đều cung cấp tính minh bạch trong phạm vi có thể xác thực, cho thấy cấu trúc của việc đào tạo và xác thực mô hình AI phân tán minh bạch được cấu thành từ các yếu tố cấu trúc tương đối rõ ràng. $NESA