Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Валідація даних у децентралізованих AI-обчисленнях: три підходи до забезпечення цілісності в розподіленому середовищі
@OpenledgerHQ , @gensynai , @OpenGradient
Оскільки децентралізовані AI-обчислення — це структура, в якій кілька учасників діляться даними та розрахунками, питання забезпечення довіри стає важливішим, ніж існуючий метод, що базувався на центральному сервері. У цьому контексті OpenLedger, Gensyn і OpenGradient представлені як проєкти, відповідальні за верифікацію на різних етапах даних, навчання та висновки.
Gensyn прагне бути розподіленою навчальною мережею, яка збирає неактивні обчислювальні ресурси, розкидані по всьому світу, для навчання моделей ШІ. Щоб забезпечити навчання навіть у середовищах із повільним спілкуванням і відмінною продуктивністю пристрою, пропонуються методи навчання з низьким рівнем комунікації, такі як NoLoCo, а також методи відновлення після несправностей, такі як CheckFree. Водночас він перевіряє, чи правильно виконано обчислення навчання за протоколом Verde, і якщо результати різні, використовують структуру, яка оцінює шляхом повторного виконання лише певного етапу операції без повторного запуску всього навчання. Для цього використовується бібліотека RepOps для примусового детермінізму, щоб ті самі результати обчислень отримувалися на різних апаратних системах. Однак ця перевірка підтверджує точність розрахунків для певного вхідного даного і не визначає автоматично, чи забруднені дані, використані для навчання, заздалегідь.
OpenLedger зосереджується на відстеженні історії походження та змін самих даних, які використовуються для навчання. Учасники даних подають файли у заздалегідь визначеному форматі до Datanet, і ці внески записуються на ланцюжку, щоб бачити, коли і які дані використовувалися у якій версії. Він розроблений для обмеження розміру файлів і частоти завантаження, а також для проходження процесів затвердження та версійного обміну з метою зменшення безрозбірливого потоку даних. Пояснюється структура стримування зловмисних або дублованих внесків через оцінки якості та штрафи на основі стейкінгу, що чітко показує, що мета — забезпечити підзвітність і відстежуваність внесків у дані.
OpenGradient відповідає за перевірку, чи був процес виконаний правильно, коли модель фактично виконувала висновки після навчання. Залиште криптографічний або апаратний доказ із результатом висновку і запишіть його в Градієнтний реєстр, щоб результат можна було перевірити після завершення. Щоб зменшити навантаження на продуктивність, великі обчислення виконуються паралельно поза ланцюгом, а результати та докази перевіряються лише в блокчейні. Метод верифікації — ZKML, який забезпечує високу гарантію, але має високі обчислювальні витрати, TEE, який передбачає довіру апаратного забезпечення майже без навантаження на продуктивність, та ванільний метод, який пропускає верифікацію.
Об'єднуючи ці три проєкти, розкривається поділ ролей: OpenLedger фіксує, які дані надходять, Gensyn перевіряє, чи було навчання проведено правильно на обчислювальному рівні, а OpenGradient перевіряє, чи правильно навчена модель виконала виведення. Однак станом на січень 2026 року ці етапи не пов'язані єдиним формальним технологічним конвеєром, і не було запропоновано стандартів для об'єднання доказів джерел даних, перевірки навчання та перевірки висновків у безперервний ланцюжок доказів.
Зрештою, нинішню децентралізовану верифікацію даних ШІ можна розуміти як стан, у якому різні рівні пристроїв, такі як запис даних, навчання, верифікація розрахунків і перевірка висновків, розвиваються паралельно з чіткими ролями та обмеженнями, а не як «система, яка гарантує все одразу».
$OPEN



Найкращі
Рейтинг
Вибране
