Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Структура гарантії довіри для прозорого навчання та верифікації моделі ШІ
@gensynai , @nesaorg , @DeepNodeAI
Перша передумова, яку розглядають під час навчання та валідації моделей ШІ в розподіленому середовищі, полягає в тому, що неможливо припустити, що всі учасники завжди поводитимуться чесно. У реальних дослідженнях і експлуатаційних випадках виявлено конкретні збої, такі як безкоштовне завантаження, коли обчислювальні вузли повертають правдоподібні, але не перевірені результати для зниження обчислювальних витрат, отруєння даних через шкідливе вставлення навчальних даних, маніпульоване подання заяв про завершення в процесі навчання з підкріпленням, маніпуляції градієнтом, які не виявлені статистично, а також ситуації, коли кілька вузлів змовляються для спотворення структури консенсусу. Ці ризики слугують відправною точкою для пояснення, чому потрібні механізми технічного гарантування прозорості та довіри.
Щоб вирішити цю проблему, Gensyn пропонує структуру, орієнтовану на виконання, яка бере сам обчислення як об'єкт перевірки. У цій структурі завдання машинного навчання розкладається на відтворювані детерміновані обчислювальні графи на рівні оператора, і та сама операція призначена для рівномірного відтворення по частинах у різних апаратних середовищах. Протокол Verde поєднує делегування арбітражу з дихотомічною грою, щоб знайти першу точку операції, де результат обчислення неправильно вирівняний, і повторити його з мінімальним повторним виконанням спірної частини, зберігаючи ефективність. Економічні коригування здійснюються на Ethereum-базованих rollup-платформах, а реальні масштабні операції виконуються поза мережею, але ключова особливість полягає в тому, що точність результатів криптографічно гарантована, якщо існує хоча б один чесний вузол.
У межах того ж стеку Delphi від Gensyn відповідає за перевірку якості результативної моделі, а не за те, як були виконані обчислення. Delphi організовує оцінки продуктивності моделей у вигляді ринків прогнозування, дозволяє учасникам робити ставки на результати продуктивності та прозоро визначає результати за допомогою логіки судження на ланцюгу. Цей процес базується на статистичній верифікації та економічних стимулах, а не на криптографічних доказах, але він функціонує як механізм, що забезпечує прозорість у тому, що критерії оцінки та результати публічно фіксуються.
NESA, навпаки, має структуру, яка надає пріоритет захисту приватності над прозорістю. NESA використовує блокчейн-послідовне нейронне мережеве шардинг для поділу моделі на кілька частин і застосовує ізоморфні методи розподілу секретів для ізоморфного шифрування та зашифрованих вкладень, щоб жоден вузол не міг бачити всю модель або всі дані. Цей підхід зосереджений на ефективному тонкому налаштуванні параметрів за допомогою адаптерів, а не на навчанні всієї моделі з нуля, і характеризується підтримкою меж конфіденційності через процедури, які перевіряють результати висновків, виконаних поза ланцюгом у ланцюгу. Однак, оскільки процес обчислення зашифрований, існує також структурне обмеження — важко безпосередньо відтворити або перевірити операцію ззовні.
DeepNode AI спрямований на прозорість у іншому напрямку. Система використовує ринковий механізм, заснований на взаємній оцінці та стейкінгу між вузлами, а не на криптографічних доказах обчислювальних процесів. Кожна інтелектуальна система оцінює вихідну інформацію іншої системи, а винагорода розподіляється відповідно до функції втрати з урахуванням ставок. Репутація формується через повторні взаємодії, штрафи накладаються за неправильні подання, і цей економічний тиск допомагає узгоджувати поведінку учасників. Ця структура вирізняється тим, що, хоча вона не надає криптографічних доказів, вона формує довіру таким чином, що прозоро виявляє мотивацію участі.
У сукупності ці підходи показують, що прозорість у децентралізованому навчанні та верифікації ШІ — це не єдине поняття, а реалізується на кількох рівнях. Verde від Gensyn перевіряє, чи виконано завдання, Delphi — результати, а DeepNode — внесок і цілісність учасників різними способами, при цьому Nesa зосереджується на мінімізації поширення даних і моделей у процесі. Водночас напруга також очевидна: зашифровані обчислення обмежують відтворюваність і прямий аудит, а структури, що потребують повної відтворюваності, забезпечують мінімальну конфіденційність даних.
Внаслідок цього нинішній децентралізований стек ШІ оцінюється як такі, що не повністю вирішує такі питання, як походження та автентичність навчальних даних, синхронізація градієнтів у глобальному середовищі та координація між різними економічними системами. Проте відносно зрозуміло, які структурні елементи складаються з прозорого децентралізованого навчання та верифікації моделі ШІ, оскільки різні механізми, такі як обчислювальна верифікація, оцінка продуктивності, економічні стимули та захист приватності, забезпечують прозорість у межах можливості перевірки.
$NESA



Найкращі
Рейтинг
Вибране
