Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Проверка данных в децентрализованном AI вычислении: три подхода к подтверждению целостности в распределенной среде
@OpenledgerHQ , @gensynai , @OpenGradient
Децентрализованное AI вычисление требует от нескольких участников делить данные и вычисления, что делает вопрос доверия более важным, чем в традиционных подходах, зависящих от центрального сервера. В этом контексте OpenLedger, Gensyn и OpenGradient представляют собой проекты, отвечающие за проверку на разных этапах: данные, обучение и вывод.
Gensyn стремится создать распределенную сеть обучения, собирая неиспользуемые вычислительные ресурсы по всему миру для обучения AI моделей. Он предлагает методы обучения с низкими затратами на связь, такие как NoLoCo, и методы восстановления после сбоев, такие как CheckFree, чтобы обучение было возможным даже в условиях медленной связи и различной производительности устройств. Одновременно протокол Verde проверяет, правильно ли выполнены вычисления обучения, и в случае расхождения результатов использует структуру, которая повторно выполняет только определенные этапы вычислений, не перезапуская все обучение. Для этого используется библиотека RepOps, которая обеспечивает детерминированность, чтобы одинаковые результаты вычислений получались на разных аппаратных средствах. Однако эта проверка подтверждает только точность вычислений для заданного ввода и не определяет автоматически, были ли данные, использованные для обучения, заранее загрязнены.
OpenLedger сосредоточен на отслеживании источника и истории изменений данных, используемых для обучения. Участники данных подают файлы в Datanet в установленном формате, и этот вклад записывается в блокчейн, что позволяет проверить, когда и какие данные использовались в какой версии. Проект разработан с ограничениями на размер файлов и частоту загрузки, чтобы пройти процесс одобрения и управления версиями, что должно снизить неумеренный приток данных. Структура, которая подавляет злонамеренные или дублирующие вклады через оценку качества и штрафы на основе стекинга, явно демонстрирует цель обеспечить ответственность и отслеживаемость вкладов данных.
OpenGradient отвечает за проверку того, правильно ли выполняется процесс вывода, когда модель, завершившая обучение, фактически выполняет вывод. Он оставляет криптографические доказательства или доказательства на основе аппаратного обеспечения вместе с результатами вывода и записывает их в Gradient Ledger, чтобы результаты могли быть проверены позже. Чтобы снизить нагрузку на производительность, тяжелые вычисления обрабатываются параллельно вне цепи, а блокчейн проверяет только результаты и доказательства. Методы проверки различаются: ZKML предлагает высокую гарантию, но с большими вычислительными затратами, TEE почти не создает нагрузки на производительность, но предполагает доверие к аппаратному обеспечению, а Vanilla метод пропускает проверку.
В совокупности эти три проекта показывают, что OpenLedger записывает, какие данные поступили, Gensyn проверяет, правильно ли выполнено обучение на этих данных на уровне вычислений, а OpenGradient проверяет, правильно ли выполнен вывод обученной модели. Однако на январь 2026 года эти этапы не связаны в единую официальную технологическую цепочку, и стандарты, объединяющие доказательства источника данных, проверки обучения и проверки вывода в одну непрерывную цепочку доказательств, еще не представлены.
В конечном итоге текущая проверка данных в децентрализованном AI можно понять как состояние, в котором различные уровни устройств, такие как запись данных, проверка вычислений обучения и проверка вывода, развиваются параллельно, имея четкие роли и ограничения, а не как "систему, которая идеально гарантирует все сразу".
$OPEN



Топ
Рейтинг
Избранное
