Автоматизация проверки вывода машинного обучения с нулевым знанием в распределенной вычислительной сети @inference_labs , @OpenGradient , @nesaorg Проблема проверки правильности результатов вывода искусственного интеллекта в распределенной вычислительной сети имеет сложные ограничения, отличные от централизованной серверной среды. В структуре, где несколько участников запускают одну и ту же модель в различных аппаратных и программных средах, трудно заранее предположить надежность вычислительных результатов. В этом контексте машинное обучение с нулевым знанием появилось как технология, которая криптографически доказывает, что определенный ввод был обработан фиксированной моделью определенным образом, что привело к созданию определенного вывода. Этот метод считается подходящим средством для распределенной среды, поскольку он позволяет проверять законность выполнения, не раскрывая процесс вычисления. Однако вывод искусственного интеллекта по своей сути содержит элемент неопределенности. Из-за некоммутативности операций с плавающей запятой даже при одинаковых операциях могут возникать незначительные различия в результатах в зависимости от порядка вычислений или реализации аппаратного обеспечения, и в среде с параллельными вычислениями на GPU эти различия становятся более заметными. Распределенная сеть охватывает различные устройства, от потребительских GPU до специализированных ускорителей, поэтому накопление отклонений в вычислениях из-за различий в операционных системах, драйверах, структуре памяти и наборах команд происходит. Криптографическая проверка требует совпадения на уровне битов, поэтому такие экологические различия могут сразу привести к сбоям в проверке. Чтобы решить эту проблему, система zkML квантизирует операции с плавающей запятой в фиксированную точку и преобразует операции нейронной сети в арифметические схемы. Такие фреймворки, как JSTprove, EZKL и RISC Zero, представляют свертки, матричное умножение, функции активации и т. д. в виде набора ограничений, что делает процесс вывода проверяемым. Этот процесс резко увеличивает сложность схемы в зависимости от глубины и размера модели, а также нелинейно увеличивает время и объем памяти, необходимые для генерации доказательства. Согласно фактическим измерениям, доказательство zkML для всей модели требует в тысячи или даже десятки тысяч раз больше затрат, чем повторное вычисление того же вывода. Такая структура затрат является ключевым ограничением при проектировании автоматизированной проверки вывода в распределенной сети. Если стоимость генерации доказательства превышает стоимость сомнений в выводе, проверка теряет экономический смысл. В связи с этим реальные системы принимают стратегию выборочной проверки только ключевых операций или чувствительных частей вместо проверки всей модели. DSperse от Inference Labs разбивает модель на несколько срезов и схематизирует только те части, которые особенно важны для надежности, что значительно снижает использование памяти и стоимость доказательства. Этот метод не предоставляет полного доказательства для всех вычислений, но способствует обеспечению эффективности проверки по сравнению с затратами. Автоматизированный конвейер проверки строится на основе этой выборочной стратегии проверки. Конвейер JSTprove от Inference Labs преобразует модель в фиксированную точку, затем компилирует граф в формате ONNX в арифметическую схему и генерирует доказательства через систему доказательства на основе GKR. Сгенерированные доказательства проверяются в ончейн или оффчейн, и на самом деле в определенной распределенной сети периодически обрабатывается множество доказательств. OpenGradient разработал структуру параллельного выполнения под названием PIPE, которая позволяет одновременно обрабатывать множество запросов на вывод и выбирать один из zkML, доверенной вычислительной среды или выполнения без проверки для каждого запроса. Это позволяет регулировать стоимость проверки так, чтобы она не становилась прямым узким местом для создания блоков или общей пропускной способности. Nesa принимает подход, который сочетает автоматизацию проверки с защитой вычислений. Он использует структуру, в которой входные данные распределяются по нескольким узлам в зашифрованном виде, а вывод выполняется по зашифрованным фрагментам, после чего результаты агрегируются. В этом процессе выбор узлов и распределение ролей регулируются проверяемыми случайными числами и методами порогового шифрования, а процедуры, состоящие из этапов коммита и раскрытия, подавляют мошенничество. Этот метод обеспечивает не только целостность результатов вывода, но и конфиденциальность входных данных и параметров модели. Интеграция проверки на основе zkML в распределенную вычислительную сеть четко разделяет роли выполнения и проверки. Параллельная стратегия OpenGradient позволяет одновременно обрабатывать множество выводов, управляя процессом проверки отдельно, а уровень координации Nesa отвечает за распределение ролей и стимулов между узлами. Уровень доказательства Inference Labs отвечает за криптографическую проверку правильности выполнения вычислений. Таким образом, с разделением каждого уровня автоматизированная проверка реализуется не как единая технология, а как комбинация нескольких компонентов. Структура стимулов также является ключевым элементом автоматизации. Nesa побуждает узлы-участники действовать честно через структуру стейкинга и раскрытия коммитов, а Inference Labs распределяет вознаграждения на основе способности и точности генерации доказательств. Сервис на основе цифровых двойников от OpenGradient преобразует право доступа к проверенным результатам вывода в экономическую ценность. Эта структура разработана так, чтобы поддерживать определенный уровень доверия даже без центрального управляющего. Тем не менее, автоматизированная проверка вывода zkML имеет явные ограничения. Ассиметрия между стоимостью генерации неправильных результатов и стоимостью доказательства правильных результатов оставляет возможность для атак. Ошибки в процессе преобразования схемы, задержки в генерации доказательств, сговор между узлами и отклонения в вычислениях из-за аппаратных ошибок не могут быть полностью устранены с помощью современных технологий. Системы смягчают эти риски через репликацию выполнения, репутацию и экономические санкции, но не могут полностью их устранить. В заключение, автоматизация проверки вывода машинного обучения с нулевым знанием в распределенной вычислительной сети демонстрирует четкие технические достижения в попытке криптографически обеспечить надежность вычислений. В то же время она также выявляет структурные ограничения, такие как высокая стоимость доказательства, экологические ограничения и экономическая ассиметрия. Текущие подходы реализуют практическую автоматизацию, сочетая выборочные доказательства, параллельное выполнение, зашифрованные вычисления и проектирование стимулов, что оценивается как пример, который привел к реальной проверяемости вывода искусственного интеллекта в распределенной среде. $NESA