Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Прозрачная структура обеспечения доверия для обучения и валидации распределенных AI моделей
@gensynai , @nesaorg , @DeepNodeAI
При обучении и валидации AI моделей в распределенной среде первым делом следует учитывать, что нельзя предполагать, что все участники всегда будут действовать честно. В реальных исследованиях и операционных случаях были выявлены конкретные проявления неудач, такие как безбилетничество, когда вычислительные узлы возвращают правдоподобные, но непроверенные результаты для снижения вычислительных затрат, внедрение злонамеренных обучающих данных, манипуляции с подачей завершенных предложений в процессе обучения с подкреплением, статистически неявные манипуляции с градиентами и ситуации, когда несколько узлов сговариваются для искажения структуры согласия. Эти риски служат отправной точкой для объяснения того, почему необходимы механизмы, которые технически обеспечивают прозрачность и доверие.
В ответ на эту проблему Gensyn предлагает структуру, ориентированную на выполнение, которая рассматривает само выполнение вычислений как объект валидации. В этой структуре задачи машинного обучения разбиваются на детерминированные вычислительные графы, которые могут быть воспроизведены на уровне операторов, и проектируются так, чтобы одинаковые операции воспроизводились бит в бит с одинаковой точностью на разных аппаратных средах. Протокол Verde сочетает делегирование арбитража и двоичную игру, чтобы найти первую точку вычисления, где результаты расходятся, и поддерживает эффективность, повторно выполняя только те части, где возникли споры. Экономическая настройка обрабатывается на основе Ethereum, а фактические крупномасштабные вычисления выполняются вне сети, но ключевой особенностью является то, что точность результатов криптографически гарантирована, если существует хотя бы один честный узел.
В рамках того же стека Delphi от Gensyn выполняет роль проверки не того, как выполнялись вычисления, а насколько хорошо работает результирующая модель. Delphi организует оценку производительности модели в форме предсказательного рынка, позволяя участникам делать ставки на результаты производительности и подтверждая результаты прозрачно через ончейн-логики. Этот процесс основан на статистической валидации и экономических стимулах, а не на криптографических доказательствах, но функционирует как механизм, обеспечивающий прозрачность, поскольку критерии оценки и результаты публично фиксируются.
С другой стороны, Nesa принимает структуру, придающую приоритет защите конфиденциальности над прозрачностью. Nesa использует блочную последовательную нейронную сеть с шардированием, чтобы разбить модель на несколько частей и применяет гомоморфное шифрование и методы распределенного секретного шифрования для зашифрованных встраиваний, чтобы ни один отдельный узел не мог видеть всю модель или все данные. Этот подход сосредоточен на эффективной тонкой настройке параметров с использованием адаптеров, а не на обучении всей модели с нуля, и поддерживает границы конфиденциальности через процесс валидации результатов вывода, выполненных вне сети. Однако наблюдается структурное ограничение, поскольку вычислительные процессы зашифрованы, и их трудно воспроизвести или проверить извне.
DeepNode AI рассматривает прозрачность с другой стороны. Эта система использует рыночный механизм, основанный на взаимной оценке между узлами и стекинге, вместо криптографических доказательств для вычислительного процесса. Каждая интеллектуальная система оценивает выходную информацию других систем, и вознаграждения распределяются в зависимости от функции потерь с учетом веса стейка. В процессе повторных взаимодействий формируется репутация, и за неправильные подачи налагаются штрафы, а это экономическое давление помогает согласовать действия участников. Эта структура не предоставляет криптографических доказательств, но отличается тем, что прозрачно демонстрирует мотивацию участия, что способствует построению доверия.
Суммируя эти подходы, можно увидеть, что прозрачность в обучении и валидации распределенного AI не является единым понятием, а реализуется на нескольких уровнях. Verde от Gensyn проверяет выполнение задач, Delphi — производительность результатов, DeepNode — вклад и целостность участников, а Nesa сосредоточена на минимизации раскрытия данных и моделей на протяжении всего процесса. В то же время зашифрованные вычисления ограничивают воспроизводимость и возможность прямого аудита, и структура, требующая полной воспроизводимости, почти не обеспечивает конфиденциальности данных, что также четко демонстрирует напряженные отношения.
В результате текущий стек распределенного AI оценивается как не решающий полностью такие проблемы, как источник и подлинность обучающих данных, синхронизация градиентов в глобальной среде и согласование между различными экономическими системами. Тем не менее, различные механизмы, такие как валидация вычислений, оценка производительности, экономические стимулы и защита конфиденциальности, предоставляют прозрачность в пределах проверяемых рамок, что делает структуру прозрачного обучения и валидации распределенных AI моделей относительно ясной.



Топ
Рейтинг
Избранное
