Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI подтверждение идентичности творений
@OpenGradient , @idOS_network , @opensea
С быстрым распространением творений, созданных с использованием технологий AI, возникает путаница и споры о плагиате, касающиеся того, кто их создал. Особенно в среде, где изображения или видео, созданные AI, распространяются в форме NFT, часто возникают ситуации, когда трудно четко определить ответственных лиц, основываясь только на существующих концепциях авторского права. В этом контексте структура подтверждения идентичности творений AI, объединяющая OpenGradient, idOS и OpenSea, привлекает внимание тем, что технически отвечает на вопрос, кому будет принадлежать ответственность, вместо того чтобы задаваться вопросом о том, кто является автором.
Отправной точкой этой структуры является доказательство того, какой процесс прошел AI для создания результата. OpenGradient записывает процесс выполнения модели AI на блокчейне с помощью архитектуры вычислений AI, называемой HACA. В этом процессе узлы вывода выполняют реальные вычисления, а узлы проверки проверяют, использовалась ли заданная модель и параметры, в то время как узлы хранения и данные поддерживают целостность модели и входных данных. В результате одно творение AI получает уникальную транзакционную запись, указывающую, какая модель использовалась и при каких условиях оно было создано. Это означает, что результат AI не является простым файлом, а представляет собой продукт с проверяемой историей создания.
Однако доказательства процесса создания недостаточно. Необходимо связать, кто управлял этим AI и кто несет ответственность за результат. Эту роль выполняет децентрализованная система идентификации idOS. idOS предоставляет проверку идентичности физических или юридических лиц один раз, а затем предоставляет результаты в виде повторно используемых удостоверений. Это позволяет создателю доказать, что он является проверенным субъектом, даже не раскрывая свои реальные данные, и при необходимости ограниченно раскрывать информацию. Эта структура работает как технический компромисс для поддержания анонимности и ответственности одновременно.
Связующим звеном между записями AI и человеческой идентичностью является сервис аттестации Ethereum, EAS. Результаты вывода AI, созданные в OpenGradient, получают уникальный хэш, который затем комбинируется с хэшем удостоверения идентичности, выданного idOS, и записывается как одна аттестация. Эта аттестация может храниться в ончейн или оффчейн формате и в конечном итоге может быть включена в метаданные NFT. В результате покупатели NFT могут криптографически проверить, на какой модели AI было создано данное произведение и кто из людей несет ответственность за этот результат.
Эта информация может быть использована при регистрации NFT на OpenSea. Поскольку OpenSea уже поддерживает метаданные на основе IPFS, возможно включение идентификатора аттестации EAS в свойства метаданных. Это не заменяет существующую сертификацию, основанную на объемах торгов, или ручные процедуры отчетности, но предоставляет дополнительный уровень доверия. Особенно в случае подозрений на плагиат, это отличается тем, что позволяет немедленно проверить историю создания и связь идентичности, в отличие от существующих процедур DMCA, которые могут занять несколько дней.
Эта структура также частично соответствует юридической среде 2025 года. В США через дело Thaler v. Perlmutter было четко подтверждено, что авторские права принадлежат только человеческим авторам, а закон ЕС о AI также подчеркивает ответственность человеческих операторов за результаты AI-систем. В этом контексте способ, который не признает AI как субъект авторского права, но четко фиксирует человека, управляющего и использующего AI, как ответственного, помогает заполнить разрыв между институциональными требованиями и технической реальностью.
Конечно, существуют и ограничения. Технически полностью заблокировать такие действия, как прокси-минтинг, когда пользователь с проверенной идентичностью предоставляет подпись от имени другого, сложно, и сохраняется напряженность между защитой личных данных и разрешением споров. Кроме того, эта структура не может проверить, были ли данные для обучения модели законными, поэтому вопросы авторского права на уровне модели остаются отдельной задачей. Тем не менее, эта структура подтверждения идентичности, соединяющая процесс создания творений AI и ответственных лиц в одну проверяемую запись, имеет характер, который превращает споры о плагиате AI из постфактумных в вопросы предварительной проверки.
В конечном итоге модель, объединяющая вычислительное доказательство OpenGradient, децентрализованную идентичность idOS, аттестацию EAS и структуру распространения NFT OpenSea, становится одним из практических способов технического решения проблемы доверия вокруг творений AI. Это перемещает обсуждение произведений, созданных AI, от неопределенности авторства к ясности ответственности и предоставляет основу для проверяемого управления авторскими правами в цифровой среде.



Топ
Рейтинг
Избранное
