Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Validação de Dados em Computação Descentralizada de IA: Uma Mudança Estrutural em Direção à Inteligência Artificial Integrada
@OpenledgerHQ , @gensynai , @OpenGradient
A computação descentralizada de IA oferece uma solução completamente diferente para a questão de como a inteligência artificial é criada e verificada. Em um ambiente centralizado, o julgamento de onde vieram os dados, se o processo de aprendizado foi realizado corretamente e se os resultados da inferência eram confiáveis dependia da gestão interna, documentação e auditorias de uma organização específica. Em uma estrutura descentralizada, a base dessa confiança não está na organização, mas na própria tecnologia, e todo o processo de inteligência artificial, como dados, computação e raciocínio, é separado em camadas verificáveis.
O ponto de partida dessa estrutura são os dados de treinamento. Modelos de inteligência artificial são criados com base em grandes volumes de dados, mas em ambientes tradicionais é difícil verificar a origem e o histórico de modificações dos dados de fora. O OpenLedger é responsável por rastrear a integridade e a proveniência dos dados para resolver essas questões. No OpenLedger, os dados não são simplesmente armazenados, mas são claramente registrados quem os forneceu para qual propósito e contexto. Os dados são registrados em uma datanet organizada por domínio, e cada contribuição é registrada on-chain com informações de versão. Isso cria uma estrutura que permite acompanhar quais dados foram realmente usados para treinar um modelo específico e como esses dados afetaram os resultados. Esse processo impede que os dados desapareçam na caixa-preta e deixa a relação entre dados e desempenho do modelo como um fato verificável.
Uma vez que os dados estejam prontos, o próximo passo são os recursos computacionais que realizam o aprendizado real. A Gensyn fornece uma rede de computação descentralizada que conecta recursos computacionais ociosos espalhados pelo mundo e os utiliza para aprendizado de inteligência artificial. A chave aqui não é apenas distribuir os cálculos, mas provar que os cálculos foram realizados corretamente. O Gensyn verifica a legitimidade do processo de treinamento por meio do protocolo de validação Verde. A tarefa de aprendizado é delegada a múltiplos participantes e, se houver discordância entre os resultados, o método é usado para encontrar o ponto de erro sem recalcular todo o processo. Isso é possível graças a uma estrutura de operadores reprodutível, que fixa estritamente a ordem das operações para que os mesmos resultados de operações sejam obtidos em hardware diferente. Graças a isso, a consistência dos resultados de aprendizagem pode ser verificada mesmo em um ambiente descentralizado, e o custo da verificação é minimizado.
Essas estruturas também possuem características claras em termos de custo e acessibilidade. Embora o treinamento usando GPUs de alto desempenho em um ambiente de nuvem centralizado seja caro, a Gensyn busca fornecer o mesmo nível de computação a um custo menor, utilizando recursos ociosos. Ao mesmo tempo, a verificação de se o cálculo foi realmente realizado é feita por procedimentos criptográficos e verificação baseada em jogos, que é substituída não por uma simples declaração de confiança, mas por uma confirmação com base técnica.
A verificação não termina mesmo após a conclusão do aprendizado. Quando o modelo realmente realiza inferência, é necessário verificar se os resultados estão corretos. O OpenGradient é responsável por validar essa etapa de inferência. Na estrutura do OpenGradient, a inferência de IA é executada dentro das transações blockchain, e os resultados da inferência são confirmados de acordo com o método de verificação escolhido. O método mais poderoso é provar matematicamente a precisão dos cálculos por meio de provas de conhecimento zero, e também é utilizado um método que utiliza um ambiente de execução confiável baseado em hardware. Em situações de risco relativamente baixo, um método simples que depende da segurança criptoeconômica pode ser aplicado. Esses diferentes métodos são selecionados com base na importância do raciocínio, custo e requisitos de desempenho.
A peculiaridade do OpenGradient é que o processo de inferência não é tratado secretamente fora da cadeia, mas é tratado como parte da transição do estado da blockchain. Arquivos de modelo são armazenados em armazenamento distribuído, e requisições e resultados de inferência são vinculados por identificadores claros. Isso permite verificar qual modelo gerou qual saída para uma entrada específica em qual método de verificação depois do fato. Os resultados da inferência não são simplesmente valores de saída, mas são registrados como produtos de operações verificáveis.
Assim, OpenLedger, Gensyn e OpenGradient desempenham papéis em diferentes estágios de dados, aprendizado e inferência. Na fase de dados, fontes e contribuições são acompanhadas; na fase de treinamento, a precisão dos cálculos é verificada; e na fase de inferência, os resultados são justificados. Essas três camadas não estão ligadas a um único sistema integrado, mas formam funcionalmente uma cadeia contínua de verificação. É uma estrutura projetada para que nenhum degrau permaneça opaco.
Essa estrutura de verificação de dados na computação descentralizada de IA mostra uma mudança na forma como a inteligência artificial é tornada mais confiável. À medida que a base da confiança muda da reputação corporativa ou controle interno para a prova técnica, os sistemas de inteligência artificial tornam-se estruturalmente incorporados com explicabilidade e responsabilidade. Um ambiente onde possamos verificar de onde vieram os dados, como o aprendizado foi feito e se o raciocínio foi preciso torna a inteligência artificial não uma ferramenta incompreensível, mas um sistema computacional verificável. Isso mostra que a descentralização vai além da simples descentralização e é uma forma de remodelar a estrutura da própria confiança em inteligência artificial.
$OPEN



Melhores
Classificação
Favoritos
