Gradient Vamos falar sobre a Infraestrutura de IA descentralizada, onde todos os projetos desse setor são verdadeiros monstros de financiamento, pois têm uma capacidade de contar histórias muito forte. No entanto, a questão é: onde isso pode ser aplicado na prática e que experiências diferentes pode trazer, sob a perspectiva da @Gradient_HQ: Dividindo a IA na sua estrutura mais simples, podemos basicamente separá-la em 4 camadas: aplicação, orquestração de execução, treinamento de modelos e dados, que são facilmente compreensíveis pelo seu significado literal. A maioria dos projetos DeAI se concentra principalmente na camada de orquestração de execução, ao mesmo tempo que adiciona características relacionadas a Crypto, como liquidação e incentivos, e verificabilidade ZK. A camada de treinamento de modelos e a execução são atualmente as mais concentradas e também as mais caras, tornando difícil a descentralização neste estágio. Para os novatos, é bom fazer uma breve introdução básica, enquanto aqueles com conhecimento especializado podem pular esta parte. A execução e a orquestração podem ser entendidas como a distribuição de demandas para poder computacional e modelos, como mercados de poder computacional, agendamento de tarefas, etc. Primeiro, é importante entender o que é "poder computacional". De forma simples, para fazer um modelo funcionar, é necessário realizar muitos cálculos matemáticos, e a capacidade de executar esses cálculos é o que chamamos de poder computacional. No campo da IA tradicional, por exemplo, quando você conversa com o ChatGPT, é necessário ter poder computacional para realizar a inferência, que vem principalmente de centros de dados na nuvem (GPU/aceleradores de IA em servidores). Você insere o conteúdo → é enviado pela rede para o backend → um conjunto de GPUs/aceleradores no centro de dados do backend executa o modelo para completar a inferência → e o resultado é enviado de volta ao navegador. A Infraestrutura que a Gradient está promovendo atualmente: Parallax, difere do sistema de computação centralizado que vemos normalmente, como H100 e H20, pois o que ela faz é dividir a inferência em dispositivos com diferentes modelos, diferentes memórias e diferentes condições de rede. Ela automaticamente ajusta o modelo para tamanhos adequados, permitindo que cada máquina funcione, e seu desafio central é a eficiência de comunicação entre as máquinas, além da otimização de alto desempenho em ambientes de hardware heterogêneo. A maioria dos projetos ainda tenta "colocar em cadeia" a liquidação do H100 offline, enquanto a Gradient fez uma tentativa mais ousada, permitindo que duas placas 4090 de 4000 dólares possam, através de combinação, alcançar um desempenho próximo ao de uma única A100 de 20 mil dólares. Aqui, habilitamos dois casos de uso: 1/ Qualquer pessoa pode usar alguns computadores em casa para realizar inferências de grandes modelos, garantindo totalmente a privacidade pessoal. 2/ Qualquer pessoa pode se juntar a um cluster de rede de inferência, inferindo modelos junto com amigos, ou até mesmo formando uma rede de inferência maior. Aqui, a Gradient também projetou um algoritmo relativamente complexo, incluindo a otimização do número de segmentos de corte e o roteamento dinâmico de demandas, mas não vamos entrar em detalhes, os interessados podem ler o paper. Claro que a Gradient não faz apenas isso, não vou entrar em detalhes aqui, é uma infraestrutura de IA de código aberto. Ela também inclui tópicos de ponta como aprendizado por reforço, mostrando que é uma equipe ambiciosa e que está atenta às inovações em IA. Recentemente, a equipe também foi reconhecida e apoiada por laboratórios de IA como o Lado Escuro da Lua e Alibaba Qianwen, o que é relativamente raro no setor. Essa abordagem para melhorar a IA, primeiramente absorve recursos heterogêneos e constrói um sistema aberto e de código aberto, permitindo que mais pessoas executem grandes modelos facilmente, gerando mais aplicações interessantes. Em comparação com o aluguel de poder computacional, isso reduz os custos em certa medida, diminui o risco de pontos únicos e aumenta a resistência à censura, algo que é familiar no mundo crypto, ao mesmo tempo que, em termos de privacidade, permite que dados sensíveis sejam processados localmente ou em proximidade. Muitos gigantes da indústria também têm uma atitude positiva em relação ao DeAI. Um dos maiores apoiadores da narrativa DeAI, David O. Sacks, enfatizou publicamente várias vezes: a IA irá remodelar o mundo, mas seu caminho de desenvolvimento centralizado está cheio de riscos. A infraestrutura de IA descentralizada é a única maneira de garantir inovação contínua e competição livre. Atualmente, a Gradient recebeu um investimento de 10 milhões de dólares, liderado por investidores de destaque como Multicoin Capital, Pantera e HSG (anteriormente Sequoia China). "Se a IA se tornar monopolizada, é o fim do jogo. O futuro depende de saber se a inteligência pode ser aberta — descentralizada, distribuída e acessível a todos." — David O. Sacks