No que tenho trabalhado no mês passado com a equipe $CODEC: - Pesquisar todo o setor de Robótica e arquitetura técnica de uma perspectiva panorâmica com @unmoyai (últimos desenvolvimentos, melhores práticas, etc.) - Entender onde e como o produto da Codec se posiciona em cada um deles (abordando os pontos problemáticos) - Quais casos de uso e narrativas específicos isso desbloqueia - A camada de maior valor para as ferramentas e para onde o capital principal está fluindo - Comparando as ferramentas da web2 e o que levou ao sucesso da AI szn (Virtuals & ai16z) - quais são os principais componentes para estimular a atividade do desenvolvedor? - Volantes e utilitários simbólicos A equipe fez um ótimo trabalho com artigos técnicos, embora eu ainda acredite que eles estão apenas escovando a superfície para explicar o quão importante suas ferramentas realmente são. Meu objetivo é ajudar a construir estruturas e processos para capturar as narrativas de forma mais sucinta, destacando os verdadeiros recursos que o SDK desbloqueia. Do jeito que está, ainda não há nada, mesmo na web2, que ofereça o mesmo tipo de abstração para a qual o Codec está trabalhando. A contribuição de código aberto é o caminho a seguir e os principais modelos de base, como o Issac Gr00t da Nvidia, já estão sendo construídos com isso em mente, já que o treinamento de dados e tarefas ainda está no início. Você não pode usar strings de texto AI para treinar robôs, não existe "internet da robótica". Cada um desses humanóides e robôs que você está vendo são construídos com arquitetura monolítica full stack, não há transferência para treinamento de tarefas ou maneiras de adicionar novos componentes (sensor extra ou câmera na parte de trás da cabeça) sem ter que reescrever toda a base de código. Em vez de construir pipelines de dados e simulações para arquitetura monolítica singular, eles estão adotando uma abordagem modular onde, em vez de construir tarefas para sistemas inteiros, ele divide cada parte do robô em componentes principais (motores, sensores, atuadores, olhos etc.). O que significa que ele pode ser facilmente conectado a qualquer tipo de robô/humanóide, independentemente do sistema, e instruí-lo a cumprir os requisitos com base em peças individuais. Semelhante ao que vimos com Eliza e Virtuals, os desenvolvedores não precisavam codificar todo o seu framework e tinham modelos GPT com todos os plug-ins (twitter, feed de notícias, APIs dexscreener etc) na ponta dos dedos. Tudo o que eles precisavam era de contexto pessoal para as contribuições de seus agentes, então era puramente uma questão de ajuste fino. O objetivo do Codec é muito semelhante, um hub de desenvolvedor onde os desenvolvedores não precisam se preocupar em construir seu próprio "mecanismo de jogo", o kit de ferramentas SDK é o que o Unreal Engine/Unity é para o desenvolvimento de jogos. ...