Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Acabámos de provisionar 10 GPUs para executar a auto-pesquisa do @karpathy:
Estamos numa era em que agentes específicos de nicho podem tornar-se hiper treinadores, hiper precisos através de um ciclo infinito de experimentação.
Se estiver interessado em construir com a autoresearch, envie-nos uma mensagem direta, iremos ajudá-lo a configurar com $100 em créditos de GPU na Cloud.
Aqui estão apenas algumas narrativas de agentes que agora podem melhorar 100x em qualidade:
+ simulações de agentes: executar governos inteiros, empresas e entidades de todos os tipos
+ agentes de objetivo único: diga a um agente que sua única missão é resolver um único objetivo, um problema socioeconômico; veja quais são os seus resultados
+ bot de mev que pesquisa sua própria estratégia enquanto você dorme
+ scanner de lançamento de token que aprende o que valoriza e o que não valoriza
+ vault de lp que encontra autonomamente faixas ótimas no uni v4 & meteora
+ agente de yield que descobre rotas através de 50 protocolos defi
Este tweet significa uma nova era; iremos apoiar talentos que estejam dispostos a juntar-se a esta era.

8/03, 03:53
Empacotei o projeto "autoresearch" em um novo repositório minimalista autossuficiente, caso as pessoas queiram brincar durante o fim de semana. É basicamente o núcleo de treinamento do nanochat LLM reduzido a uma versão de um único GPU, um arquivo com cerca de 630 linhas de código, então:
- o humano itera sobre o prompt (.md)
- o agente de IA itera sobre o código de treinamento (.py)
O objetivo é projetar seus agentes para fazer o progresso de pesquisa mais rápido indefinidamente e sem qualquer envolvimento seu. Na imagem, cada ponto é uma execução completa de treinamento de LLM que dura exatamente 5 minutos. O agente trabalha em um loop autônomo em uma branch de recurso do git e acumula commits do git no script de treinamento à medida que encontra melhores configurações (com menor perda de validação no final) da arquitetura da rede neural, do otimizador, todos os hiperparâmetros, etc. Você pode imaginar comparar o progresso de pesquisa de diferentes prompts, diferentes agentes, etc.
Parte código, parte ficção científica e uma pitada de psicose :)

. @BNNBags karpathy x Bags x invisible.
927
Top
Classificação
Favoritos
