Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Até agora só vi posts vagos sobre isso, até as palestras sobre AIE e os artigos de fábrica basicamente não dizem nada útil. Então, estou escrevendo um grande guia passo a passo sobre como preparar CodeBases LLM, aplicando limites de complexidade através de linters, tanto para Python quanto para Typescript
Uma coisa que ninguém comenta é que LLMs exibem muito felizes comportamentos de "jogo de regras". Em vez de corrigir problemas reais de código, eles simplesmente vão modificar suas regras de linting para fazer as violações desaparecerem
Você precisa de algo como 4 camadas de proteção para evitar isso. E se você trabalha no modo "bypass permissions", que é a única forma de executar tarefas autônomas e realmente longas, nada impede LLMs de modificar ganchos, regras de linting ou configurações de pré-commit para conseguir o que querem
Em teoria, isso é fácil de consertar, basta adicionar proteção real ao linting dos dotfiles no próprio chicote. Mas no momento não existe nenhum chicote que realmente suporte isso (pelo que sei)
Tenho um artigo que já cobre praticamente tudo o que Karpathy mencionou, se você quiser aprender
Melhores
Classificação
Favoritos
