Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Pode parecer estúpido, mas um dos maiores truques de produtividade ao usar o Claude Code com o Opus 4.1 é o seguinte: depois de pedir ao CC para implementar uma funcionalidade ou corrigir um bug ou o que quer que seja, e depois que ele diz que completou tudo, você apenas repete o seguinte para ele várias vezes até que ele não consiga encontrar mais erros (o que às vezes leva até 7 ou 8 tentativas!):
"Ótimo, agora quero que você leia cuidadosamente todo o novo código que acabou de escrever e o outro código existente que você acabou de modificar com "olhos novos", procurando super cuidadosamente por quaisquer bugs óbvios, erros, problemas, questões, confusões, etc."
Sim, isso leva um tempo, mas é por isso que é tão prático ter várias sessões do CC abertas ao mesmo tempo. Assim, você pode simplesmente alternar entre elas, colando essa frase repetidamente.
De alguma forma, essa coisa dos "olhos novos" muda a forma como ele percebe o que acabou de escrever de uma maneira realmente útil.
Estranhamente, esse truque não parece funcionar tão bem com o pensamento do GPT-5 - ele tende a apenas dizer "Sim, tudo parece certo!" Claude é muito mais propenso a duvidar e a cometer erros descuidados na primeira vez, mas é bom em pegá-los, dado o número suficiente de tentativas.
4,83K
Quem quer que na OpenAI tenha decidido quebrar a API do GPT-5 (e o3, é um problema antigo) para mudar o parâmetro "max_tokens" para "max_completion_tokens" numa tentativa de tornar as coisas mais claras... você cometeu um grande erro. Isso nunca compensará as inúmeras horas desperdiçadas pelos desenvolvedores em código quebrado.

1,43K
Após vários dias de uso intenso do GPT-5 via Cursor e do modelo GPT-5 Pro no aplicativo web, mantenho tudo o que disse sobre ele ser um modelo muito mais inteligente e melhor em programação do que o Opus 4.1
Ainda gosto do Opus e acho que a ergonomia do Claude Code é mais agradável de várias maneiras, mas se você está tentando fazer coisas realmente difíceis que exigem um pensamento realmente inteligente baseado em princípios fundamentais e habilidades em ciência da computação, o GPT-5 é de outro nível.
Mas suspeito que isso só emerge quando o modo de esforço de raciocínio está definido para pelo menos médio, e realmente se manifesta com a configuração de alto esforço.
Um bom exemplo de problema é preparar "redlines" de documentos de duas longas e complexas peças jurídicas. Não versões diferentes do mesmo documento, mas dois documentos diferentes que vêm de um modelo geral compartilhado.
Este é um problema muito, muito difícil de resolver bem, e requer muitos truques e heurísticas inteligentes para oferecer um desempenho e qualidade de saída decentes (estou falando sobre usar técnicas de programação tradicionais aqui, não usando LLMs para fazer essa comparação).
O GPT-5 com o agente Cursor pode simplesmente apresentar mais, melhores e mais inteligentes (mas pragmáticas) ideias mais rapidamente, e implementá-las corretamente e sem muita orientação, em comparação com o Opus 4.1.
Depende do que você está trabalhando, no entanto. Ainda acho que prefiro código frontend em NextJS do Opus, por exemplo.
Mas você deve absolutamente verificar por si mesmo em seus próprios problemas reais e não confiar em todas as muitas pessoas que dizem que o modelo é ruim e que isso é prova de que chegamos a um impasse.
Ou elas estão usando a versão gratuita ruim sem pensar, ou não têm ideia de como fazer prompts de forma eficaz, ou estão deixando seus sentimentos em relação à OpenAI e Altman colorirem suas opiniões.
36,15K
Engraçado que a demonstração do GPT-5 está a enfatizar o quão grande escritor é... e depois a mostrar pura confusão com travessões em cada duas frases. Eles deviam manter-se com as demonstrações de codificação, que são muito mais impressionantes!
Além disso, odeio que estão a descontinuar todos os modelos antigos...
1,36K
Em retrospectiva, é difícil acreditar que ninguém se preocupou em implementar uma rede neural de múltiplas camadas com um básico algoritmo de descida de gradiente estocástico em 1997 na 3dfx Voodoo, alguns anos antes do primeiro GPU da Nvidia em 1999. As peças estavam basicamente todas lá para um pequeno LLM.

3,88K
Acho que o maior elogio que posso fazer ao @patrickc e à equipe do Stripe é que eles têm uma ótima reputação e um histórico de criar interfaces e experiências de usuário (UI/UX) realmente polidas e intuitivas para seus serviços, o que é muito útil para referenciá-los pelo nome em prompts de codificação para obter melhores resultados de agentes de codificação de IA.
Por exemplo, tenho uma variante disso salva no meu editor de texto e a colo no Claude Code pelo menos 10 vezes por dia:
"Quero que você faça um trabalho espetacular construindo componentes de UI/UX de classe mundial para exibir esses relatórios de notas, mostrando tanto os detalhes quanto como "badges" ou "cartões de resumo", com um foco intenso em tornar o mais visualmente atraente, amigável ao usuário, intuitivo, elegante, polido, de qualidade "nível Stripe" possível para isso, aproveitando as boas bibliotecas que já fazem parte do projeto."
Depois digo que o que quer que tenha feito não é tão bom assim ("horrível" ou "incrivelmente ruim"), mesmo que já esteja bastante bom, e que precisa melhorar DRAMATICAMENTE para realmente alcançar níveis de deleite e elegância, polidez, intuitividade, etc., de classe Stripe.
Basicamente, aplicando a Técnica de Gaslighting do Steve Jobs para alcançar iterativamente resultados "insanamente ótimos".
E sim, isso funciona incrivelmente bem se você continuar fazendo isso repetidamente. O truque é que você precisa incluir TODOS aqueles adjetivos, caso contrário, vai se transformar em ícones girando e pulsando como acrobatas ("elegante" e "visualmente atraente"); você precisa dos outros termos como "polido" e "intuitivo" e "nível Stripe" para temperar isso, de modo que também seja um pouco minimalista e agradável de usar na prática.
Estou feliz por não ter que trabalhar para mim como um agente de IA :/
1,72K
Acabei de ler o novo artigo GSPO da equipa Qwen.
É engraçado como estas grandes melhorias teóricas, apesar de terem uma base fundamental aparentemente profunda (neste caso, que otimizar através de sequências de tokens é melhor do que otimizar através de tokens individuais), acabam por se resumir a simplesmente deixar os gradientes fluir melhor, evitando problemas de condicionamento numérico.
Quando dás um passo atrás e olhas para isso, o GSPO é fundamentalmente uma forma de obter um melhor condicionamento numérico ao fazer médias das coisas nas atualizações para evitar oscilações ruidosas (quase como usar momentum no rmsprop ou Adam) e também ignorando atualizações que levariam a situações “perigosas” em termos de condicionamento.
Mas tudo faz sentido a partir de uma perspectiva histórica, uma vez que o deep learning realmente explodiu quando descobrimos como evitar o problema do gradiente que desaparece/explodindo ao usar coisas como momentum em otimizadores. Portanto, de certa forma, este é simplesmente o último passo nessa tradição de navegar pela paisagem de perda de uma forma mais robusta para evitar "dirigir para uma vala."
3,34K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável