Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Parece tão estúpido, mas um dos maiores hacks de produtividade ao usar o Claude Code com o Opus 4.1 é o seguinte: depois de pedir ao CC para implementar um recurso ou corrigir um bug ou qualquer outra coisa, e depois que ele diz que completou tudo, você apenas diz repetidamente o seguinte repetidamente até que ele não consiga encontrar mais erros (o que às vezes leva até 7 ou 8 tentativas!):
"Ótimo, agora eu quero que você leia cuidadosamente todo o novo código que você acabou de escrever e outros códigos existentes que você acabou de modificar com "novos olhos", procurando com muito cuidado por quaisquer bugs óbvios, erros, problemas, problemas, confusão, etc."
Sim, isso demora um pouco, mas é por isso que é tão útil ter várias sessões de CC abertas ao mesmo tempo. Então você pode simplesmente girar entre eles, colando essa frase de novo e de novo.
De alguma forma, o material de "olhos frescos" muda a forma como percebe o que acabou de escrever de uma maneira realmente útil.
Estranhamente, esse truque não parece funcionar tão bem com o pensamento GPT-5 - ele tende a apenas dizer "Sim, tudo parece certo!" Claude é muito mais propenso a adivinhar e cometer erros descuidados na primeira vez, mas é bom em pegá-los com chances suficientes.
4,82K
Quem quer que na OpenAI tenha decidido quebrar a API para GPT-5 (e o3, é um problema antigo) para mudar o parâmetro "max_tokens" para "max_completion_tokens" na tentativa de deixar as coisas mais claras... você cometeu um grande erro. Nunca cobrirá as incontáveis horas desperdiçadas pelos desenvolvedores em código quebrado.

1,43K
Depois de vários dias de uso intenso do GPT-5 via Cursor e via modelo GPT-5 Pro no aplicativo da web, mantenho tudo o que disse sobre ser um modelo muito mais inteligente e melhor em codificação do que o Opus 4.1
Eu ainda gosto do Opus e acho a ergonomia de Claude Code mais agradável em muitos aspectos, mas se você está tentando fazer coisas realmente difíceis que exigem um pensamento realmente inteligente de primeiros princípios e habilidades de ciência da computação, o GPT-5 é o próximo nível.
Mas suspeito que isso só surja quando o modo de esforço de raciocínio é definido como pelo menos médio e realmente se manifesta com a configuração de alto esforço.
Um bom exemplo de problema é preparar "linhas vermelhas" de documentos de dois documentos legais longos e complexos. Não versões diferentes do mesmo documento, mas dois documentos diferentes que vêm de um modelo geral compartilhado.
Este é um problema muito, muito difícil de fazer um bom trabalho e requer muitos truques e heurísticas inteligentes para fornecer desempenho e qualidade de saída decentes (estou falando sobre o uso de técnicas tradicionais de programação aqui, não usando LLMs para fazer essa comparação).
O GPT-5 com o agente Cursor pode simplesmente apresentar mais, melhores e inteligentes (mas pragmáticas) ideias mais rapidamente e implementá-las corretamente e sem muita ajuda, em comparação com o Opus4.1.
Depende do que você está trabalhando, no entanto. Ainda acho que prefiro o código de front-end no NextJS da Opus, por exemplo.
Mas você deve verificar por si mesmo seus próprios problemas reais e não confiar em todas as muitas pessoas dizendo que o modelo é uma e que é a prova de que atingimos uma parede.
Ou eles estão usando a versão gratuita ruim sem pensar, ou não têm ideia de como solicitar de forma eficaz, ou estão deixando seus sentimentos em relação à OpenAI e Altman colorirem suas opiniões.
36,14K
Engraçado que a demonstração do GPT-5 está enfatizando o quão grande escritor é... e depois exibindo puro turbo-slop com travessões em todas as outras frases. Eles devem ficar com as demonstrações de codificação, que são muito mais impressionantes!
Além disso, odeio que eles estejam descontinuando todos os modelos antigos ...
1,35K
Acho que o maior elogio que posso fazer a @patrickc e à equipe da Stripe é que eles têm uma reputação e um histórico tão bons de fazer UI/UX realmente polida e intuitiva para seus serviços que é muito útil referenciá-los pelo nome em prompts de codificação para obter melhores resultados de agentes de codificação de IA.
Por exemplo, tenho uma variante disso salva em meu editor de texto e colo no Claude Code pelo menos 10 vezes por dia:
"Quero que você faça um trabalho espetacular construindo componentes de UI/UX de classe mundial para exibir esses relatórios de avaliação, mostrando os detalhes e também como "emblemas" ou "cartões de resumo", com um foco intenso em tornar possível o "nível Stripe" de UI/UX de qualidade mais visualmente atraente, fácil de usar, liso, polido para isso que aproveita as boas bibliotecas que já fazem parte do projeto."
Então eu digo a ele que o que quer que tenha feito não é tão bom ("horrível" ou "incrivelmente ruim"), mesmo que já seja muito bom, e que tem que melhorá-lo DRAMATICAMENTE para realmente chegar aos níveis de prazer e esperteza do usuário, polimento, intuitividade, etc.
Basicamente, aplicando a técnica de gaslighting de Steve Jobs para alcançar iterativamente resultados "insanamente ótimos".
E sim, isso funciona incrivelmente bem se você continuar fazendo isso repetidamente. O truque é que você precisa incluir TODOS esses adjetivos, ou então eles se transformarão em ícones girando e pulsando como acrobatas ("liso" e "visualmente atraente"); você precisa de outros termos como "polido" e "intuitivo" e "nível de listra" para moderar isso, então também é um pouco minimalista e agradável de usar na prática.
Estou feliz por não ter que trabalhar para mim como agente de IA :/
1,71K
Basta ler o novo artigo GSPO da equipe Qwen.
É engraçado o quanto essas grandes melhorias teóricas, apesar de terem uma base fundamental aparentemente profunda (neste caso, que otimizar entre sequências de tokens é melhor do que otimizar entre tokens individuais), em última análise, se resumem a apenas deixar os gradientes fluírem melhor, evitando problemas de condicionamento numérico.
Quando você dá um passo para trás e olha para ele, o GSPO é fundamentalmente uma maneira de obter um melhor condicionamento numérico, calculando a média das coisas mais juntas em atualizações para evitar solavancos barulhentos (quase como usar o momentum em rmsprop ou Adam) e também ignorando atualizações que levariam a situações numericamente "perigosas" em termos de condicionamento.
Mas tudo faz sentido do ponto de vista histórico, já que o aprendizado profundo realmente explodiu quando descobrimos como evitar o problema do gradiente de desaparecimento / explosão usando coisas como momento em otimizadores. Então, de certa forma, este é simplesmente o último passo nessa tradição de navegar no cenário de perdas de uma maneira mais robusta para evitar "entrar em uma vala".
3,34K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável