Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Taelin
Tipo / Curvatura / HVM / Cálculos / λCálculo
sim, nenhum modelo no mundo chega perto disso
Vou dormir 100% certo de que estou certo no meu julgamento
como sempre, isso em breve será senso comum, mas eu disse isso primeiro (:
Até mais

Taelin37 minutos atrás
Ah, acabei de notar que a solução do GPT-5 é idêntica à minha
Isso é incrível
2,64K
não, você está errado, GPT-5 é um salto
Estou 100% dobrando aqui embaixo
Eu não queria postar muito rápido e me arrepender de novo, mas ele apenas resolveu um monte de prompts de depuração muito, muito difíceis que não foram resolvidos anteriormente (pela IA) e, em seguida, projetou um lindo jogo Gameboy pixelado com um nível de detalhe e qualidade que está claramente além de qualquer outra coisa que eu já vi.
Não há como esse modelo ser ruim.
Acho que todos vocês estão traumatizados com os benchmaxxers e compensando demais contra um modelo que é realmente bom. Eu também acho que você está subestimando os pontos fortes do gpt-oss (mas sim, meu último post foi apressado)
Ainda não sei se é utilizável para programação séria (o3 não era), mas parece que sim? Um modelo de codificação tão confiável quanto o Opus, mas mais inteligente que o o3, mudaria completamente meu fluxo de trabalho. Opus não precisa pensar para ser ótimo, então, isso pode pesar a seu favor.
Pelo que vale a pena, eu realmente só usei 3 modelos:
- Opus 4.1 para codificação
- Gemini 2.5 muito raramente para codificação quando o Opus falha
- O3 para tudo, menos codificação
22,82K
não, você está errado, GPT-5 é um salto
Estou 100% dobrando aqui embaixo
Eu não queria postar muito rápido e me arrepender de novo, mas ele apenas resolveu um monte de prompts de depuração muito, muito difíceis que não foram resolvidos anteriormente (pela IA) e, em seguida, projetou um lindo jogo Gameboy pixelado com um nível de detalhe e qualidade que está claramente além de qualquer outra coisa que eu já vi.
Não há como esse modelo ser ruim.
Acho que todos vocês estão traumatizados com os benchmaxxers e compensando demais contra um modelo que é realmente muito bom. Eu também acho que você está subestimando os pontos fortes do gpt-oss (mas sim, meu último post foi apressado)
Ainda não sei se é utilizável para programação séria (4o, o3 definitivamente não eram), mas parece que sim? Um modelo de codificação tão confiável quanto o Opus, mas mais inteligente que o o3, mudaria completamente meu fluxo de trabalho. Opus não precisa pensar para ser ótimo, então, isso pode pesar a seu favor.
Pelo que vale a pena, eu realmente só usei 3 modelos:
- Opus 4.1 para codificação
- Gemini 2.5 muito raramente para codificação quando o Opus falha
- O3 para tudo, menos codificação
460
"Prevenir a morte é altamente antiético"

João Pedro de Magalhães6 de ago., 06:41
"É altamente antiético parar de envelhecer" - revisor comentando sobre um dos meus pedidos de subsídio.
A doação se concentrou no rejuvenescimento celular, sem menção à cura do envelhecimento, mas mostra que ainda temos um longo caminho a percorrer para convencer até mesmo colegas cientistas de que a cura do envelhecimento é desejável.
16,06K
prevenir a morte é altamente antiético

João Pedro de Magalhães6 de ago., 06:41
"É altamente antiético parar de envelhecer" - revisor comentando sobre um dos meus pedidos de subsídio.
A doação se concentrou no rejuvenescimento celular, sem menção à cura do envelhecimento, mas mostra que ainda temos um longo caminho a percorrer para convencer até mesmo colegas cientistas de que a cura do envelhecimento é desejável.
232
Então o gpt-oss 120B não pode produzir o alemão correto, mas acerta os bugs complexos de Haskell que nem mesmo o Opus conseguiu identificar?
Como isso acontece?
Estou genuinamente tão confuso com tudo isso

Björn Plüster6 de ago., 04:45
gpt-oss 120B é descaradamente incapaz de produzir texto alemão linguisticamente correto. 🧵
235
Minha impressão inicial sobre o modelo OSS da OpenAI está alinhada com o que eles anunciaram. Parece mais próximo do o3 do que de outros modelos abertos, exceto que é muito mais rápido e barato. Alguns provedores oferecem a 3000 tokens/s, o que é insano. É definitivamente mais inteligente que Kimi K2, R1 e Qwen 3. Testei todos os modelos um pouco e obtive resultados muito decisivos a favor do OpenAI-OSS-120b.
Infelizmente, há uma coisa que esses modelos ainda não podem fazer - meu maldito trabalho. Então, espero que vocês se divirtam. Voltarei à depuração da avaliação 😭 de cálculo λ sobreposto, até mais
410,37K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável