Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tim Dettmers
Na minha opinião, SWE-bench e T-bench são os poucos benchmarks que têm um bom sinal em termos de quanto progresso fazemos com os modelos. Este modelo funciona tão bem quanto o Qwen3 Coder e é apenas 10% pior que o GPT-5, além de ser um LLM de uso geral em vez de especializado em código.

Z.ai11 de ago., 11:43
Apresentando o relatório técnico GLM-4.5! 👇
Este trabalho demonstra como desenvolvemos modelos que se destacam em raciocínio, codificação e tarefas agenciais por meio de um paradigma de treinamento único e em vários estágios.
As principais inovações incluem iteração de modelo especialista com autodestilação para unificar recursos, um modo de raciocínio híbrido para resolução dinâmica de problemas e um currículo de aprendizado por reforço baseado em dificuldade.

28,51K
Tim Dettmers repostou
Chuva de pensamentos: Em vez de manter seu pagamento do Twitter/X, direcione-o para um "PayoutChallenge" de sua escolha - qualquer coisa que você queira mais no mundo!
Aqui está o meu para esta rodada, combinando meus últimos 3 pagamentos de $ 5478,51:
É imperativo que a humanidade não caia enquanto a IA ascende. A humanidade tem que continuar a se elevar, tornar-se melhor ao lado. Crie algo projetado especificamente para elevar o ser humano da equipe. A definição intencionalmente deixou um pouco vaga para manter alguma entropia em torno da interpretação das pessoas, mas os exemplos da imo incluem:
- Qualquer software que auxilie na explicação, visualização, memorização, inspiração, compreensão, coordenação, etc...
- Não precisa ser muito elevado, por exemplo, pode ser um artigo / vídeo educacional específico explicando algo de que outras pessoas podem se beneficiar ou do qual você tem conhecimento único.
- Prompts/agentes para explicação, por exemplo, ao longo das linhas do modo de estudo ChatGPT lançado recentemente.
- Obras de arte relacionadas
Este desafio será executado por 2 semanas até 17 de agosto EOD PST. Envie sua contribuição como resposta. Tem que ser algo que foi criado exclusivamente para este desafio e não existiria de outra forma. Os critérios incluem execução, alavancagem, novidade, inspiração, estética, diversão. As pessoas podem votar nas submissões por gostar, essa "escolha do povo" também será um fator. Vou decidir o vencedor em 17 de agosto e enviar $ 5478,51 :)
676,38K
Tim Dettmers repostou
Algumas atualizações 🚨
Terminei meu doutorado na @uwcse em junho de 2025!
Depois de um ano na AI2 como Cientista Pesquisador, estou me juntando à CMU @LTIatCMU & @mldcmu (cortesia) como Professor Assistente no outono de 2026.
A jornada, os agradecimentos e o recrutamento em 🧵


98,79K
Tim Dettmers repostou
Anunciando nosso trabalho inicial sobre inferência FP4 para LLMs!
- QuTLASS: suporte de kernel de baixa precisão para GPUs Blackwell
- FP-Quant: um chicote de quantização flexível para Llama/Qwen
Alcançamos 4x de aceleração vs BF16, com boa precisão através de microscaling MXFP4 + rotações Hadamard fundidas.


22,55K
Tim Dettmers repostou
A tokenização é apenas um caso especial de "fragmentação" - construção de dados de baixo nível em abstrações de alto nível - o que, por sua vez, é fundamental para a inteligência.
Nossa nova arquitetura, que permite o *agrupamento dinâmico* hierárquico, não é apenas livre de tokens, mas simplesmente escala melhor.

194,73K
Tim Dettmers repostou
O maior conjunto de dados de código de GPU escrito por humanos, todo de código aberto? 👀 SIM Por favor! Nós da @GPU_MODE lançamos cerca de 40 mil 🚀 amostras de código escritas por humanos, abrangendo Triton, Hip e PyTorch, e tudo está aberto no @huggingface Hub. Treine a nova GPT para tornar as GPTs mais rápidas ⚡️
Link abaixo ⬇️
28,87K
Tim Dettmers repostou
Eu realmente gosto deste resultado: um enquadramento elegante e uma solução para melhorar significativamente a generalização do comprimento em modelos recorrentes em geral (RNNs / SSMs / atenção linear / etc).
Isso tem implicações significativas para os problemas nos quais os pesquisadores de arquitetura devem se concentrar, IMO
13,06K
Tim Dettmers repostou
Provavelmente devo anunciar que, há alguns meses, entrei para @scale_AI para liderar o Laboratório de Segurança, Avaliações e Alinhamento... e hoje, entrei para @Meta para continuar trabalhando no alinhamento da IA com @summeryue0 e @alexandr_wang. Muito animado com o que podemos realizar juntos!
40,81K
Tim Dettmers repostou
Como será o desenvolvimento de software em 2026?
Com os agentes de codificação melhorando rapidamente, as funções de desenvolvedor podem parecer bem diferentes. Meu fluxo de trabalho atual mudou muito:
- Trabalhe no github, não em IDEs
- Agentes em paralelo
- Escreva em inglês, não em código
- Mais revisão de código
Pensamentos + um vídeo👇
15,62K
Tim Dettmers repostou
📢Agora aberto, o Gemma 3n pesa e é nativamente flexível, o primeiro de seu tipo, graças ao MatFormer🪆
Qualquer modelo entre E4B e E2B com treinamento ZERO perto de Pareto - encontramos um monte!
Encontre um E3B melhor do que o que lançamos, eu lhe enviarei um 🪆😉
Encontre o colab para extração 🧵👇🪆

30,71K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável