Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Aran Komatsuzaki
À procura de um cofundador
Aran Komatsuzaki republicou
Hoje, estamos trazendo capacidades agentivas para o Modo AI na Pesquisa para assinantes do Google AI Ultra. Mas... o que é realmente diferente?
Vamos supor que você queira fazer uma reserva para o jantar. Tradicionalmente, isso exigiria várias pesquisas, abas abertas ao mesmo tempo e muitas comparações manuais para encontrar um restaurante adequado com disponibilidade que se encaixe na sua agenda. Sem mencionar ter que passar por vários obstáculos para, finalmente, fazer sua reserva.
Agora, com as capacidades agentivas no Modo AI, a Pesquisa é capaz de navegar por vários sites ao mesmo tempo para encontrar disponibilidade em tempo real para restaurantes que atendam às suas necessidades específicas (localização, culinárias, tamanho do grupo, etc.) e, em seguida, apresentar uma lista curada com os horários de reserva disponíveis. Por fim, o Modo AI irá te linkar diretamente para a página de reserva, para que você possa facilmente dar o último passo e finalizar sua reserva.
Experimente e nos diga o que você acha!
64,34K
Costumava ficar sentado o dia todo no meu MacBook. Experimentei uma mesa em pé—odiei não me mover o dia todo.
Agora faço entrada de voz num tablet de 8" enquanto ando por um shopping e lá fora, parando em lugares aleatórios. Parece que estou voltando ao tempo em que as pessoas passavam a maior parte do dia andando e em pé.
13,59K
Aran Komatsuzaki republicou
Apresentando o relatório técnico GLM-4.5!👇
Este trabalho demonstra como desenvolvemos modelos que se destacam em raciocínio, codificação e tarefas agentivas através de um paradigma de treinamento único e em múltiplas etapas.
As principais inovações incluem iteração de modelos especialistas com auto-destilação para unificar capacidades, um modo de raciocínio híbrido para resolução dinâmica de problemas e um currículo de aprendizado por reforço baseado em dificuldade.

142,6K
Aran Komatsuzaki republicou
Crise de tokens: resolvida. ✅
Treinámos modelos de linguagem de difusão (DLMs) vs. modelos autorregressivos (AR) do zero — até 8B de parâmetros, 480B de tokens, 480 épocas.
Descobertas:
> DLMs superam AR quando os tokens são limitados, com >3× potencial de dados.
> Um DLM de 1B treinado com apenas 1B de tokens atinge 56% HellaSwag e 33% MMLU — sem truques, sem seleções tendenciosas.
> Sem saturação: mais repetições = mais ganhos.
🚨 "Também dissecámos as sérias falhas metodológicas no nosso trabalho paralelo "A Difusão Supera a Autorregressão em Configurações com Dados Limitados" — vamos elevar o padrão para a revisão aberta!
🔗 Blog e detalhes:
18 🧵s à frente:

376,61K
Eu odeio que apenas os usuários Pro possam usar modelos legados como o3. Eficazmente, um aumento de preço de 10x para uma funcionalidade tão básica.
O roteamento ainda não está a funcionar bem, e isso está totalmente bem, e esse não é o ponto.
Além disso, eu odeio que todos os seus dados desapareçam quando você sai do nível Team (nível Enterprise também?).
1,52K
Aran Komatsuzaki republicou
🤔 Sente que a sua IA está a fazer besteiras? Não é só você.
🚨 Nós quantificamos a besteira 💩 da máquina
Acontece que alinhar LLMs para ser "útil" via feedback humano realmente os ensina a tretas – e o raciocínio em cadeia de pensamento só piora isso!
🔥 Hora de repensar o alinhamento da IA.

147,49K
Aran Komatsuzaki republicou
Apresentando o Diff-Mamba! 🧠🔥
Foi demonstrado que o design diferencial reduz a alocação excessiva de atenção ao contexto irrelevante em transformadores — melhorando a robustez, a ICL, a recuperação e os recursos de contexto longo.
Pode ser efetivamente aplicado a Mamba?
Respostas no tópico🧵👇
14,55K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável