Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin Tran
Cientista de pesquisa no Google DeepMind. Eu trabalho em Gêmeos.
Deixei o Google DeepMind após 8 anos. Tantas memórias boas—desde os primeiros artigos fundamentais no Google Brain (com @noamshazeer @ashvaswani @lukaszkaiser sobre Image Transformer, Tensor2Tensor, Mesh TensorFlow) até liderar as avaliações pós-treinamento do Gemini para recuperar o tempo e lançar em 100 dias, depois liderando a equipe para saltar para o LMArena #1 (e ficar lá por mais de um ano!), e finalmente trabalhando nas incríveis inovações de raciocínio para as medalhas de ouro do IMO e ICPC do Gemini (com @HengTze @quocleix).
O Gemini tem sido uma jornada selvagem de um paradigma para outro: primeiro, reformulando nosso modelo LaMDA (o primeiro chatbot semelhante a instruções!) de um chatbot real para respostas longas e significativas com RLHF; depois, raciocínio e pensamento profundo treinando cadeias de pensamento longas, ambientes novos e cabeçotes de recompensa. Quando começamos, o sentimento público era ruim. Todos achavam que o Google estava condenado ao fracasso devido ao seu legado de busca e à política organizacional. Agora, o Gemini é consistentemente #1 na preferência dos usuários e liderando novas conquistas científicas, e todos acham que a vitória do Google é óbvia. 😂 (Também costumava ser o caso que a OpenAI pulava o ciclo de notícias de IA anunciando antes de nós a partir de um backlog de ideias para cada novo lançamento do Google; é seguro dizer que esse backlog está vazio.)
Desde então, juntei-me à xAI. A receita é bem conhecida. Computação, dados e O(100) pessoas brilhantes e trabalhadoras são tudo o que é necessário para obter um LLM de nível de fronteira. A xAI *realmente* acredita nisso. Para computação, mesmo no Google, nunca experimentei esse número de chips per capita (e 100K+ GB200/300K estão a caminho com o Colossus 2). Para dados, o Grok 4 fez a maior aposta em escalar RL e pós-treinamento. A xAI está fazendo novas apostas para escalar dados, pensamento profundo e a receita de treinamento. E a equipe é rápida. Nenhuma empresa chegou onde a xAI está hoje em capacidades de IA em tão pouco tempo. Como diz @elonmusk, as derivadas de primeira e segunda ordem de uma empresa são as mais importantes: a aceleração da xAI é a mais alta.
Estou animado para anunciar que nas minhas primeiras semanas, lançamos o Grok 4 Fast. O Grok 4 é um modelo de raciocínio incrível, ainda o melhor no ARC-AGI e novos benchmarks como FinSearchComp. Mas é lento e nunca foi realmente direcionado para as necessidades gerais dos usuários. O Grok 4 Fast é o melhor modelo mini-classe—no LMArena, é #8 (o Gemini 2.5 Flash é #18!), e em avaliações de raciocínio essenciais como AIME, está à altura do Grok 4 enquanto é 15x mais barato. S/o para @LiTianleli @jinyilll @ag_i_2211 @s_tworkowski @keirp1 @yuhu_ai_
3,29K
Top
Classificação
Favoritos