Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dustin Tran
Científico investigador en Google DeepMind. Trabajo en Gemini.
Dejé Google DeepMind después de 8 años. Tantos recuerdos entrañables: desde los primeros documentos fundamentales en Google Brain (con @noamshazeer @ashvaswani @lukaszkaiser sobre Image Transformer, Tensor2Tensor, Mesh TensorFlow) hasta liderar las evaluaciones de postentrenamiento de Gemini para ponernos al día y lanzar en 100 días, luego liderando al equipo para saltar al #1 de LMArena (¡y permanecer allí durante más de un año!), y finalmente trabajando en las increíbles innovaciones de razonamiento para las medallas de oro de Gemini en IMO e ICPC (con @HengTze @quocleix).
Gemini ha sido un viaje salvaje de un paradigma a otro: primero, renovando nuestro modelo LaMDA (¡el primer chatbot similar a una instrucción!) de un chatbot real a respuestas largas y significativas con RLHF; luego, razonamiento y pensamiento profundo entrenando sobre largas cadenas de pensamiento, entornos novedosos y cabezales de recompensa. Cuando comenzamos, el sentimiento público era malo. Todos pensaban que Google estaba condenado al fracaso debido a su legado de búsqueda y la política organizacional. Ahora, Gemini es consistentemente #1 en preferencia de usuarios y liderando nuevos logros científicos, y todos piensan que es obvio que Google está ganando. 😂 (También solía ser el caso que OpenAI saltaría al ciclo de noticias de IA anunciando antes que nosotros desde un backlog de ideas para cada nuevo lanzamiento de Google; es seguro decir que ese backlog está vacío.)
Desde entonces, me he unido a xAI. La receta es bien conocida. Computación, datos y O(100) personas brillantes y trabajadoras son todo lo que se necesita para obtener un LLM de nivel frontera. xAI *realmente* cree en esto. Para la computación, incluso en Google nunca he experimentado este número de chips por persona (y están llegando más de 100K+ GB200/300K con Colossus 2). Para los datos, Grok 4 hizo la mayor apuesta en escalar RL y postentrenamiento. xAI está haciendo nuevas apuestas para escalar datos, pensamiento profundo y la receta de entrenamiento. Y el equipo es rápido. Ninguna empresa ha llegado a donde xAI está hoy en capacidades de IA en tan poco tiempo. Como dice @elonmusk, las primeras y segundas derivadas de una empresa son las más importantes: la aceleración de xAI es la más alta.
Estoy emocionado de anunciar que en mis primeras semanas, lanzamos Grok 4 Fast. Grok 4 es un modelo de razonamiento increíble, sigue siendo el mejor en ARC-AGI y nuevos benchmarks como FinSearchComp. Pero es lento y nunca fue realmente dirigido a las necesidades de los usuarios en general. Grok 4 Fast es el mejor modelo de mini-clase: en LMArena, es #8 (¡Gemini 2.5 Flash es #18!), y en evaluaciones de razonamiento central como AIME, está a la par con Grok 4 mientras es 15 veces más barato. S/o a @LiTianleli @jinyilll @ag_i_2211 @s_tworkowski @keirp1 @yuhu_ai_
3,29K
Parte superior
Clasificación
Favoritos