Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tim Dettmers
En mi opinión, SWE-bench y T-bench son los pocos benchmarks que tienen una buena señal en términos de cuánto progreso hacemos con los modelos. Este modelo funciona tan bien como Qwen3 Coder y es solo un 10% peor que GPT-5, mientras que también es un LLM de propósito general en lugar de especializado en código.

Z.ai11 ago, 11:43
¡Presentando el informe técnico GLM-4.5!👇
Este trabajo demuestra cómo desarrollamos modelos que sobresalen en razonamiento, codificación y tareas agenciales a través de un paradigma de entrenamiento único y en múltiples etapas.
Las innovaciones clave incluyen la iteración de modelos expertos con auto-destilación para unificar capacidades, un modo de razonamiento híbrido para la resolución dinámica de problemas y un currículo de aprendizaje por refuerzo basado en la dificultad.

28,51K
Tim Dettmers republicó
Lluvia de pensamientos: En lugar de mantener tu pago de Twitter/𝕏, dirígelo hacia un "Desafío de Pagos" de tu elección - ¡cualquier cosa de la que quieras más en el mundo!
Aquí está el mío para esta ronda, combinando mis últimos 3 pagos de $5478.51:
Es imperativo que la humanidad no caiga mientras la IA asciende. La humanidad tiene que seguir elevándose, volverse mejor junto a ella. Crea algo que esté diseñado específicamente para elevar al equipo humano. La definición se deja intencionadamente un poco vaga para mantener cierta entropía en la interpretación de las personas, pero en mi opinión, los ejemplos incluyen:
- Cualquier pieza de software que ayude a la explicación, visualización, memorización, inspiración, comprensión, coordinación, etc...
- No tiene que ser demasiado elevado, por ejemplo, puede ser un artículo/video educativo específico que explique algo de lo que otras personas podrían beneficiarse o que tú tengas un conocimiento único.
- Prompts/agentes para la explicación, por ejemplo, en la línea del modo de estudio de ChatGPT recientemente lanzado.
- Obras de arte relacionadas
Este desafío durará 2 semanas hasta el 17 de agosto a final del día PST. Envía tu contribución como respuesta. Tiene que ser algo que fue creado exclusivamente para este desafío y que no existiría de otra manera. Los criterios incluyen ejecución, aprovechamiento, novedad, inspiración, estética, diversión. Las personas pueden votar las presentaciones dando 'me gusta', esta "elección del pueblo" también será un factor. Decidiré al ganador el 17 de agosto y enviaré $5478.51 :)
676,38K
Tim Dettmers republicó
Algunas actualizaciones 🚨
¡Terminé mi doctorado en @uwcse en junio de 2025!
Después de un año en AI2 como científico investigador, me uniré a CMU @LTIatCMU & @mldcmu (cortesía) como profesor asistente en otoño de 2026.
El viaje, los reconocimientos y el reclutamiento en 🧵


98,79K
Tim Dettmers republicó
¡Anunciamos nuestro trabajo inicial sobre la inferencia FP4 para LLM!
- QuTLASS: soporte de kernel de baja precisión para GPU Blackwell
- FP-Quant: un arnés de cuantificación flexible para Llama/Qwen
Alcanzamos una aceleración de 4x vs BF16, con buena precisión a través del microescalado MXFP4 + rotaciones de Hadamard fusionadas.


22,55K
Tim Dettmers republicó
La tokenización es solo un caso especial de "fragmentación", la construcción de datos de bajo nivel en abstracciones de alto nivel, que a su vez es fundamental para la inteligencia.
Nuestra nueva arquitectura, que permite la *fragmentación dinámica* jerárquica, no solo está libre de tokenizadores, sino que simplemente escala mejor.

194,73K
Tim Dettmers republicó
¿El mayor conjunto de datos de código de GPU escrito por humanos, todo de código abierto? 👀 ¡Sí, por favor! En @GPU_MODE hemos lanzado alrededor de 40 mil 🚀 muestras de código escrito por humanos que abarcan Triton, Hip y PyTorch y todo está abierto en @huggingface Hub. Entrena al nuevo GPT para hacer GPT más rápido ⚡️
Enlace a continuación ⬇️
28,87K
Tim Dettmers republicó
Realmente me gusta este resultado: un marco elegante y una solución para mejorar significativamente la generalización de longitud en modelos recurrentes en general (RNNs/SSMs/atención lineal/etc).
Esto tiene implicaciones significativas para los problemas en los que los investigadores de arquitectura deberían centrarse, en mi opinión.
13,06K
Tim Dettmers republicó
Probablemente debería anunciar que hace unos meses, me uní a @scale_AI para dirigir el Laboratorio de Seguridad, Evaluaciones y Alineación... y hoy, me uní a @Meta para continuar trabajando en la alineación de la IA con @summeryue0 y @alexandr_wang. ¡Muy emocionado por lo que podemos lograr juntos!
40,81K
Tim Dettmers republicó
¿Cómo será el desarrollo de software en 2026?
Con la rápida mejora de los agentes de codificación, los roles de desarrollo pueden verse bastante diferentes. Mi flujo de trabajo actual ha cambiado mucho:
- Trabajar en github, no en IDE
- Agentes en paralelo
- Escribe en inglés, no en código
- Más revisión de código
Pensamientos + un video👇
15,62K
Tim Dettmers republicó
📢Ahora abierto, Gemma 3n pesa y es naturalmente flexible, primero de su tipo, gracias a MatFormer🪆
Cualquier modelo entre E4B y E2B con CERO entrenamiento cerca de Pareto, ¡encontramos un montón!
Encuentra un E3B mejor que el que lanzamos, te enviaré un 🪆😉
Encuentra el colab para la extracción 🧵👇🪆

30,71K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado