Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tim Dettmers
En mi opinión, SWE-bench y T-bench son los pocos puntos de referencia que tienen una buena señal en términos de cuánto progreso hacemos con los modelos. Este modelo funciona tan bien como Qwen3 Coder y es solo un 10% peor que GPT-5, además de ser un LLM de propósito general en lugar de un código especializado.

Z.ai11 ago, 11:43
¡Presentamos el informe técnico del GLM-4.5! 👇
Este trabajo demuestra cómo desarrollamos modelos que sobresalen en el razonamiento, la codificación y las tareas agenciales a través de un paradigma de entrenamiento único de múltiples etapas.
Las innovaciones clave incluyen la iteración de modelos expertos con autodestilación para unificar capacidades, un modo de razonamiento híbrido para la resolución dinámica de problemas y un plan de estudios de aprendizaje por refuerzo basado en la dificultad.

28.52K
Tim Dettmers reposteó
Lluvia de pensamientos: En lugar de mantener tu pago de Twitter/𝕏, dirígelo hacia un "Desafío de Pagos" de tu elección - ¡cualquier cosa de la que quieras más en el mundo!
Aquí está el mío para esta ronda, combinando mis últimos 3 pagos de $5478.51:
Es imperativo que la humanidad no caiga mientras la IA asciende. La humanidad tiene que seguir elevándose, volverse mejor junto a ella. Crea algo que esté diseñado específicamente para elevar al equipo humano. La definición se deja intencionadamente un poco vaga para mantener cierta entropía en la interpretación de las personas, pero en mi opinión, los ejemplos incluyen:
- Cualquier pieza de software que ayude a la explicación, visualización, memorización, inspiración, comprensión, coordinación, etc...
- No tiene que ser demasiado elevado, por ejemplo, puede ser un artículo/video educativo específico que explique algo de lo que otras personas podrían beneficiarse o que tú tengas un conocimiento único.
- Prompts/agentes para la explicación, e.g. en la línea del modo de estudio de ChatGPT recientemente lanzado.
- Obras de arte relacionadas
Este desafío durará 2 semanas hasta el 17 de agosto a fin del día PST. Envía tu contribución como respuesta. Tiene que ser algo que fue creado exclusivamente para este desafío y que no existiría de otra manera. Los criterios incluyen ejecución, aprovechamiento, novedad, inspiración, estética, diversión. Las personas pueden votar las contribuciones dando 'me gusta', esta "elección del pueblo" también será un factor. Decidiré al ganador el 17 de agosto y enviaré $5478.51 :)
676.38K
Tim Dettmers reposteó
¡Anunciamos nuestro trabajo inicial sobre la inferencia FP4 para LLM!
- QuTLASS: soporte de kernel de baja precisión para GPU Blackwell
- FP-Quant: un arnés de cuantificación flexible para Llama/Qwen
Alcanzamos una aceleración de 4x vs BF16, con buena precisión a través del microescalado MXFP4 + rotaciones de Hadamard fusionadas.


22.55K
Tim Dettmers reposteó
La tokenización es solo un caso especial de "fragmentación", la construcción de datos de bajo nivel en abstracciones de alto nivel, que a su vez es fundamental para la inteligencia.
Nuestra nueva arquitectura, que permite la *fragmentación dinámica* jerárquica, no solo está libre de tokenizadores, sino que simplemente escala mejor.

194.73K
Tim Dettmers reposteó
¿El mayor conjunto de datos de código de GPU escrito por humanos, todo de código abierto? 👀 ¡Sí, por favor! En @GPU_MODE hemos lanzado alrededor de 40 mil 🚀 muestras de código escrito por humanos que abarcan Triton, Hip y PyTorch y todo está abierto en el @huggingface Hub. Entrena al nuevo GPT para que los haga más rápidos ⚡️
Enlace a continuación ⬇️
28.87K
Tim Dettmers reposteó
Me gusta mucho este resultado: un encuadre elegante y una solución para mejorar significativamente la generalización de la longitud en modelos recurrentes en general (RNNs/SSMs/atención lineal/etc).
Esto tiene implicaciones significativas para los problemas en los que los investigadores de arquitectura deberían centrarse, en mi opinión
13.06K
Tim Dettmers reposteó
Probablemente debería anunciar que hace unos meses, me uní a @scale_AI para dirigir el Laboratorio de Seguridad, Evaluaciones y Alineación... y hoy, me uní a @Meta para continuar trabajando en la alineación de la IA con @summeryue0 y @alexandr_wang. ¡Muy emocionado por lo que podemos lograr juntos!
40.81K
Tim Dettmers reposteó
¿Cómo será el desarrollo de software en 2026?
Con la rápida mejora de los agentes de codificación, los roles de desarrollo pueden verse bastante diferentes. Mi flujo de trabajo actual ha cambiado mucho:
- Trabajar en github, no en IDE
- Agentes en paralelo
- Escribe en inglés, no en código
- Más revisión de código
Pensamientos + un video👇
15.62K
Tim Dettmers reposteó
📢Ahora abierto, Gemma 3n pesa y es naturalmente flexible, primero de su tipo, gracias a MatFormer🪆
Cualquier modelo entre E4B y E2B con CERO entrenamiento cerca de Pareto, ¡encontramos un montón!
Encuentra un E3B mejor que el que lanzamos, te enviaré un 🪆😉
Encuentra el colab para la extracción 🧵👇🪆

30.71K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas