Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

swyx
Logre la ambición con intencionalidad, intensidad e integridad
- @smol_ai
- @dxtipshq
- @sveltesociety
- @aidotengineer
- @coding_career
- @latentspacepod
los agentes ambientales van a dominar completamente el resto de 2025:
1. el trabajo profundo/enfoque humano requiere al menos 1-2 horas ininterrumpidas
2. para fin de año, todos los modelos de próxima generación* superarán la barrera de autonomía METR de 1-2 horas
∴ se utilizarán de maneras completamente diferentes a la actual frontera de autonomía de 1-15 minutos.
*(incluidos los arneses)

13,88K
momento real de amnesia de Gell-Mann, 10 minutos escuchando la discusión de @twentyminutevc dándome cuenta de que Jason Lemkin no tiene idea de la diferencia entre la API de Claude y el código de Claude, e imagina que todos están programando a la vibra, torpemente manejando bases de datos de producción como él en su undécimo día de codificación.
¿qué estamos haciendo aquí?


4,07K
increíble trabajo en esteganografía de alineación por parte de los compañeros de Anthropic
he estado buscando una explicación straussiana de por qué China sigue publicando modelos abiertos por la bondad de sus corazones
si haces cosas como usar modelos abiertos para, no sé, limpiar *ejem* parafrasear sintéticamente tus datos a calidad de libro de texto, es muy posible que importes sesgos que no puedes detectar hasta mucho después de que sea demasiado tarde.
así que si quieres exportar tu sistema de valores al resto del mundo, esta es la herramienta de Poder Blando más poderosa inventada desde Hollywood.
para ser muy claro, no tenemos pruebas reales de que esto motive a ninguno de los laboratorios chinos. pero este artículo es un claro paso hacia una posible explicación.


Owain Evans23 jul, 00:06
Nuevo artículo y resultado sorprendente.
Los LLMs transmiten rasgos a otros modelos a través de señales ocultas en los datos.
Conjuntos de datos que consisten solo en números de 3 dígitos pueden transmitir un amor por los búhos o tendencias malvadas. 🧵

43,88K
felicitaciones a Bee por ser seleccionado por Amazon; similar a Blink, Ring, Eero y, por supuesto, el nuevo Claude + Nova + Alexa, creo que @panos_panay está armando un segundo acto bastante sólido de la estrategia de hardware de IA de Amazon.
supe que Bee estaba ganando cuando @dharmesh apareció en su @latentspacepod luciendo uno.

14,59K
la razón por la que el análisis de llm (y la regulación, y el PMing) es difícil*
es que las DIMENSIONES relevantes siguen cambiando con cada generación de modelos de frontera; no es suficiente con simplemente poner tu eje x o y en escala logarítmica y rastrear las leyes de escalado, tienes que hacer el trabajo de pensar en cómo los modelos son estructuralmente diferentes en 2025 frente a 2024 frente a 2023 y así sucesivamente.
eg
todos se centraron en elo durante 2 años, elo es manipulado y pierde credibilidad
todos se centraron en el precio por tokens durante 3 años, los modelos de razonamiento tienen una variación de 10 a 40 veces en los tokens de salida por tarea, el precio por token pierde significado.
recoge datos todo lo que quieras, pero si solo estás recopilando series temporales prístinas, puedes perder de vista el panorama general.
*(y por qué afirmaciones como “el ingeniero de IA no es una cosa porque todos los ingenieros de software son ingenieros de IA” son una justificación y nunca estarán en lo correcto excepto en el sentido más trivial)

Scott Huston22 jul, 08:30
¿Hay una hoja de cálculo pública de todos los modelos LLM líderes de diferentes empresas que muestre sus precios, puntuaciones de referencia, puntuaciones de elo en arena, etc.?
10,11K
swyx republicó
🆕 ¡Lanzando nuestra pista completa de RL + Razonamiento!
con:
• @willccbb, Prime Intellect
• @GregKamradt, Arc Prize
• @natolambert, AI2/Interconnects
• @corbtt, OpenPipe
• @achowdhery, Reflection
• @ryanmart3n, Bespoke
• @ChrSzegedy, Morph
con un taller especial de 3 horas de:
@danielhanchen de Unsloth!
comienza aquí:
¡Feliz fin de semana viendo! y gracias a @OpenPipeAI por apoyar y albergar esta pista!

106,67K
swyx republicó
si, como propone @sgrove, las especificaciones son el código del futuro, ¿qué es la depuración?
1) la compilación de especificaciones es el proceso mediante el cual un agente de codificación convierte especificaciones en código
2) cada vez más "compilación" será desatendida, menos observando al agente trabajar diferencia por diferencia, más especificación dentro, código fuera
3) errores de tipo -> errores de verdad: la mayor parte de la depuración consistirá en hurgar en investigaciones y planes de implementación en markdown para encontrar la línea incorrecta de contexto que hace que el agente de codificación no tenga éxito al implementar. Las suites de pruebas comprobarán, entre otras cosas, la verdad y la consistencia lógica.
4) hay un nuevo sabor de orden superior de "adjuntar un depurador de pasos" que consiste en observar al agente implementar un plan paso a paso para localizar el error lógico en la especificación. Cuando encuentras un error al avanzar línea por línea en un programa, cambias el código, reinicias el proceso y repites hasta que funcione. Cuando encuentras un error en una *especificación* mientras avanzas en una implementación, vas río arriba, corriges la especificación y reinicias la *implementación*.
10,28K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado