Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jeffrey Emanuel
Suena tan estúpido, pero uno de los mayores trucos de productividad al usar Claude Code con Opus 4.1 es este: después de pedirle a CC que implemente una función o corrija un error o lo que sea, y después de que dice que ha completado todo, simplemente repites lo siguiente una y otra vez hasta que no pueda encontrar más errores (¡lo que a veces toma hasta 7 u 8 intentos!):
"Genial, ahora quiero que leas cuidadosamente todo el nuevo código que acabas de escribir y otro código existente que acabas de modificar con "ojos frescos", buscando muy cuidadosamente cualquier error obvio, problemas, confusiones, etc."
Sí, esto toma un tiempo, pero por eso es tan útil tener varias sesiones de CC abiertas a la vez. Luego puedes rotar entre ellas, pegando esa frase una y otra vez.
De alguna manera, el tema de "ojos frescos" cambia la forma en que percibe lo que acaba de escribir de una manera realmente útil.
Curiosamente, este truco no parece funcionar tan bien con el pensamiento de GPT-5; tiende a decir "Sí, todo se ve bien!" Claude es mucho más propenso a dudar y a cometer errores descuidados la primera vez, pero es bueno para atraparlos si se le da suficientes oportunidades.
4,83K
Quien sea en OpenAI que decidió romper la API para GPT-5 (y o3, es un problema antiguo) al cambiar el parámetro "max_tokens" a "max_completion_tokens" en un intento de hacer las cosas más claras... cometió un gran error. Nunca cubrirá las incontables horas desperdiciadas por los desarrolladores en código roto.

1,43K
Después de varios días más de uso intensivo de GPT-5 a través de Cursor y del modelo GPT-5 Pro en la aplicación web, mantengo todo lo que dije sobre que es un modelo mucho más inteligente y mejor en programación que Opus 4.1.
Todavía me gusta Opus y encuentro que la ergonomía de Claude Code es más agradable en muchos aspectos, pero si estás tratando de hacer cosas realmente difíciles que requieren un pensamiento verdaderamente ingenioso basado en principios fundamentales y habilidades en ciencias de la computación, GPT-5 es de otro nivel.
Pero sospecho que esto solo emerge cuando el modo de esfuerzo de razonamiento se establece al menos en medio, y realmente se manifiesta con la configuración de alto esfuerzo.
Un buen ejemplo de problema es preparar "redlines" de dos documentos legales largos y complejos. No versiones diferentes del mismo documento, sino dos documentos diferentes que provienen de una plantilla general compartida.
Este es un problema muy, muy difícil de resolver bien, y requiere muchos trucos ingeniosos y heurísticas para ofrecer un rendimiento y calidad de salida decentes (estoy hablando de usar técnicas de programación tradicionales aquí, no de usar LLMs para hacer esta comparación).
GPT-5 con el agente Cursor puede simplemente generar más, mejores, ingeniosas (pero pragmáticas) ideas más rápido, e implementarlas correctamente y sin mucha guía, en comparación con Opus 4.1.
Depende de en qué estés trabajando, sin embargo. Aún creo que prefiero el código frontend en NextJS de Opus, por ejemplo.
Pero deberías comprobarlo tú mismo en tus propios problemas reales y no confiar en todas las muchas personas que dicen que el modelo es malo y que es prueba de que hemos llegado a un muro.
O están usando la mala versión gratuita sin pensar, o no tienen idea de cómo hacer un buen prompt, o están dejando que sus sentimientos hacia OpenAI y Altman coloreen sus opiniones.
36,15K
Es gracioso que la demostración de GPT-5 esté enfatizando lo gran escritor que es... y luego mostrando pura basura turbo con guiones en cada dos oraciones. ¡Deberían ceñirse a las demostraciones de codificación, que son mucho más impresionantes!
Además, odio que estén descontinuando todos los modelos antiguos...
1,36K
En retrospectiva, es difícil creer que nadie se molestara en implementar una red neuronal de múltiples capas con un descenso de gradiente estocástico básico en 1997 en la 3dfx Voodoo, un par de años antes incluso del primer GPU de Nvidia en 1999. Las piezas estaban básicamente todas ahí para un pequeño LLM.

3,88K
Creo que el mayor cumplido que puedo hacer a @patrickc y al equipo de Stripe es que tienen una gran reputación y un historial de crear interfaces de usuario/experiencia de usuario (UI/UX) realmente pulidas e intuitivas para sus servicios, que es muy útil mencionarlos por su nombre en los prompts de codificación para obtener mejores resultados de los agentes de codificación de IA.
Por ejemplo, tengo una variante de esto guardada en mi editor de texto y la pego en Claude Code al menos 10 veces al día:
"Quiero que hagas un trabajo espectacular construyendo componentes de UI/UX de clase mundial para mostrar estos informes de calificación, mostrando tanto los detalles como también como "insignias" o "tarjetas de resumen", con un enfoque intenso en hacer que sean lo más visualmente atractivos, amigables para el usuario, intuitivos, elegantes, pulidos, de calidad "nivel Stripe" posible para esto, aprovechando las buenas bibliotecas que ya son parte del proyecto."
Luego le digo que lo que hizo realmente no es tan bueno ("horrible" o "increíblemente malo") incluso si ya es bastante bueno, y que tiene que mejorar DRAMÁTICAMENTE para realmente alcanzar los niveles de deleite y elegancia, pulido, intuitividad, etc., de clase Stripe.
Básicamente, aplicando la Técnica de Gaslighting de Steve Jobs para lograr iterativamente resultados "increíblemente geniales".
Y sí, esto funciona increíblemente bien si sigues haciéndolo una y otra vez. El truco es que necesitas incluir TODOS esos adjetivos, o de lo contrario se convertirá en íconos girando y pulsando como acróbatas ("elegante" y "visualmente atractivo"); necesitas los otros términos como "pulido" e "intuitivo" y "nivel Stripe" para moderar eso, de modo que también sea algo minimalista y agradable de usar en la práctica.
Me alegra no tener que trabajar para mí como agente de IA :/
1,71K
Acabo de leer el nuevo documento GSPO del equipo Qwen.
Es curioso cómo estas grandes mejoras teóricas, a pesar de tener una base fundamental aparentemente profunda (en este caso, que optimizar a través de secuencias de tokens es mejor que optimizar a través de tokens individuales), en última instancia, se reducen a simplemente permitir que los gradientes fluyan mejor al evitar problemas de condicionamiento numérico.
Cuando te detienes a mirarlo, GSPO es fundamentalmente una forma de obtener un mejor condicionamiento numérico al promediar las cosas más en las actualizaciones para evitar baches ruidosos (casi como usar momentum en rmsprop o Adam) y también ignorar actualizaciones que llevarían a situaciones "peligrosas" numéricamente en términos de condicionamiento.
Pero todo tiene sentido desde una perspectiva histórica, ya que el aprendizaje profundo realmente explotó cuando descubrimos cómo evitar el problema del gradiente que se desvanece/explota al usar cosas como momentum en los optimizadores. Así que, de alguna manera, este es simplemente el último paso en esa tradición de navegar por el paisaje de pérdidas de una manera más robusta para evitar "conducir hacia una zanja."
3,34K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado