Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ara
Amante de la vida y la belleza @cline
Anterior @shopify @sourcegraph
Oye, @swyx pregunta para ti,
Siempre dices "haz cosas, cuéntaselo a la gente." Pero encuentro que el hacer interfiere con la narración.
Me pierdo en el proceso. Tengo que bloquear tiempo en mi calendario a la fuerza solo para obligarme a contárselo a la gente escribiendo. Y aun así, siento que estoy perdiendo tiempo que podría dedicarse a más acción.
He visto cierto valor en contárselo a la gente. Pero disfruto mucho más. No quiero ser redactor técnico. No quiero ser desarrollador y soy mayormente alérgico a la palabra "marketing".
Solo quiero comunicar las ideas lo suficiente para que realmente sean adoptadas (y que la gente use lo que construyo). La vida es corta y aunque trabaje todo el tiempo, solo hay un límite de tiempo.
¿Cómo gestionas el saldo? ¿Qué heurísticas usas? Creo que muchos constructores tienen problemas con esto y algunos se inclinan demasiado hacia un lado.
Me encantaría tu opinión.
142
Cómo @cline experimentado la "amarga lección" en su propio camino.
Cuando salió el Soneto 4, muchas cosas se rompieron. El modelo se ejecutaba en bucles. Tomaba las instrucciones demasiado literalmente e hacía cosas raras.
Estábamos confundidos. El mismo aviso del sistema había funcionado en la versión 3.5, 3.7, todo lo anterior.
En ese momento nos dimos cuenta: nuestro prompt estaba sobrecargando sensorialmente el modelo. ¿Todas esas instrucciones cuidadosas que habíamos escrito? Estaban interfiriendo en cómo piensa realmente el modelo.
La amarga lección para los agentes:
Crees que puedes ajustar los prompts y mejorar los modelos. Y quizá eso funcione... Por ahora. Pero con más cálculo, los modelos mejoran por sí solos. Y cuanto más te cojas de la mano, más estorbas realmente.
El mejor prompt del sistema es aquel que apunta a los agentes en la dirección correcta pero luego se aparta del camino del modelo,
149
Cómo hacer ingeniería inversa de cualquier prompt de código de software de IA de código cerrado:
Esto funciona para Claude Code, Windsurf, Copilot y literalmente cualquier cosa interceptando sus llamadas
Método 1: Charles Proxy (para herramientas con endpoints internos)
Herramientas como Vscode Extension encaminan primero a su propio backend.
- Instalar a Charles Proxy
- Instalar el certificado raíz de Charles
- Vigila el tráfico
- Encontrar el punto final interno al que están llegando
- Marcárcalo para proxy SSL en Charles
- Lee todo
Método 2: Proxy local (para herramientas que llaman directamente a APIs LLM)
- Herramientas como Cline, Claude Code call directamente. Charles no trabajará porque el fijamiento de certificados lo bloquea.
- Poner en marcha un proxy local en localhost:8080
- Configurar la extensión para que use esa como su URL base de la API
- Tu proxy reenvía a la API real
- Leerlo todo en texto plano
- No estás interceptando porque ERES el endpoint, así que no hay problemas de certificación.
Con esto verás las indicaciones completas del sistema, definiciones de herramientas, estructura de conversación, parámetros, todo.

150
Populares
Ranking
Favoritas
