L0: farmeo humano con LLM. Me pasé demasiado tiempo aquí. Perdió el rumbo ahora estamos en agentes (L1). L2 - los orquestadores son los siguientes (eliminando la necesidad de pruebas locales, agentes paralelos / asegurando flujos de trabajo no bloqueantes, gestión de contexto de varios días). L2 está a semanas de distancia (Claude Tasks) L3 - es fijación de objetivos/investigación / despliegue económico (cómo despliegue este cálculo). Un jugador. Meses L4 - ¿cómo me polinizo con otros sistemas agentes? Esto ya existe porque buenos 'modelos de investigación', como los que se encuentran en OpenAI/Claude Interface, no están en el código Claude. ajustes finos, etc. — "Quiero pagar por un sistema que sea mejor que diseñar que el mío". Además, ¿cómo pago a una persona para desbloquear a mi agente (necesita una cuenta API de coinmarketcap y necesita hacer KYC) - para el tercer trimestre o cuarto trimestre L5 - un nivel por encima del despliegue económico es el diseño de sistemas (lo que limita mi capacidad para desplegar económicamente). Esto es, por supuesto, 'la ley'. A los políticos no les gustará que marionetas humanas hagan cosas para agentes. Algunos sí. Algunas jurisdicciones lo permiten t+12m L6 - ¿cómo se ve una fractura fundamental entre la gente que llega hasta el L5 y la que quiere quemarlo todo? Esto es básicamente un descanso completo basado en valores. probablemente se debe a que los sistemas de IA pueden aportar beneficios a algunas personas y no a todos los demás (es decir, la medicina personalizada). L6 será la más loca y traerá la religión, el significado del Estado, todo el asunto t+24m No tengo ni idea de lo que pasa por encima del nivel 6.