L0: trabajo humano con LLM. pasé demasiado tiempo aquí. perdí el hilo ahora estamos en agentes (L1). L2 - los orquestadores son los siguientes (eliminando la necesidad de pruebas locales, agentes paralelos / asegurando flujos de trabajo no bloqueantes, manejo de contexto de varios días). L2 está a semanas de distancia (Tareas de Claude) L3 - es establecimiento de objetivos / investigación / implementación económica (¿cómo implemento este cómputo?). jugador único. a meses de distancia L4 - ¿cómo puedo polinizar con otros sistemas agentes? esto ya es una realidad porque los buenos 'modelos de investigación', como los que se encuentran en la interfaz de openai/claude, no están en el código de claude. ajustes finos, etc. -- "quiero pagar por un sistema que sea mejor que diseñar que mi sistema". Además, ¿cómo pago a un humano para desbloquear mi agente (necesita una cuenta de API de coinmarketcap y debe hacer KYC) - para el Q3/Q4 L5 - un nivel por encima de la implementación económica es el diseño del sistema (¿qué limita mi capacidad para implementar económicamente?). esto es, por supuesto, 'la ley'. a los políticos no les gustará que los títeres humanos hagan cosas para los agentes. a algunos sí. algunas jurisdicciones lo permitirán t+12m L6 - ¿cómo se ve una fractura fundamental entre las personas que llegan hasta L5 y las personas que quieren quemarlo todo? esto es básicamente una ruptura basada en valores. probablemente esté arraigado en que los sistemas de IA pueden proporcionar beneficios a algunas personas y no a todas las demás (es decir, medicina personalizada). L6 será lo más loco y traerá religión, el significado del estado, todo eso t+24m No tengo idea de lo que sucede por encima de L6.