L0: trabalho humano com LLM. passei tempo demais aqui. perdi o foco estamos agora nos agentes (L1). L2 - os orquestradores são os próximos (removendo a necessidade de testes locais, agentes paralelos / garantindo fluxos de trabalho não bloqueantes, manuseio de contexto de vários dias). L2 está a semanas de distância (Tarefas Claude) L3 - é definição de metas/pesquisa/implementação econômica (como faço para implementar este computação). jogador único. meses de distância L4 - como posso polinizar com outros sistemas agentes. isso já é uma realidade porque bons 'modelos de pesquisa', como os encontrados na interface openai/claude, não estão no código claude. ajustes finos etc -- "quero pagar por um sistema que seja melhor do que projetar o meu sistema". Além disso, como posso pagar a um humano para desbloquear meu agente (ele precisa de uma conta da API coinmarketcap e precisa fazer KYC) - até o Q3/Q4 L5 - um nível acima da implementação econômica é o design do sistema (quais são as limitações da minha capacidade de implementar economicamente). isso é claro, 'a lei'. os políticos não vão gostar de fantoches humanos fazendo coisas para agentes. alguns vão. algumas jurisdições permitirão isso t+12m L6 - como é uma fratura fundamental entre pessoas que chegam até L5 e pessoas que querem queimar tudo. isso é basicamente uma ruptura baseada em valores. é provável que esteja enraizada na capacidade dos sistemas de IA de fornecer benefícios a algumas pessoas e não a todas (ou seja, medicina personalizada). L6 será o mais insano e trará religião, o significado do estado, toda a questão t+24m Sem ideia do que acontece acima de L6.