L0: lavoro umano con LLM. ho trascorso troppo tempo qui. ho perso il filo siamo agli agenti ora (L1). L2 - gli orchestratori sono i prossimi (rimuovendo la necessità di test locali, agenti paralleli / garantendo flussi di lavoro non bloccanti, gestione del contesto su più giorni). L2 è a settimane di distanza (Claude Tasks) L3 - è impostazione degli obiettivi/ricerca / distribuzione economica (come posso distribuire questo calcolo). giocatore singolo. a mesi di distanza L4 - come posso incrociare con altri sistemi agentici. questo è già una cosa perché i buoni 'modelli di ricerca', come quelli trovati nell'interfaccia openai/claude, non sono nel codice di claude. fine tuning ecc. -- "Voglio pagare per un sistema che è migliore nel progettare rispetto al mio sistema". Inoltre, come posso pagare un umano per sbloccare il mio agente (ha bisogno di un account API di coinmarketcap e deve fare KYC) - entro Q3/Q4 L5 - un livello sopra la distribuzione economica è la progettazione del sistema (cosa limita la mia capacità di distribuire economicamente). questo è ovviamente, 'la legge'. ai politici non piacerà che i burattini umani facciano cose per gli agenti. ad alcuni piacerà. alcune giurisdizioni lo permetteranno t+12m L6 - come appare una frattura fondamentale tra le persone che arrivano fino a L5 e le persone che vogliono bruciare tutto. questo è fondamentalmente una rottura basata su valori. è probabile che sia radicata nel fatto che i sistemi AI possano fornire benefici ad alcune persone e non a tutti gli altri (cioè medicina personalizzata). L6 sarà il più folle e porterà religione, il significato dello stato, l'intera questione in gioco t+24m Non ho idea di cosa succeda sopra L6.