Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
L0: trabajo humano con LLM. pasé demasiado tiempo aquí. perdí el hilo
ahora estamos en agentes (L1). L2 - los orquestadores son los siguientes (eliminando la necesidad de pruebas locales, agentes paralelos / asegurando flujos de trabajo no bloqueantes, manejo de contexto de varios días). L2 está a semanas de distancia (Tareas de Claude)
L3 - es establecimiento de objetivos / investigación / implementación económica (¿cómo implemento este cómputo?). jugador único. a meses de distancia
L4 - ¿cómo puedo polinizar con otros sistemas agentes? esto ya es una realidad porque los buenos 'modelos de investigación', como los que se encuentran en la interfaz de openai/claude, no están en el código de claude. ajustes finos, etc. -- "quiero pagar por un sistema que sea mejor que diseñar que mi sistema". Además, ¿cómo pago a un humano para desbloquear mi agente (necesita una cuenta de API de coinmarketcap y debe hacer KYC) - para el Q3/Q4
L5 - un nivel por encima de la implementación económica es el diseño del sistema (¿qué limita mi capacidad para implementar económicamente?). esto es, por supuesto, 'la ley'. a los políticos no les gustará que los títeres humanos hagan cosas para los agentes. a algunos sí. algunas jurisdicciones lo permitirán
t+12m
L6 - ¿cómo se ve una fractura fundamental entre las personas que llegan hasta L5 y las personas que quieren quemarlo todo? esto es básicamente una ruptura basada en valores. probablemente esté arraigado en que los sistemas de IA pueden proporcionar beneficios a algunas personas y no a todas las demás (es decir, medicina personalizada). L6 será lo más loco y traerá religión, el significado del estado, todo eso
t+24m
No tengo idea de lo que sucede por encima de L6.
Parte superior
Clasificación
Favoritos
