Investigación Antrópica nueva: Medición de la autonomía de los agentes de IA en la práctica. Analizamos millones de interacciones a través de Claude Code y nuestra API para entender cuánta autonomía concede la gente a los agentes, dónde se despliegan y qué riesgos pueden suponer. Leer más:
Ya se están desplegando agentes en contextos que van desde la triaje de correos electrónicos hasta la investigación en ciberseguridad. Comprender este espectro es fundamental para un despliegue seguro, pero sabemos sorprendentemente poco sobre cómo las personas utilizan realmente los agentes en el mundo real.
La mayoría de los turnos de Claude Code son cortos (mediana ~45 segundos). Pero los giros más largos muestran hacia dónde se dirige la autonomía. En tres meses, la duración del turno del percentil 99,9 casi se duplicó, pasando de menos de 25 minutos a más de 45 minutos. Este crecimiento es fluido en los lanzamientos de modelos.
A medida que los usuarios ganan experiencia, su estrategia de supervisión cambia. Los nuevos usuarios aprueban cada acción individualmente. A las 750 sesiones, más del 40% de las sesiones están completamente aprobadas automáticamente.
Pero las interrupciones también aumentan con la experiencia. Los nuevos usuarios interrumpen Claude Code en el 5% de los turnos, frente al 9% de los usuarios más experimentados. Esto sugiere un cambio de aprobar cada acción a delegar e interrumpir cuando sea necesario.
Claude Code también fomenta la supervisión deteniéndose a hacer preguntas. En tareas complejas, Claude Code se detiene para aclarar más del doble de veces que las personas las interrumpen. Entrenar modelos para reconocer la incertidumbre es una propiedad de seguridad importante y poco valorada.
La mayoría de las acciones de agentes en nuestra API son de bajo riesgo. El 73% de las llamadas de herramientas parecen tener a un humano en el bucle y solo el 0,8% son irreversibles. Pero en la frontera, vemos agentes actuando sobre sistemas de seguridad, transacciones financieras y despliegues de producción (aunque algunos pueden ser evaluaciones).
La ingeniería de software representa el ~50% de las llamadas a herramientas agentes en nuestra API, pero vemos un uso emergente en otras industrias. A medida que se amplía la frontera del riesgo y la autonomía, la monitorización post-despliegue se vuelve esencial. Animamos a otros desarrolladores de modelos a ampliar esta investigación.
Una lección central de este trabajo es que la autonomía está co-construida por el modelo, el usuario y el producto. No puede caracterizarse completamente solo con evaluaciones previas al despliegue. Para todos los detalles y nuestras recomendaciones para promotores y responsables políticos, consulta el blog:
204