La IA se ha convertido en el participante más activo en los ataques Web3. En 2025, los atacantes utilizan modelos generativos para automatizar el phishing, manipular agentes inteligentes y escalar exploits sensibles al contexto más rápido de lo que los equipos pueden responder. Esto es lo que su protocolo debe hacer al respecto:
El phishing ya no está hecho a mano. Los LLM ahora pueden simular tonos confiables, imitar mensajes de equipo y generar cebos dirigidos a la billetera con gran éxito. Las tasas de clics de los mensajes creados por IA coinciden con el phishing escrito por humanos. Operan a una escala que los humanos nunca podrían.
Los sitios de clonación tardan menos de 60 segundos. Las interfaces se raspan y regeneran utilizando herramientas de IA. Ventanas emergentes de billetera, indicaciones de transacciones, colores de marca, todo replicado con una precisión cercana a los píxeles. Los usuarios rara vez lo saben hasta que es demasiado tarde. Las credenciales y los fondos fluyen inmediatamente.
Los LLM simulan el comportamiento del contrato, prueban las rutas de ejecución e identifican vulnerabilidades en la lógica de permisos. En lugar de buscar CVE conocidos, los atacantes desarrollan nuevos exploits a partir de código fuente abierto. Estos modelos mejoran con cada interacción.
Los bots impulsados por IA ahora son parte de la infraestructura de protocolos, DAO y flujos de trabajo de usuarios. Pueden ser engañados mediante una inyección rápida, manipulación de la memoria o contaminación intercontextual. Lo que parece una automatización se convierte en una superficie de ataque.
Los equipos de seguridad deben combinar la automatización con la defensa. Este panorama de amenazas no se puede abordar con auditorías estáticas o revisiones manuales lentas.
Desglosamos los vectores emergentes y las estrategias de defensa en nuestro nuevo informe:
1.11K