Recientes investigaciones conducidas por Anthropic y la organización MATS han demostrado que agentes de inteligencia artificial son capaces de desarrollar exploits de contratos inteligentes de forma autónoma y rentable. El reporte, liberado este lunes por el equipo rojo de la compañía, confirma que modelos comerciales avanzados como Claude Opus 4.5 y GPT-5 lograron identificar vulnerabilidades críticas tras analizar datos posteriores a marzo de 2025.
Durante las pruebas controladas, los modelos de IA generaron ataques exitosos valorados colectivamente en 4.6 millones de dólares, utilizando únicamente información disponible hasta su última actualización de entrenamiento. Los investigadores aplicaron estos sistemas sobre una base de 2,849 contratos recientemente desplegados y considerados seguros, donde tanto Sonnet 4.5 como GPT-5 descubrieron dos vulnerabilidades de día cero no detectadas previamente. Lo más alarmante para el sector es que el costo computacional para hallar estos fallos fue de apenas 3,476 dólares, haciendo que el ataque fuera financieramente rentable para los agentes.
¿Estamos ante el fin de la seguridad tradicional en la era de la IA?
Para validar estos hallazgos, el equipo desarrolló el benchmark SCONE, que recopila 405 contratos reales vulnerados entre 2020 y 2025. Al someter estos códigos a diez modelos diferentes, la inteligencia artificial logró replicar ataques en 207 de ellos, simulando una pérdida total de 550.1 millones de dólares en activos. Este hito técnico demuestra que la barrera de entrada para ejecutar ciberataques complejos en la blockchain se está reduciendo drásticamente, ya que los costos de generación de tokens para estos fines han caído un 70.2% en las últimas generaciones de modelos.
La capacidad de estos agentes para actuar de manera autónoma sugiere un cambio de paradigma en la seguridad digital, donde la velocidad de ataque superará pronto a los métodos de defensa manuales. El estudio subraya que, en solo un año, la tasa de éxito de la IA para explotar vulnerabilidades saltó del 2% al 55.88%, un crecimiento exponencial que amenaza la integridad de los protocolos financieros. Esto implica que los desarrolladores tendrán ventanas de tiempo cada vez más breves para parchar errores antes de que sean detectados y explotados masivamente por sistemas automatizados de bajo costo.
A medida que los costos operativos descienden y las capacidades cognitivas de los modelos aumentan, la industria deberá adoptar defensas basadas en IA para contrarrestar esta nueva amenaza. Los expertos anticipan que la ciberseguridad ofensiva y defensiva entrará en una carrera armamentista algorítmica, obligando a una reestructuración completa de las auditorías de código actuales. Solo aquellos protocolos que integren vigilancia automatizada en tiempo real podrán resistir la próxima ola de ataques sintéticos, redefiniendo los estándares de protección para el ecosistema digital global.
