
La IA agéntica —la nueva generación de modelos capaces de razonar, planificar y actuar de forma autónoma— está redefiniendo la ciberseguridad a un ritmo sin precedentes. Si bien ya impulsa mejoras significativas en la detección de amenazas y en la eficiencia de los centros de operaciones de seguridad (SOC), también amplía la superficie de ataque y plantea nuevos desafíos de gobernanza y resiliencia.
Un punto de inflexión tecnológico
Empresas como OpenAI, Google y Anthropic han desarrollado modelos de razonamiento capaces de analizar contexto, descomponer problemas y ejecutar acciones de manera autónoma. Combinados con marcos emergentes como el Protocolo de Contexto de Modelos (MCP), estos sistemas pueden interactuar directamente con herramientas empresariales como ERP, CRM y lagos de datos.
El resultado: agentes que ejecutan procesos complejos con mínima intervención humana.
Según McKinsey & Company, la IA agéntica es una de las tendencias tecnológicas de más rápido crecimiento, con capacidad para transformar la productividad y la toma de decisiones. Sin embargo, esta evolución también incrementa la exposición al riesgo.
Nuevas amenazas: más rápidas y sofisticadas
Según Pranay Ahlawat, director de Tecnología e IA de Commvault, la IA agéntica está acelerando y sofisticando los ciberataques de distintas maneras:
· Automatización avanzada del phishing y ransomware: los atacantes emplean agentes adaptativos capaces de identificar vulnerabilidades y ajustar estrategias en tiempo real.
· Ataques autónomos documentados: un informe reciente de inteligencia de amenazas de Anthropic reveló el uso de su plataforma Claude Code para desarrollar un sistema autónomo de robo de datos dirigido a 17 organizaciones, incluyendo hospitales y entidades gubernamentales.
· Exposición ampliada en la cadena de suministro: la integración de múltiples API y complementos incrementa los puntos de dependencia y riesgo.
· Manipulación adversaria: los agentes pueden ser vulnerables a inyecciones de prompts, envenenamiento de modelos o manipulación de datos.
· Proliferación de identidades de máquina: cada agente requiere credenciales y permisos propios, aumentando la complejidad de la gobernanza.
A ello se suma el fenómeno de la “IA en la sombra”: un estudio de KPMG señala que el 57% de los empleados oculta su uso de herramientas de IA, lo que genera riesgos operativos y reputacionales.
Cuatro imperativos para la resiliencia en la era de la IA
Para Alhawat, para que las organizaciones puedan adoptar la IA agéntica con seguridad, éstas deben centrarse en:
1. Visibilidad y control: mantener una observabilidad clara de las operaciones de IA, especialmente de los agentes autónomos que actúan en sistemas críticos.
2. Retroceso y contención: crear mecanismos de reversibilidad cuando los agentes de IA cometan errores o excedan el alcance previsto.
3. Protección de datos resiliente: rediseñar las estrategias de copia de seguridad, recuperación y resiliencia para incluir cargas de trabajo y sistemas de decisión impulsados por la IA.
4. Gobernanza y mejora de las habilidades: establecer una responsabilidad clara por las acciones de la IA, alinearse con los marcos (NIST, ISO, MITRE, OWASP) y formar a los empleados para que trabajen eficazmente junto a los agentes.
“La resiliencia de la IA debe ser proactiva, no un complemento” indica Alhawat. “A medida que la IA se integra en la infraestructura, la seguridad debe evolucionar al mismo ritmo, integrando la gobernanza, las pruebas y la recuperación como principios fundamentales”.
“La IA agencial amplificará tanto la defensa como el riesgo. Las organizaciones que inviertan en gobernanza, resiliencia y capacitación convertirán estos agentes en multiplicadores de seguridad. Las que la adopten como simple automatización, aumentarán su exposición”, continúa. “En esta nueva era, la ventaja competitiva no dependerá solo de la tecnología, sino de la capacidad de las empresas para integrarla con control, responsabilidad y visión estratégica”.