La IA agéntica abre una nueva era en ciberseguridad

Holographic global map with digital agents defending against cyber attacks

La evolución de la inteligencia artificial hacia modelos agénticos marcará uno de los principales puntos de inflexión en la ciberseguridad en los próximos años. A diferencia de los sistemas actuales, estos agentes no solo analizan información, sino que son capaces de ejecutar tareas de forma autónoma, tomar decisiones encadenadas y actuar en función del contexto, introduciendo así un cambio profundo en la forma en la que las organizaciones abordan la protección de sus sistemas.

Este avance tendrá un impacto directo en el modelo de seguridad corporativo. Por un lado, permitirá mejorar la eficiencia operativa, automatizar procesos de detección y respuesta, y reforzar la capacidad para operar la ciberseguridad de forma continua, en un contexto donde el 70% de las empresas ya sitúa la respuesta ante incidentes como una prioridad estratégica.

Nuevos riesgos, ante su uso también en ciberataques

Sin embargo, esta misma capacidad introduce un nuevo nivel de riesgo. La inteligencia artificial se consolida como un arma de doble filo: los ciberdelincuentes están empezando a utilizar los agentes para automatizar fases completas del ciclo de ataque, desde la recopilación de información hasta la explotación de vulnerabilidades o el movimiento lateral dentro de las redes.

Según el II Barómetro de Ciberseguridad en la Mediana Empresa, de Cylum, unidad de negocio de Factum, el factor humano sigue siendo el principal vector de ataque (80%). En este escenario, la IA agéntica amplifica este riesgo mediante campañas personalizadas y difíciles de detectar. El uso de modelos avanzados permite generar ataques de phishing, vishing o fraude corporativo (BEC) muy realistas, reduciendo espectacularmente el esfuerzo necesario para escalar este tipo de operaciones.

A ello se suma el auge de herramientas diseñadas específicamente para usos maliciosos, como modelos de lenguaje orientados a la generación de contenido fraudulento o malware, que están disminuyendo las barreras técnicas para los ciberdelincuentes y acelerando la sofisticación de las amenazas.

En paralelo, la adopción de agentes de IA en entornos corporativos introduce nuevas superficies de exposición. Estos sistemas, al interactuar con múltiples servicios, datos y procesos, amplían el perímetro de seguridad y obligan a reforzar el control sobre accesos, identidades y flujos de información, consolidando la identidad como uno de los ejes clave de protección.

A este contexto hay que añadir el impacto regulatorio. La entrada en vigor del Reglamento Europeo de Inteligencia Artificial (AI Act) establecerá nuevas obligaciones para las organizaciones, especialmente en aquellos sistemas considerados de alto riesgo, lo que exigirá no solo proteger la tecnología, sino también garantizar su uso seguro, gobernado y auditable.

Para Factum, como expresa su director de Operaciones, David López “las organizaciones que sean capaces de integrar las capacidades de la IA agéntica en su modelo de seguridad, combinando automatización, gobierno y supervisión humana, estarán mejor preparadas para operar en un entorno donde la velocidad, la escala y la complejidad de los ataques seguirán creciendo de forma exponencial”, apunta David López, director de operaciones de Factum.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.