
Se está gestando un tsunami de identidades, a punto de desbordar los servicios de directorio y las estructuras de autenticación. A principios de año, la consultora McKinsey anunció que su equipo de consultoría, compuesto por 40.000 personas, se había ampliado con 25.000 agentes de IA, y todo ello en tan solo dos años.
La IA agentiva ya está influyendo en las decisiones y las ventas más allá de los límites de las empresas, como demostró de forma impresionante el Black Friday de 2025. Según un informe de Adobe, el tráfico minorista online impulsado por IA ese día generó 22.000 millones de dólares en ingresos, un aumento del 805% respecto al año anterior. Incluso las pequeñas empresas ya han adoptado agentes de IA; Salesforce informa de que una empresa media utiliza 12 de estos agentes, una cifra que se espera que crezca rápidamente en un 60%. Klarna informó de que gestionaba más del 60% de sus interacciones de chat del servicio de asistencia con agentes de IA, dejando solo las consultas más complejas o difíciles para los agentes humanos.
Limitar la autonomía
Cada agente de IA accede a datos específicos del usuario, flujos de trabajo y múltiples aplicaciones, por lo que necesita una identidad única y derechos de acceso claramente definidos. Esto supondrá muchas entradas nuevas para los grandes sistemas de gestión de identidades. Cualquier persona de la empresa responsable de la seguridad, la resiliencia y la gestión de identidades, y que piense en el control de acceso y la seguridad de las contraseñas en días como el World Password Day, debería tener en cuenta a los agentes de IA.
La IA en la sombra también supone un área de crecimiento en la que centrarse, ya que los compañeros de departamentos especializados desarrollan sus propios agentes para acelerar los procesos. Sus agentes de IA interactuarán con herramientas, API, sitios web internos y externos, y sistemas para realizar acciones en su nombre. Los agentes actúan de forma parcial o totalmente autónoma y, cada vez más, sin supervisión humana.
El riesgo: a menudo hemos visto cómo los sistemas autónomos desarrollan capacidades que superan las expectativas de sus desarrolladores. Tenemos poca experiencia con estructuras dinámicas en las que agentes de IA de diversos entornos interactúan entre sí y utilizan estos intercambios para informar sus acciones. ¿Qué pasa si las cosas se vuelven autónomas, o si alguien de fuera interviene deliberadamente y las manipula?
Los sistemas basados en agentes introducen nuevas vulnerabilidades, como la inyección de comandos, el envenenamiento de modelos y la manipulación de datos, en las que los atacantes no solo se centran en el código, sino también en la propia lógica de toma de decisiones. La IA en la sombra agrava el problema, ya que los empleados integran herramientas sin probar en los flujos de trabajo principales, creando brechas de seguridad que los mecanismos de control tradicionales no están diseñados para abordar. También pueden interrumpir involuntariamente los sistemas de producción mientras realizan sus tareas previstas, por ejemplo, revocando credenciales de inicio de sesión o poniendo en cuarentena recursos de producción. Sin las barreras de seguridad adecuadas, existe el riesgo de que estas identidades de IA obtengan un acceso y una autonomía excesivos.
Gestión de ciclos de vida
Por supuesto, los principios básicos de una buena gestión de contraseñas y accesos también se aplican a la IA con agentes. El cifrado robusto, la autenticación multifactorial sólida, la aprobación por parte de varias personas (por ejemplo, la aprobación humana de las acciones de la IA que modifican los sistemas de producción) y la gestión centralizada de identidades son obligatorios, al igual que lo son para la gestión de accesos de cualquier empleado humano.
Pero la tarea con los agentes de IA no termina ahí. Los responsables deben alinear su estrategia de IA con el control, la resiliencia y el buen gobierno. Deben supervisar de cerca las actividades de los agentes. Tratar a los agentes de IA como identidades digitales importantes y concederles solo los derechos de acceso necesarios. Establecer mecanismos para reiniciar o restringir a los agentes si exceden sus límites definidos. Actualizar la protección de datos para cubrir las tareas impulsadas por la IA y asegurarse de que la integridad, las copias de seguridad y la recuperación sean compatibles con la IA. Utilizar la supervisión centralizada de todos los entornos y garantizar una implementación controlada en DevOps, SecOps e ITOps.
La clave está en integrar la gobernanza, la resiliencia y la formación desde el principio. Evitar a toda costa tratar la IA basada en agentes como una automatización «plug-and-play». Las organizaciones que dominen este equilibrio convertirán la IA agentiva en un activo de seguridad fundamental. Las que no lo hagan corren el riesgo de agravar sus vulnerabilidades. Y debido a su naturaleza autónoma, estos agentes, en el peor de los casos, ampliarán enormemente esta brecha si no se controla su ciclo de vida.
Por Mark Molyneux, Field CTO de Commvault