La IA agentiva permite a un solo ciberdelincuente crear malware avanzado en días, según Check Point Software

Multi-armed glowing AI agent and digital monsters with text: MALWARE ADVANCED AI AGENT.

Check Point® Software Technologies Ltd., pionero y líder global en soluciones de ciberseguridad, ha destacado que la llegada de la era agentiva está transformando estructuralmente el panorama de amenazas. Ahora la IA no solo asiste, sino que ejecuta tareas complejas de forma autónoma. Esto está redefiniendo tanto el desarrollo de malware como las operaciones ofensivas.

Según los investigadores de Check Point Research, entre enero y febrero de 2026, se ha producido un punto de inflexión en el uso de la inteligencia artificial por parte de los ciberdelincuentes. Lo que hasta hace poco era experimental ha alcanzado un nivel de madurez operativa que permite a actores individuales desarrollar herramientas avanzadas que anteriormente requerían equipos completos y meses de trabajo. En este nuevo escenario, la IA no solo acelera procesos, sino que reduce drásticamente las barreras de entrada al cibercrimen.

Uno de los ejemplos más representativos de esta evolución es VoidLink, un framework de malware para Linux nativo en la nube descubierto por Check Point Research que, por su nivel de sofisticación (más de 30 módulos de post-explotación, capacidades avanzadas en entornos cloud y uso de rootkits), hacía pensar en el trabajo de un equipo durante meses. Sin embargo, el análisis mostró que un único desarrollador lo creó con un entorno de desarrollo impulsado por IA. A través de un enfoque estructurado basado en especificaciones, este desarrollador generó más de 88.000 líneas de código en menos de una semana, un proceso que en condiciones normales requeriría cerca de 30 semanas. Además, los investigadores subrayan que este tipo de desarrollo no deja huellas evidentes del uso de IA, lo que complica enormemente su detección y atribución.

Aunque la mayoría de los ciberdelincuentes todavía utiliza la inteligencia artificial de forma limitada, principalmente a través de instrucciones poco estructuradas, el informe advierte que esta situación evolucionará rápidamente. La diferencia entre estos actores y aquellos que combinan experiencia técnica con metodologías avanzadas es significativa, pero tenderá a reducirse a medida que estas prácticas se popularicen. De hecho, los actores más sofisticados ya operan con mayor discreción, lo que sugiere que el alcance real de este cambio podría estar siendo subestimado.

En paralelo, los intentos de utilizar modelos de IA autoalojados para evitar restricciones siguen siendo limitados por barreras técnicas y económicas. A pesar del interés creciente, los altos costes de infraestructura, los problemas de precisión y las limitaciones de estos modelos hacen que, por ahora, las soluciones comerciales continúen siendo más eficaces para los atacantes, incluso con las restricciones existentes.

El informe también ha destacado una evolución en las técnicas para evadir controles. Los tradicionales métodos de “jailbreak” basados en prompts están perdiendo efectividad a medida que las plataformas refuerzan sus mecanismos de seguridad. En su lugar, comienza a emerger un enfoque más sofisticado basado en el abuso de arquitecturas agentic, en el que los atacantes manipulan la configuración interna de los entornos de desarrollo para alterar el comportamiento de los agentes de IA. Este cambio supone un salto cualitativo, ya que no se trata de engañar al modelo, sino de explotar su lógica operativa.

Más allá del desarrollo de malware, la inteligencia artificial empieza a integrarse directamente en las operaciones ofensivas. Herramientas basadas en agentes permiten automatizar tareas complejas como el análisis de vulnerabilidades o la generación de exploits, y aunque muchas de estas soluciones tienen un origen legítimo, el interés detectado en foros clandestinos indica que su adopción en el ámbito criminal podría acelerarse en el corto plazo.

En paralelo, la rápida adopción de la inteligencia artificial en el entorno empresarial está generando una nueva y creciente superficie de riesgo. El análisis de uso de herramientas de IA generativa en organizaciones revela que:

  • 1 de cada 31 interacciones con IA implica riesgo de exposición de datos.
  • El 90% de las organizaciones ha registrado actividad de alto riesgo.
  • El 16% de los prompts contiene información potencialmente sensible.
  • Los empleados utilizan de media 10 herramientas de IA diferentes.

A medida que el volumen de uso continúa creciendo, también lo hace el riesgo, lo que hace imprescindible reforzar la visibilidad, la gobernanza y los mecanismos de control para evitar filtraciones y usos indebidos.

En este contexto, Check Point Software concluye que la participación de la inteligencia artificial debe considerarse ya un elemento estándar en el desarrollo de amenazas, incluso cuando no sea visible. La convergencia entre herramientas autónomas, frameworks ofensivos de código abierto y la reducción de barreras de acceso seguirá acelerando la evolución del cibercrimen en los próximos meses.

Para hacer frente a este escenario, la compañía recomienda a las empresas adoptar un enfoque proactivo basado en inteligencia de amenazas continua, adaptación constante de las estrategias de defensa y la implementación de controles de seguridad específicamente diseñados para entornos impulsados por IA. Solo aquellas compañías que integren estos principios estarán en condiciones de anticiparse a un panorama de amenazas cada vez más dinámico y sofisticado.

Deja un comentario

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.