
El uso creciente de Inteligencia Artificial generativa en el cibercrimen está comenzando a borrar las “huellas digitales” que tradicionalmente permitían a los analistas atribuir los ciberataques a determinados grupos, según advierten los expertos del equipo Global Research and Analysis Team (GReAT) de Kaspersky. De acuerdo con el “informe Advanced Threat Predictions for 2026”, el uso de modelos de IA para generar código malicioso, correos de phishing y otros contenidos operativos hará cada vez más difícil identificar a los responsables de los ataques, obligando a los analistas a apoyarse en otros indicadores como la infraestructura utilizada, las herramientas empleadas o los patrones de comportamiento de los atacantes.
Sigue leyendo







