
La tradicional “cuesta de enero”, marcada por un aumento de pagos, compras online y solicitudes de financiación, se ha convertido en un escenario especialmente atractivo para los ciberdelincuentes. Sin embargo, lejos de limitarse a campañas estacionales, los expertos advierten de que el fraude financiero se ha profesionalizado y opera de forma constante durante todo el año, con técnicas cada vez más sofisticadas y automatizadas gracias a la inteligencia artificial.
Así lo advierte Trend Micro, compañía líder en ciberseguridad, que señala que los ataques ya no se basan únicamente en correos masivos con errores evidentes, sino en fraudes altamente personalizados, diseñados para engañar tanto a consumidores como, especialmente, a empleados de empresas. “Los ciberdelincuentes han entendido que atacar a las organizaciones es mucho más rentable que hacerlo de forma individual”, explica David Sancho, investigador senior de seguridad de la compañía.
En el ámbito del consumidor, las estafas bancarias clásicas siguen existiendo, pero cada vez resultan menos eficaces debido a los sistemas de verificación y autenticación reforzada de las entidades financieras. Esto ha provocado que los delincuentes desvíen su atención hacia el robo de cuentas de servicios cotidianos como plataformas de reparto, comercio electrónico, redes sociales o correo electrónico. El objetivo no siempre es realizar grandes cargos, sino pequeñas transacciones recurrentes o la venta de credenciales en mercados clandestinos, donde una cuenta con métodos de pago guardados puede tener un alto valor.
“Una cuenta de correo comprometida es especialmente peligrosa, porque permite al atacante tomar el control del resto de servicios asociados y, en la práctica, robar la identidad digital completa de la víctima”, alerta Sancho.
No obstante, el mayor crecimiento se está produciendo en el fraude dirigido a empresas. Entre las técnicas más habituales destacan los correos que incluyen códigos QR maliciosos o enlaces a supuestos documentos en la nube. Al escanear el código o acceder al archivo desde el móvil, el empleado queda fuera de los sistemas de protección habituales y puede acabar introduciendo sus credenciales corporativas en páginas falsas que imitan servicios como Microsoft 365 o redes privadas virtuales (VPN).
A este tipo de ataques se suma el uso de la inteligencia artificial para suplantar identidades mediante audios, vídeos o incluso videoconferencias falsas. “Estamos viendo casos en los que se recrea la voz o la imagen de directivos para ordenar transferencias urgentes al departamento financiero. Ya se han producido fraudes de decenas de millones de euros utilizando este método”, señala el experto de Trend Micro.
La compañía advierte además de una tendencia especialmente preocupante: la automatización de ataques hiperpersonalizados. Gracias a la IA, los delincuentes pueden analizar perfiles públicos en redes sociales o LinkedIn, identificar intereses, roles y responsabilidades, y generar correos y páginas web falsas diseñadas específicamente para cada víctima, todo ello a gran escala y con un esfuerzo mínimo.
“Antes, personalizar un ataque requería tiempo y recursos. Ahora, la inteligencia artificial permite hacerlo de forma automática, rápida y con un nivel de credibilidad muy alto. Esto amplía enormemente el número de personas y empresas expuestas al fraude”, explica David Sancho.
Las consecuencias para las organizaciones van mucho más allá del impacto económico inmediato. A las pérdidas financieras se suman daños reputacionales, pérdida de confianza por parte de clientes y proveedores y, en los casos más graves, interrupciones operativas causadas por ransomware o robo masivo de datos sensibles.
Ante este escenario, Trend Micro subraya la importancia de reforzar las medidas de seguridad, como la autenticación multifactor, la protección de dispositivos móviles y la formación continua de empleados, así como de adoptar soluciones capaces de detectar no solo la apariencia de un mensaje, sino su intención maliciosa. “El reto ya no es identificar si un contenido ha sido generado por inteligencia artificial, sino detectar si alguien intenta manipularnos o engañarnos”, concluye Sancho.