

Impacto de la IA en la ciberseguridad
Desde que ChatGPT irrumpió en la conciencia pública a finales de 2022, el impacto de la IA basada en modelos de lenguaje de gran tamaño (LLM) sobre los negocios, la sociedad y la ciberseguridad ha sido, sencillamente, impresionante.
Las primeras predicciones sobre ataques automatizados capaces de superar defensas con facilidad y detectar vulnerabilidades a la velocidad de la luz resultaron exageradas. Pero la influencia de la IA en la ciberseguridad ya es evidente en el sector, y podría decirse que, hasta ahora, ha beneficiado más a los defensores.
Esta situación no durará para siempre. De hecho, el Centro Nacional de Ciberseguridad del Reino Unido (NCSC) publicó recientemente un informe sobre el impacto de la IA en la ciberamenaza de aquí a 2027, donde analiza los riesgos que suponen los ciberataques potenciados por IA para las empresas y las infraestructuras críticas nacionales (CNI).
El informe se centra en el Reino Unido, pero los ciberataques no conocen fronteras. Los consejos los puede aplicar cualquier empresa en Europa o a nivel global.
En este artículo examinaremos:
- las principales áreas donde ya se ha detectado el uso de IA por parte de atacantes,
- cómo diseñar o adaptar tu estrategia de ciberseguridad para afrontar amenazas potenciadas por IA,
- y cómo puede ayudarte Advanced Threat Protection de Hornetsecurity a proteger a tus usuarios.
Comprender el impacto de la IA en las ciberamenazas
Falta de transparencia en el uso delictivo de la IA
Los ciberdelincuentes y los grupos de espionaje patrocinados por Estados no suelen publicar informes sobre cómo han integrado con éxito la IA en sus operaciones. Por ello, los profesionales de la ciberseguridad recurrimos a evidencias indirectas para entender de qué forma y en qué medida la IA está influyendo en sus tácticas.
Compañías como OpenAI, Anthropic y otras han empezado a publicar informes en los últimos años donde detallan cómo ciertos actores maliciosos han intentado utilizar sus herramientas de IA en actividades vinculadas a la ciberseguridad.
Primeros casos de uso: asistente en codificación
Las primeras señales apuntaban al uso de la IA como herramienta de apoyo para la codificación. Tiene sentido, ya que los desarrolladores legítimos fueron de los primeros en adoptar esta tecnología para trabajar con mayor eficiencia. Tanto en el desarrollo de aplicaciones empresariales como en la creación de malware, el papel de la IA ha sido el de asistente en tareas de codificación, no el de una máquina capaz de generar una app de forma autónoma a partir de una simple descripción.
IA para investigación y recopilación de información
También se ha observado el uso de la IA para realizar búsquedas de información técnica o investigar posibles vulnerabilidades en la web. Tareas que, en muchos casos, podría llevar a cabo perfectamente un buscador convencional… sin acabar citado en un informe de OpenAI (te hemos pillado, Irán).

Cybersecurity Report 2025
Un Análisis Exhaustivo del Panorama de Amenazas de Microsoft 365 Basado en el Estudio de 55.6 Mil Millones de Correos Electrónicos.
Campañas de phishing potenciadas por IA
En uno de los vectores de ataque más habituales (los correos de phishing y mensajes en plataformas como Teams o Slack) los modelos de lenguaje de gran tamaño (LLM) se emplean para:
- redactar mensajes con una gramática impecable,
- crear cebos mucho más convincentes desde el punto de vista psicológico,
- y traducir estos ataques a idiomas donde los usuarios están menos acostumbrados a recibir intentos de phishing (Japón es un buen ejemplo).
Estafas impulsadas por IA desde Corea del Norte
Uno de los hallazgos más llamativos del último informe de OpenAI reveló una estafa norcoreana dirigida inicialmente a empresas estadounidenses que contratan desarrolladores o técnicos en remoto. Los atacantes utilizan «granjas de portátiles» a las que acceden de forma remota para simular que trabajan desde el país o la región adecuados. El objetivo de esta estrategia es triple:
- Primero, los desarrolladores generan trabajo legítimo y cobran sueldos, que luego son canalizados hacia el régimen.
- Segundo, al tratarse de perfiles técnicos, suelen tener acceso a sistemas o información, lo que puede aprovecharse para robar propiedad intelectual o, en el caso de empresas de criptomonedas, directamente fondos.
- Y por último, si se detecta el fraude, siempre cabe la posibilidad de desplegar un ataque de ransomware clásico como vía adicional de monetización.
Las autoridades estadounidenses han intensificado sus esfuerzos para frenar estas operaciones, empujando a Corea del Norte a poner el foco en Europa. Sin embargo, el informe de OpenAI ha revelado algo nuevo, y es que los atacantes norcoreanos han automatizado todo el flujo de trabajo de la estafa con falsos profesionales de IT.
Automatización de solicitudes de empleo fraudulentas
Los atacantes están utilizando IA para generar de forma automática currículos adaptados a las descripciones de los puestos, incluyendo historiales laborales creíbles, referencias y formación académica. Además, la IA se emplea para:
- hacer seguimiento y gestionar múltiples solicitudes de empleo,
- completar tareas asociadas a los procesos de selección, como responder a preguntas de entrevistas,
- y resolver pruebas técnicas, incluidas las de programación.
No es que estas actividades fueran imposibles sin IA, pero la automatización permite realizarlas de forma mucho más eficiente y a gran escala, una muestra clara del impacto de la inteligencia artificial en el ámbito de la ciberseguridad.
Identidades generadas por IA
El informe de Anthropic (creadores del modelo Claude) analizó intentos de automatizar el “influence as a service”, generando publicaciones en redes sociales y respuestas a mensajes de otros usuarios. Estas identidades creadas por IA compartían posturas políticas, y se apoyaban en imágenes generadas con IA.
En teoría, este enfoque parecía eficaz, pero en la práctica tuvo un impacto limitado.
El auge de la IA interna
Debemos tener en cuenta que la ventana de visibilidad sobre el uso de herramientas de IA públicas en estos contextos se está cerrando, en parte por la aparición de modelos potentes y abiertos (como los de DeepSeek y otras compañías) que igualan el rendimiento de los modelos más avanzados de última generación. Todo apunta a que muchas amenazas basadas en IA que veremos en el futuro se construirán sobre modelos internos, totalmente opacos para los defensores.
Mirando al futuro: la IA solo será más peligrosa
Una frase que repiten a menudo los entusiastas de la IA es: «esta es la peor versión de la IA que veremos». Es decir, la tecnología no hará más que mejorar.
Eso implica que las operaciones de influencia que hoy fracasan podrían convertirse en interferencias eficaces en procesos democráticos en un futuro cercano. Y los ataques que ahora solo identifican vulnerabilidades menores podrían evolucionar hacia verdaderas fábricas automatizadas de zero-days.
Principales conclusiones del informe del NCSC
La última evaluación del NCSC parte de un análisis anterior publicado a principios de 2024, pero amplía el horizonte temporal hasta 2027. El informe es accesible y destaca los siguientes puntos clave:
Impactos esperados de la IA en la ciberseguridad:
- La IA seguirá haciendo que ciertas fases de los ciberataques sean más eficaces, lo que provocará un aumento en la frecuencia de los mismos.
- Se abrirá una brecha cada vez mayor entre los sistemas que se mantengan actualizados y cuenten con defensas basadas en IA integradas, y aquellos que no lo hagan, quedando estos últimos cada vez más expuestos.
- Salvo que se apliquen medidas de mitigación importantes, esto podría traducirse en una mayor vulnerabilidad de los sistemas críticos frente a actores de amenazas avanzadas de aquí a 2027. Mantenerse al ritmo de los avances en IA de vanguardia es esencial para contar con defensas.
- La proliferación de herramientas cibernéticas potenciadas por IA ampliará el número de actores, tanto estatales como no estatales, con acceso a capacidades de intrusión más avanzadas.
- El uso de sistemas de IA en todos los ámbitos de la sociedad aumentará la superficie de ataque disponible para que los adversarios la exploten.
- Una defensa cibernética débil dará oportunidades para que los atacantes que usen IA comprometan con éxito redes, sistemas y empresas.
Papel de los actores estatales y criminales
El informe anticipa que los primeros en desarrollar y utilizar herramientas de intrusión basadas en IA serán los Estados, seguidos por grupos criminales organizados, replicando así el patrón observado con tecnologías anteriores a lo largo de las últimas décadas.
Investigación de vulnerabilidades y desarrollo de exploits
Una de las áreas abordadas es la investigación de vulnerabilidades y el desarrollo de exploits (VRED). Ya se han observado algunos casos en los que herramientas de IA basadas en modelos de lenguaje (LLM) han sido capaces de detectar por sí solas vulnerabilidades «simples» en el código.
Todavía es necesaria la intervención humana
El NCSC no prevé que los ataques estén totalmente automatizados con IA para 2027; los actores humanos seguirán teniendo un papel clave. Pero es probable que buena parte de las fases del ataque sí se automaticen, aumentando la eficiencia y reduciendo los tiempos de ejecución.
Estrategias de ciberresiliencia ante amenazas de IA
La higiene cibernética básica sigue siendo esencial. Todas las empresas deben continuar aplicando buenas prácticas para protegerse tanto del impacto de la IA en la ciberseguridad como de los ciberataques tradicionales.
Reforzar los sistemas críticos
- Mantén el software siempre actualizado, supervisa activamente las vulnerabilidades y prioriza la protección de los sistemas críticos o aquellos que gestionen datos sensibles.
Aplicar autenticación fuerte
- Implanta mecanismos de autenticación multifactor resistentes al phishing (como Windows Hello for Business, llaves de seguridad FIDO o passkeys).
- No olvides supervisar las identidades no humanas o de máquina que operan en tu infraestructura. Aplica políticas de seguridad a esas autenticaciones.
Asegurar los canales de comunicación
- Utiliza una solución de confianza para garantizar la higiene del correo electrónico, de manera que los mensajes de phishing no lleguen a las bandejas de entrada de tus usuarios. El phishing sigue siendo, con diferencia, el vector de ataque inicial más frecuente.
- Establece políticas estrictas para el intercambio de documentos y la colaboración, tanto dentro de la organización como con terceros.
Adoptar un enfoque de Zero Trust
- Aplica un modelo de Zero Trust para fortalecer la resiliencia cibernética: verifica explícitamente cada conexión, limita el acceso al mínimo necesario y opera siempre bajo la premisa de que puede haberse producido una brecha. Este punto es crucial. Implica adaptar los sistemas de supervisión y alerta para detectar intrusiones desde el primer momento, permitiendo actuar y mitigar los daños en fases tempranas del ataque.
Gestión de riesgos de terceros y de la cadena de suministro
- Supervisa a tus proveedores y su cadena de suministro: aunque tú lo estés haciendo bien, podrías verte comprometido a través de una empresa externa.
Fomentar la resiliencia humana
- Forma a tus empleados en amenazas relacionadas con la IA con una herramienta que requiera poco mantenimiento administrativo, basada en sesiones breves y periódicas. Así fortalecerás tu «cortafuegos humano» y mejorarás su capacidad para detectar intentos de ingeniería social.
Garantizar la protección y recuperación de datos
- Asegúrate de contar con copias de seguridad verificadas de todos los datos corporativos relevantes, almacenadas en sistemas inmutables que impidan su modificación o eliminación por parte de atacantes. Esto es clave para evitar que un ataque de ransomware te obligue a pagar por la recuperación de tus datos.
- Pon a prueba y ensaya tus planes de respuesta ante incidentes para que todo el personal (en todos los niveles de la empresa) sepa cómo actuar cuando un ataque inevitable consiga superar tus defensas.
Prevenir la fuga de datos
- Utiliza herramientas como AI Recipient Validation para evitar que los usuarios envíen información sensible a destinatarios incorrectos.
Ve un paso por delante frente a las ciberamenazas potenciadas por IA con la ayuda de ATP
¿Está tu empresa preparada para afrontar el panorama cambiante de las ciberamenazas potenciadas con la IA? No dejes tu seguridad en manos del azar. Aplica estrategias avanzadas como Advanced Threat Protection de Hornetsecurity y adopta un enfoque proactivo de gestión del riesgo para combatir eficazmente los ataques impulsados por IA.

Ponte en contacto on nosotros y descubre cómo reforzar tus defensas y proteger tus activos más valiosos.
Conclusión
Aún estamos a las puertas de ver el verdadero impacto de la IA en la ciberseguridad y, como advierte el NCSC, si no eres consciente de los riesgos ni adoptas medidas para mitigarlos, es muy probable que tus defensas resulten insuficientes.
Advanced Threat Protection de Hornetsecurity es una solución de defensa basada en IA y aprendizaje automático que detecta amenazas que otras herramientas pasan por alto. Es un componente básico para proteger a tus usuarios frente a las amenazas tradicionales como frente a aquellas impulsadas por inteligencia artificial.
Preguntas frecuentes (FAQ)
La IA está mejorando la eficiencia de los ataques, permitiendo a los ciberdelincuentes automatizar tareas, perfeccionar las campañas de phishing y explotar vulnerabilidades a mayor velocidad.
Adoptar buenas prácticas de higiene cibernética, implementar autenticación multifactor resistente al phishing, aplicar el enfoque de Zero Trust y formar a los usuarios para que identifiquen amenazas hechas con la IA de forma proactiva.
Aunque la IA permitirá automatizar muchos procesos, la intervención humana seguirá siendo necesaria, especialmente en la planificación estratégica y la ejecución de ataques complejos. Advanced Threat Protection de Hornetsecurity, basada en IA y aprendizaje automático, es una herramienta eficaz que detecta amenazas que otras soluciones no identifican. Protege a tus usuarios frente a riesgos tanto tradicionales como emergentes impulsados por IA.