

La IA en ciberseguridad: perspectivas y reflexiones de CISOs
Un análisis en profundidad de experiencias reales, retos y oportunidades
Evaluar nuevas herramientas, tecnologías emergentes y casos de uso innovadores forma parte del ADN de cualquier CISO. En un entorno que cambia constantemente, los CISOs y los equipos de seguridad deben encontrar el equilibrio entre innovación y riesgo, mientras velan por la protección de sus empresas.
Para entender de forma más precisa cómo están experimentando y valorando la inteligencia artificial (IA) en el ámbito de la ciberseguridad, decidimos adoptar un enfoque distinto. En lugar de «promocionar nuestras soluciones de IA», como hacen muchos fabricantes, optamos por preguntar directamente a los CISOs y responsables de IT por sus opiniones, los retos reales a los que se enfrentan y los éxitos concretos que han conseguido mediante el uso de la IA.
Hemos hecho entrevistas en profundidad con tres CISOs de diferentes sectores y regiones: un responsable de seguridad en una empresa tecnológica de 700 empleados con sede en Alemania; un CISO de una gran firma del sector financiero y de cumplimiento normativo en Estados Unidos; y un CISO virtual que presta servicio a varias pymes y startups en Francia.
Además, hemos recopilado impresiones de un panel más amplio de CISOs a nivel global, con el objetivo de ofrecer una visión completa y contextualizada sobre el papel en evolución de la inteligencia artificial en la seguridad de la información.
Este informe recoge sus ideas y experiencias, con el propósito de proporcionar conclusiones prácticas a aquellas empresas que deseen aprovechar la IA de forma eficaz, basándose en la realidad de quienes ya trabajan con estas tecnologías en el día a día.
Uso actual de la IA entre los CISOs
Los CISOs entrevistados describen una adopción diversa de la inteligencia artificial dentro de sus empresas. Aunque algunos apuestan por una integración más generalizada, la mayoría señala que, por el momento, el uso de la IA se limita a funciones no críticas o queda en manos de los propios usuarios finales.
Algunas empresas han comenzado a centralizar la gobernanza, implementando políticas y herramientas internas para recuperar el control del uso de la IA. Otras, en cambio, mantienen restricciones estrictas motivadas por preocupaciones en materia de cumplimiento normativo o consideraciones éticas.
Como señaló un CISO del sector financiero: «Hemos visto un nivel de adopción superior al 75% en nuestra empresa en los últimos dos años». Por su parte, un CISO virtual comentaba: «Hace dos años era barra libre con todos los servicios de IA. Este último año, hemos empezado a implantar más procesos y directrices con modelos de lenguaje internos (LLM)».
La Shadow IT ha sido, y seguirá siendo, una preocupación relevante para los equipos de seguridad. Lejos de reducir estos riesgos, las inquietudes relacionadas con la seguridad de la inteligencia artificial los han amplificado.
Durante las entrevistas con los CISOs, se ha evidenciado que la adopción de IA dentro de las empresas, a menudo fragmentada y variable según cada unidad de negocio, exige un esfuerzo claro de estandarización y gestión del riesgo, en paralelo a la implantación de estas tecnologías. Como ocurre con cualquier nuevo producto o servicio.
Concienciación de los usuarios finales sobre los riesgos de la IA
Se suele afirmar que una empresa es tan segura como el usuario final menos preparado, y los CISOs entrevistados han coincidido unánimemente en subrayar la importancia de reforzar la concienciación de los usuarios sobre los riesgos asociados al uso de la inteligencia artificial.
Aunque algunas empresas han logrado establecer una cultura sólida en torno al cumplimiento normativo y la formación, estas siguen siendo la excepción. Como ha señalado un CISO: «En cuanto a la concienciación sobre los riesgos de la IA, estamos en un 5 sobre 5 porque somos una empresa del sector financiero y de cumplimiento».
Sin embargo, la mayoría de los CISOs reportan niveles de concienciación considerablemente más bajos, situándose habitualmente en 1 o 2 sobre 5 en la escala de riesgo. Muchos expresan su preocupación por el uso de herramientas de IA por parte de empleados que no comprenden del todo sus implicaciones en términos de seguridad o cumplimiento.
Como ha comentado un CISO virtual: «Está avanzando, pero no creo que la gente haya comprendido lo que está en juego, especialmente cuando comparten información de la empresa en una IA pública».
Se requieren esfuerzos educativos específicos y orientados a la práctica para ayudar a los usuarios finales a utilizar la inteligencia artificial de forma segura y responsable. Esta necesidad continuará siendo prioritaria, tanto por la relativa inmadurez de los productos basados en IA como por la velocidad a la que esta tecnología sigue desarrollándose.
Comprensión de los riesgos de la IA por parte del liderazgo
Toda tecnología emergente implica ciertos riesgos, y la inteligencia artificial no es una excepción. El sector ha presenciado cómo actores maliciosos han sabido aprovechar la IA con notable eficacia en ataques dirigidos.
Pero estos no son los únicos riesgos relevantes. Los CISOs reportan una considerable disparidad en el nivel de comprensión que muestran los equipos directivos respecto a los riesgos asociados a la IA. Esta diferencia también ha quedado reflejada en los resultados de nuestra encuesta, que registró la mayor variabilidad de respuestas en comparación con el resto de cuestiones planteadas.
Aunque una ligera mayoría optó por la afirmación «El liderazgo es consciente en cierta medida de los riesgos», muchos otros señalaron un alto nivel de concienciación o, en el extremo opuesto, una falta significativa de comprensión. Esto pone de manifiesto que no existe un punto de partida homogéneo entre las distintas empresas.
En algunos casos, la concienciación está avanzando de forma clara. Como compartía un CISO de una empresa tecnológica: «Gracias a los esfuerzos conjuntos de los equipos Legal y de Seguridad, nuestra Dirección está empezando a comprender los problemas relacionados con la seguridad de la IA».
Aun así, en muchas empresas, la alta dirección sigue centrada principalmente en los beneficios que ofrece la IA, obviando con frecuencia los riesgos asociados. Tal como señalaba un CISO virtual: «La dirección percibe las ganancias de productividad asociadas a la IA, pero no necesariamente ve los riesgos que conlleva. Es responsabilidad del CISO concienciarlos».
Queda patente que existe un panorama desigual entre empresas, donde el grado de implicación del liderazgo influye de forma significativa en la forma en que se adopta y se gobierna la IA. En este contexto, los CISOs asumen habitualmente la responsabilidad de cerrar esa brecha.
Nuevas amenazas impulsadas por IA
Los CISOs están cada vez más enfocados en el uso indebido de la inteligencia artificial como vector emergente de ciberamenazas de cara a los próximos 12 meses. Aunque son varios los riesgos que están cobrando relevancia, los resultados de nuestra encuesta indican que la principal preocupación entre los encuestados es la suplantación de identidad mediante documentos o credenciales generados por IA.
Le siguen de cerca las técnicas de falsificación por clonación de voz y los vídeos deepfake, considerados especialmente peligrosos para la suplantación de identidad y el fraude, con un impacto potencialmente elevado en sectores como el financiero.
También se señalaron otras amenazas relevantes, como los ataques de envenenamiento de datos (en los que entradas maliciosas o accesos no autorizados corrompen los modelos de IA para alterar sus resultados), así como las solicitudes de empleo fraudulentas.
Un CISO de una empresa tecnológica puso el foco en el riesgo específico que suponen los ataques de envenenamiento de modelos, especialmente en entornos donde se desarrollan modelos propios para uso interno: «Lo que más nos preocupa son los ataques de envenenamiento de modelos, ya que ejecutamos nuestros propios modelos internamente».
Un ataque de este tipo, si tiene éxito, podría introducir puertas traseras o fragmentos de código malicioso en la cadena de suministro de software de la empresa, generando un riesgo evidente tanto para la empresa como para sus clientes.
Por su parte, un CISO virtual ha alertado sobre otro problema crítico y persistente: «Como CISO, el riesgo número uno de la IA generativa es la posible filtración de datos sensibles de la empresa». La preocupación se centra en la introducción intencionada de información confidencial en herramientas de IA no autorizadas. Una vez que estos datos abandonan el perímetro de la empresa, se pierde por completo el control sobre ellos.
Los CISOs con los que hablamos coinciden en que, aunque la IA es una herramienta de gran potencial, también amplía de forma significativa la superficie de ataque. A medida que evolucionan las tácticas de los atacantes, las empresas deben adaptar sus estrategias de supervisión, formación y control para gestionar estos nuevos riesgos de forma efectiva.
Uso de la IA dentro de los equipos de seguridad
También ha sido relevante examinar en nuestras entrevistas y encuestas cómo los equipos de seguridad están comenzando a integrar la inteligencia artificial en su operativa diaria.
Los CISOs indican que la adopción de la IA en operaciones de seguridad está en fase inicial, avanzando de forma progresiva, aunque con un enfoque prudente y deliberado. Mientras que algunas empresas ya han implementado IA en flujos de trabajo críticos, la mayoría opta por una aproximación más cautelosa y experimental.
Actualmente, los esfuerzos se centran en probar herramientas para funciones concretas, como la clasificación inicial (triage), el enriquecimiento de información o la categorización de tickets, antes de escalar su uso a otros ámbitos.
En muchos casos, esta precaución responde a requisitos de cumplimiento normativo, a la necesidad de mantener visibilidad y control sobre los procesos, o a las reservas sobre una posible dependencia prematura de tecnologías que aún se consideran inmaduras.
Aun así, algunos CISOs ya están aprovechando el valor demostrado de la inteligencia artificial en áreas específicas. Como ha destacado un CISO del sector financiero: «La IA ha resultado muy útil para las notas de tickets dirigidas al cliente». Las notas generadas mediante IA resultaban claras, concisas y exentas de sesgos o expresiones poco profesionales por parte del personal técnico, lo que ayudaba a mantener la comunicación alineada con los estándares corporativos.
Estos enfoques diversos reflejan una tendencia clara: la IA forma parte de la hoja de ruta, pero para la mayoría de los equipos de seguridad aún se encuentra en una fase de pruebas, bajo supervisión y con un enfoque controlado.
Retos en la adopción de IA en ciberseguridad
Los CISOs y sus equipos se enfrentan a una amplia gama de desafíos a la hora de incorporar la inteligencia artificial en sus estrategias de ciberseguridad. Según los resultados de nuestra encuesta, las preocupaciones están bastante repartidas, aunque una ligera mayoría identificó la incertidumbre en torno a los riesgos de la IA como el principal obstáculo, seguida muy de cerca por cuestiones de cumplimiento, implicaciones legales y requisitos normativos.
Entre los obstáculos más comunes también se destacan:
- La dificultad para justificar presupuestos y demostrar el retorno de la inversión (ROI)
- La integración de las soluciones de IA con las herramientas de seguridad ya existentes
- La escasez de personal cualificado
- La necesidad de obtener el respaldo de la alta dirección
- Y el reto de mantenerse al ritmo del rápido y constante avance de la IA
Un CISO de una empresa tecnológica ha resumido con claridad uno de los retos más relevantes relacionados con el talento: «Seguimos careciendo de habilidades y expertos especializados en IA».
Por su parte, un CISO virtual ha expresado su escepticismo respecto a los beneficios tangibles:«Sigo viendo una falta de retorno de la inversión en las soluciones de IA generativa. Detectar un escaneo de puertos leyendo diez líneas de logs no aporta mucho valor».
Aunque la IA ofrece un potencial considerable, muchas empresas se enfrentan aún a barreras prácticas y estratégicas que dificultan su adopción a gran escala. En definitiva, mientras algunos CISOs han logrado éxitos concretos, otros equipos de seguridad siguen esforzándose por obtener un retorno de inversión real con las soluciones de inteligencia artificial.
Ejemplos de tecnologías de IA implementadas
Otra de las áreas clave abordadas en nuestra encuesta fue cómo las empresas han integrado tecnologías de inteligencia artificial a lo largo del último año. Los CISOs han liderado la adopción de distintas soluciones basadas en IA dentro de sus entornos. Más allá del uso convencional de tecnologías de IA para la detección de amenazas, muchos equipos están explorando aplicaciones innovadoras orientadas a mejorar tanto la eficiencia operativa como la interacción con los usuarios. Entre los casos prácticos compartidos, destacan:
- «Hemos implementado IA en nuestro SOC para la investigación y remediación de falsos positivos».
- «Hemos estado experimentando con un chatbot para nuestros usuarios finales».
- «Gestión del riesgo asociado a la IA generativa directamente en el navegador».
Aunque se trata aún de una fase temprana, resulta alentador observar ejemplos concretos de cómo los equipos de seguridad están pasando de la experimentación a la implementación en producción, utilizando la IA para optimizar la eficiencia, mejorar la experiencia de usuario y reforzar el control del riesgo.
Potencia tus operaciones de seguridad con IA
En Hornetsecurity, estamos redefiniendo el panorama de la ciberseguridad mediante soluciones innovadoras. Así es como lo hacemos:
- Equipa a tu empresa con AI.MY, AI Cyber Assistant, diseñado para reforzar la concienciación de los usuarios y, al mismo tiempo, reducir la carga operativa de los equipos de Seguridad y Soporte.
- Optimiza la gestión de solicitudes rutinarias, permitiendo que tu equipo se centre en lo importante y pueda abordar con eficacia los desafíos de seguridad más críticos.
- Descubre las ventajas de AI.MY como parte del Plan 4 de 365 Total Protection, que incorpora inteligencia artificial avanzada y capacidades de aprendizaje automático para fortalecer tu postura de seguridad.

¿Preparado para transformar tu enfoque de ciberseguridad? ¡Pide tu demo hoy mismo!
Conclusión
A partir de nuestras entrevistas y encuestas con CISOs, se desprende con claridad que la inteligencia artificial está consolidándose como un recurso esencial en el ámbito de la ciberseguridad. Aunque persisten retos en torno a la concienciación sobre riesgos, el cumplimiento normativo y la escasez de talento especializado, la creciente experimentación y los primeros casos de éxito demuestran que el potencial de la IA es tangible y alcanzable.
La mayoría de los equipos de seguridad están adoptando un enfoque sensato, equilibrando la innovación con el control, y sentando así las bases para una integración más amplia y segura de estas tecnologías. Con las herramientas adecuadas y la formación necesaria, la IA permite a los CISOs mejorar la detección de amenazas, automatizar tareas repetitivas y reforzar la postura de seguridad global de sus empresas.
Como fabricante comprometido con el fortalecimiento de los equipos de seguridad a través de tecnologías basadas en IA, en Hornetsecurity vemos un futuro lleno de posibilidades. Junto a nuestros clientes, estamos convirtiendo el entusiasmo por la IA en una ventaja operativa real y escalable, ayudando a las empresas a proteger aquello que más importa en un panorama de amenazas en constante evolución.
Preguntas frecuentes
La IA mejora la detección de amenazas, automatiza tareas rutinarias y optimiza la eficiencia operativa en materia de seguridad. Facilita una gestión más eficaz del riesgo y permite a las empresas responder con rapidez ante amenazas cibernéticas emergentes.
Los CISOs deben afrontar retos como la concienciación sobre los riesgos inherentes a la IA, las exigencias de cumplimiento normativo y la escasez de profesionales cualificados. Además, justificar la inversión y demostrar un retorno claro (ROI) siguen siendo obstáculos clave para integrar soluciones de IA dentro de los marcos de seguridad existentes.
Hay que implementar programas formativos y de sensibilización específicos, orientados a que los usuarios comprendan los riesgos asociados al uso de la IA. Las empresas deben fomentar una cultura de cumplimiento y promover campañas periódicas de concienciación que garanticen un uso seguro y responsable de estas tecnologías.