

L’IA en cybersécurité : perspective et réflexions des RSSI
UN REGARD DE PRÈS SUR LES EXPÉRIENCES RÉELLES, LES DÉFIS ET LES OPPORTUNITÉS
L’évaluation de nouveaux outils, de technologies émergentes et de cas d’usage innovants fait partie intégrante du rôle RSSI. Toujours en train de jongler entre innovation et gestion des risques, les RSSI et leurs équipes de sécurité doivent naviguer dans un paysage en constante évolution tout en protégeant leur organisation.
Pour mieux comprendre comment les RSSI et les décideurs ITvivent et perçoivent réellement l’intelligence artificielle (IA) en cybersécurité, nous avons décidé d’inverser les rôles. Plutôt que de « promouvoir nos solutions IA » comme le font de nombreux fournisseurs, nous avons directement demandé aux RSSI de partager leurs réflexions honnêtes, leurs défis concrets et leurs réussites tangibles avec l’IA.
Nous avons réalisé des entrevues approfondies avec trois RSSI provenant de secteurs et de régions variés : un responsable de la sécurité dans une entreprise technologique de 700 employés en Allemagne ; un RSSI d’une grande firme spécialisée en finance et en conformité aux États-Unis ; et un RSSI virtuel qui dessert plusieurs PME et startups en France.
De plus, nous avons recueilli des commentaires d’un panel élargi de RSSI à l’échelle mondiale afin d’offrir une perspective complète et internationale sur le rôle en pleine évolution de l’IA dans la sécurité de l’information.
Ce rapport résume leurs réflexions afin d’offrir des pistes concrètes aux organisations souhaitant tirer parti de l’IA de manière efficace, ancrée dans la réalité quotidienne de ceux et celle qui œuvrant sur le terrain.
UTILISATION ACTUELLE DE L’IA PARMI LE RSSI
Les RSSI interrogés rapportent une grande variété d’approches quant à l’adoption de l’IA au sein de leur organisation. Bien que certains préconisent une intégration large, la majorité indique que l’IA est actuellement limitée à des tâches non critiques ou que son utilisation est laissée à la discrétion des utilisateurs finaux.
Certaines organisations commencent à centraliser la gouvernance, en introduisant des politiques et des outils internes pour reprendre le contrôle, tandis que d’autres maintiennent des restrictions strictes pour des raisons de conformité ou d’éthique.
Comme l’a souligné un RSSI d’une institution financière : « Nous observons un taux d’adoption de plus de 75 % au sein de notre entreprise au cours des deux dernières années. » À l’inverse, un RSSI virtuel a partagé : « Il y a deux ans, c’était “open-bar” sur tous les services d’IA. Cette dernière année, nous avons commencé à instaurer davantage de processus et directives, ainsi que des modèles de langage internes (LLM). »
L’informatique fantôme (Shadow IT) a été et continuera d’être une grande source de préoccupations pour les équipes de sécurité. Les préoccupations liées à la sécurité de l’IA, si possible, ont encore amplifié les dangers liés à l’informatique fantôme.
Dans les discussions avec les RSSI interrogés, la nature évolutive et souvent fragmentée de l’adoption de l’IA dans les différentes unités d’affaires souligne la nécessité de standardiser et de gérer les risques parallèlement à l’intégration de l’IA. Comme pour tout nouveau produit ou service.
SENSIBILISATION DES UTILISATEURS FINAUX AUX RISQUES LIÉS À L’IA
On dit souvent qu’une entreprise n’est sécurisée que dans la mesure où son utilisateur final le moins préparé l’est aussi, et les RSSI sondés ou interviewés ont unanimement souligné l’importance d’améliorer la sensibilisation des utilisateurs finaux aux risques liés à l’IA.
Bien que certaines organisations aient déjà développé une forte culture axée sur la conformité et la formation, celles-ci demeurent l’exception plutôt que la norme. Comme l’a expliqué un RSSI, « En matière de sensibilisation aux risques liés à l’IA, nous sommes à 5 sur 5. Parce que nous sommes une entreprise de conformité et de finance. »
Cependant, la plupart des RSSI rapportent des niveaux de sensibilisation beaucoup plus fiables, généralement de 1 ou 2 sur 5 sur l’échelle des risques. Plusieurs expriment des inquiétudes quant au fait que des employés utilisent des outils d’IA sans bien comprendre les implications en matière de sécurité ou de conformité.
Comme l’a mentionné un RSSI virtuel, « Ça progresse, mais je ne pense pas que les gens aient compris les enjeux, surtout lorsqu’ils partagent des informations de l’entreprise dans une IA publique. »
Des efforts de formation ciblés et pratiques sont nécessaires pour aider les utilisateurs finaux à adopter l’IA de façon responsable et sécuritaire. Ce besoin demeure essentiel, notamment en raison de la relative jeunesse des produits intégrant l’IA et de la vitesse à laquelle cette technologie évolue.
COMPRÉHENSION DES RISQUES LIÉS À L’IA PAR LA DIRECTION
Toutes les nouvelles technologies comportent des risques, et l’IA ne fait pas exception. L’industrie a déjà observé des acteurs malveillants tirer parti de l’IA de manière efficace lors d’attaques ciblées.
Cependant, ce ne sont pas les seuls risques évidents. Les RSSI rapportent une grande disparité quant à la compréhension qu’a la haute direction des risques liés à l’IA. Cela a d’ailleurs été reflété dans nos résultats de sondage, qui ont montré la plus grande diversité de réponses parmi toutes les questions posées.
Bien qu’une faible majorité ait choisi « La direction est quelque peu consciente des risques », plusieurs autres ont indiqué soit une forte conscience, soit des lacunes importantes. Cela confirme qu’il n’existe pas de norme uniforme d’un organisme à l’autre.
Dans certains cas, la sensibilisation progresse clairement. Comme l’a partagé un RSSI d’une entreprise technologique, « Grâce aux efforts conjoints des équipes juridiques et de sécurité, notre direction comme à comprendre les enjeux liés à la sécurité de l’IA. »
Mais dans de nombreuses organisations, la direction reste principalement concentrée sur les avantages de l’IA, en négligeant souvent les risques. Comme l’a souligné un RSSI virtuel, « La direction voit les gains de productivité liés à l’IA, mais ne perçoit pas nécessairement les risques associés. C’est au RSSI de les sensibiliser. »
Il est donc clair que le paysage est inégal d’une organisation à l’autre, le niveau d’engagement de la direction peut fortement influencer la gouvernance et l’adoption de l’IA, et les RSSI portent souvent la responsabilité de combler cet écart.
NOUVELLES MENACES ALIMENTÉES PAR L’IA
Les RSSI se concentrent de plus en plus sur l’utilisation malveillante de l’IA comme source de nouvelles cybermenaces pour les 12 prochains mois. Bien que plusieurs risques retiennent l’attention, notre sondage a révélé que la fraude à l’identité synthétique, utilisant des documents ou des justificatifs générés par IA-constitue la principale préoccupation des répondants.
Viennent ensuite les faux créées par clonage vocal et les « deepfakes » vidéo, perçu comme des outils à haut risque pour l’usurpation d’identité et la fraude, notamment dans le secteur financier.
Parmi les autres menaces soulevées, on note aussi les attaques par empoissonnement de données (où des entrées adverses ou des accès malveillants corrompent les modèles d’IA afin d’influencer leurs résultats) et les candidatures frauduleuses à des emplois.
Un RSSI d’une entreprise technologique a souligné le risque particulier lié à l’empoisonnement de modèles, notamment dans les environnements où le code est développé en interne : « Ce qui nous inquiète le plus, ce sont les attaques d’empoissonnement de modèles, car nous exécutons nos propres modèles à l’interne. »
Par exemple, une attaque d’empoisonnement réussie pourrait potentiellement introduire des portes pourrait potentiellement introduire des portes dérobées ou des fragments de code malveillant dans la chaine d’approvisionnement logicielle d’une organisation. Cela crée un risque évident tant pour l’entreprise que pour ses clients.
Dans un autre cas, un RSSI virtuel a également averti d’un autre enjeu récurrent : « En tant que RSSI, le risque numéro un lié à l’IA générative est la fuite potentielle de données sensibles de l’entreprise. »
Il faisait référence au fait que des données confidentielles de l’entreprise peuvent être saisies volontairement dans des outils d’IA sans autorisation. Une fois ces données sorties de l’organisation, aucun contrôle n’est plus possible.
Le RSSI que nous avons consulté souligne qu’au-delà d’être un outil puissant, l’IA représente également une surface d’attaque en constante expansion. À mesure que les cybercriminels s’adaptent, les stratégies organisationnelles doivent elles aussi évoluer, notamment en matière de surveillance, de formation et de contrôle.
UTILISATION DE L’AI AU SEIN DES ÉQUIPES DE SÉCURITÉ
Un autre oint d’intérêt soulevé lors de nos entrevues et sondages concerne la façon dont l’IA est utilisée par les équipes de sécurité.
Les RSSI rapportent que l’IA fait graduellement son entrée dans les opérations de sécurité des entreprises, mais son adoption reste mesurée et réfléchie. Bien que quelques organisations aient déjà intégré l’IA dans des flux de travail critiques, la majorité adopte une approche prudente et exploratoire.
Elles se concentrent d’abord sur des tests d’outils pour des taches spécifiques, comme le tirage, l’enrichissement ou la classification des billets, avant d’envisager une adoption plus large.
Dans de nombreux cas, cette prudence est motivée par des exigences de conformité, le besoin de transparence et de contrôle, ou encore des inquiétudes quant à une dépendance prématurée envers des technologies encore immatures.
Certains RSSI tirent toutefois déjà parti de la valeur prouvée dans d’autres domaines, comme l’a partagé ce RSSI du secteur financier : « L’IA s’est révélée très utile pour les notes de billets destinées aux clients. » Les notes générées par l’IA étaient claires, concises, et exemptes de tout biais ou formulation potentiellement non professionnelle de la part des techniciens, assurant ainsi la conformité. Aux standards de l’entreprise.
Les approches variées démontrent une tendance claire : l’IA figure à la feuille de route, mai pour la plupart des équipes de sécurité, elle est encore en phase de test et sous supervision.
DÉFIS LIÉS À L’ADOPTION DE L’IA EN CYBERSÉCURITÉ
Les RSSI et les équipes de sécurité font face à un large éventail de défis lorsqu’il s’agit d’intégrer l’IA dans leurs stratégies de cybersécurité. Selon notre sondage, les préoccupations sont assez diversifiées, avec une légère majorité soulignant l’incertitude entourant les risques liés à l’IA comme principal obstacle, suivre de près par les enjeux de conformité juridiques et réglementaires.
Parmi les autres obstacles courants, on retrouve :
- La justification du budget et la démonstration de retour sur investissement (ROI)
- L’intégration des solutions d’IA aux outils de sécurité existants
- La pénurie de personnel qualifié
- L’obtention de l’adhésion de la direction
- La difficulté à suivre le rythme rapide des avancées en IA
Un RSSI d’une entreprise technologique a résumé le défi lié aux talents aux talents de façons concis : « Nous manquons toujours de compétences et d’experts spécialisés en IA. »
Pendant ce temps, un RSSI virtuel a exprimé un certain scepticisme quant aux bénéfices concrets : « J’ai l’impression qu’il manque encore un vrai retour sur investissement avec les solutions d’IA générative. Détecter un scan de port en lisant dix lignes de journaux n’apporte pas une grande valeur. »
Bien que l’IA offre un potentiel énorme, de nombreuses organisations doivent encore surmonter des barrières pratiques, organisationnelles et stratégiques qui freinent son adoption à grande échelle. En résumé, certains RSSI ont connu des succès ciblés, tandis que d’autres équipes de sécurité luttent toujours pour rentabiliser les solutions d’IA.
EXEMPLES DE TECHNOLOGIES D’IA MISES EN ŒUVRE
Un autre volet central de notre sondage portait sur la façon dont les entreprises ont intégré des technologies d’IA au cours de la dernière année. Les RSSI ont piloté l’adoption de diverses technologies d’IA au sein de leurs organisations. Au-delà de l’utilisation traditionnelle des solutions basées sur l’IA pour la détection des menaces, de nombreuses équipes explorent des applications innovantes afin d’améliorer l’efficacité et l’interaction avec les utilisateurs.
Parmi les mises en œuvre concrètes partagées :
- « Nous avons intégré l’IA dans notre SOC pour l’investigation et la remédiation des faux positifs. »
- « Nous expérimentons un chatbot pour nos utilisateurs finaux. »
- « Gestion des risques liée à l’IA générative directement dans le navigateur. »
Il est encore tôt, mais il est encourageant de constater des exemples concrets montrant comment les équipes de sécurité passent de l’exploration à des cas d’utilisation en production, en tirant parti de l’IA pour accroitre l’efficacité, améliorer l’expérience utilisateur et renforcer la surveillance des risques.
DYNAMISER VOS OPÉRATIONS DE SÉCURITÉ GRÂCE À L’IA
Chez Hornetsecurity, nous transformons le paysage de la cybersécurité grâce à nos solutions innovantes. Voici comment :
- Équipez votre organisation avec AI.MY, l’AI Cyber Assistant, conçu pour renforcer la sensibilisation d’utilisateurs tout en allégeant la charge de vos équipes de sécurité et de soutien.
- Simplifiez les demandes récurrentes afin de permettre à votre équipe de se concentrer sur ce qui compte vraiment et de relever les défis de sécurité critiques.
- Découvrez les avantages d’AI.MY, intégré à notre offre complète 365 Total Protection Plan 4, qui exploite les technologies d’IA et d’apprentissage automatique les plus avancées pour renforcer votre posture de sécurité.

Prêt à révolutionner votre approche de la cybersécurité ? En savoir plus et planifier une démonstration dès aujourd`hui !
Conclusion
À partir de nos discussions et de notre sondage avec RSSI, il est clair que l’IA devient rapidement un atout essentiel dans le paysage de la cybersécurité. Bien que ces défis subsistent en matière de sensibilisation aux risques, de conformité et de compétences, les expérimentations croissantes et les premiers succès démontrent que le potentiel de l’IA est réel et atteignable.
La plupart des équipes de sécurité adoptent judicieusement une approche mesurée : elles équilibrent innovation et contrôle tout en posant les bases d’une intégration plus large et plus confiante. Avec les bons outils et une formation adéquate, l’IA permet aux RI d’améliorer la détection des menaces, d’automatiser les tâches routinières et de renforcer leur posture globale en matière de sécurité.
En tant que fournisseur de solution de sécurité déterminée à outiller les équipes grâce à des solutions basées sur l’IA, nous chez Hornetsecurity voyons d’immenses opportunités à venir. Avec nos clients, nous transformons l’IA, en passant du battage médiatique à un avantage pratique et évolutif, et nous aidons les organisations à protéger ce qui compte le.
FOIRE AUX QUESTIONS
L’IA améliore la détection des menaces, automatise les tâches routinières et accroit l’efficacité les tâches routinières et accroit l’efficacité opérationnelle des équipes de sécurité. Elle offre aux organisations la capacité de gérer les risques de manière efficace tout en répondant rapidement aux menaces cybernétiques émergentes.
Les RSSI doivent composer avec la sensibilisation aux risques liés à l’IA, les enjeux de conformité et la pénurie de talents. Ainsi, la justification du budget et la démonstration du retour sur investissement (ROI) demeurent des défis importants pour intégrer des solutions d’IA aux cadres de sécurité existants.
Des programmes de formation et de sensibilisation ciblés ont essentiels pour aider les utilisateurs finaux à comprendre les risques associés à l’IA. Les organisations devraient cultiver une culture de conformité et organiser des initiatives régulières des sensibilisations afin d’encourager une utilisation responsable des outils IA.