Header Blog - Email Security

L’impact de l’IA sur la cybersécurité

Home » Blog » L’impact de l’IA sur la cybersécurité

Depuis que ChatGPT a fait irruption dans la conscience publique à la fin de 2022, l’impact des modèles de langage tendu (LLM), sur les entreprises, la société et la cybersécurité ont été tout simplement remarquables.  

Les premières prédictions concernant des attaques automatisées franchissant aisément les attaques automatisées franchissant aisément les défenses et repérant les vulnérabilités à une vitesse fulgurante se sont révélées exagérées, mais l’impact de l’IA sur la cybersécurité est indéniable, même si l’IA a sans doute davantage aidé les défenseurs. 

La situation va toutefois évoluer au cours des prochaines années. Le Centre national de cybersécurité (NCSC) au Royaume-Uni a récemment publié son évaluation de l’impact de l’IA sur les menaces informatiques de maintenant jusqu’en 2027, laquelle examine les risques liés aux cyberattaques propulsées par l’IA visant les entreprises et les infrastructures nationales essentielles (INE).  

Bien que cette évaluation porte sur les risques propres au Royaume-Uni, les cyberattaques ne connaissent pas de frontières, et les recommandations s’appliquent à toute organisation en Europe ou ailleurs. 

Dans cet article, nous examinerons :  

  • Les différents secteurs où nous avons des preuves que des attaquants utilisent l’IA dans leurs offensives 
  • Comment créer ou adapter votre stratégie de cybersécurité pour prendre en compte les menaces propulsées par l’IA 
  • Comment vous pouvez utiliser Advanced Threat Protection de Hornetsecurity pour protéger vos utilisateurs 

Comprendre l’impact de l’IA sur les menaces informatiques 

Manque de transparence dans l’utilisation criminelle de l’IA 

Les cybercriminels et les espions informatiques commandités par des États ne publient évidemment pas de rapports expliquant comment ils ont intégré l’IA dans leurs processus. Les défenseurs doivent donc se fier à des preuves indirectes pour comprendre comment et dans quelles mesures l’IA influence leurs tactiques.  

OpenAI et Anthropic (entre autres) ont publié ces dernières années des rapports détaillant la manière dont des acteurs malveillants exploitent leurs outils d’IA pour diverses tâches liées à la cybercriminalité.  

Premier cas d’utilisation : l’assistance en programmation  

Les premières données montrent que l’assistance à la programmation a été l’un des premiers cas d’utilisation de l’intelligence artificielle, ce qui est logique. Les développeurs non criminels ont été parmi les premiers à utiliser l’IA pour gagner en efficacité, tant dans les applications d’affaires que dans la conception de logiciels. Dans le cas des logiciels malveillants, il s’agit bien d’assistance en programmation et non de « décrire l’application et laisse l’IA la créer entièrement de façon autonome ». 

L’IA pour la recherche et la collecte d’information  

Des preuves démontrent également que l’IA soit utilisée pour effectuer des recherches sur le Web, notamment pour obtenir des faits techniques ou analyser des vulnérabilités. Il s’agit des taches qu’un moteur de recherche traditionnel pourrait accomplir tout aussi efficacement, mais l’IA peur parfois offrir un avantage stratégique, notamment en permettant de collecter de l’information discrètement sans attirer l’attention des autorités. 

Cybersecurity Report 2025

Cybersecurity Report 2025

Une analyse approfondie du paysage des menaces de Microsoft 365 sur la base d’informations provenant de plus de 55,6 milliards d’emails

Campagnes d’hameçonnage améliorées par l’IA 

Les campagnes d’hameçonnage, qu’il s’agisse de courriels frauduleux ou de messages sur Teams et Slack, sont parmi les vecteurs d’attaque les plus courants. Les modèles de langage étendu (LLM) y sont utilisés pour : 

  • Générer des textes sans erreurs et au style professionnel. 
  • Créer des messages plus convaincants sur le plan psychologique afin d’attirer davantage les victimes. 
  • Traduire les messages frauduleux dans des langues où les utilisateurs sont moins sensibilisés aux attaques d’hameçonnage par exemple, le Japon est souvent mentionné dans les rapports). 

Escroqueries nord-coréennes propulsées par l’IA 

Un rapport récent d’OpenAI met en lumière une découverte inquiétante concernant une escroquerie orchestrée par la Corée du Nord. Ces cybercriminels ciblent des entreprises américaines qui embauchent des travailleurs et des développeurs à distance. Pour paraitre légitimes, ils utilisent des fermes d’ordinateurs portables reliées à distances, donnant ainsi l’impression que les travailleurs se trouvent dans la bonne région u le bon pays. Leur stratégie repose sur trois volets : 

  • Production et redistribution de salaires : les développeurs accomplissent des tâches pour recevoir un salaire, qui est ensuite transféré au régime nord-coréen.  
  • Exploitation des accès privilégiés : les travailleurs à distance ont souvent accès à des données sensibles, ce qui peut être exploité pour voler de la propriété intellectuelle ou, dans le cas des entreprises de cryptomonnaie, détourner des fonds.  
  • Déploiement potentiel de ransomwares : si la fraude est découverte, des ransomwares traditionnels pourraient être utilisés pour exiger des paiements illégaux.  

Les autorités américaines ont commencé à sévir contre ces opérations, mais on constate désormais que la Corée du Nord élargit ses activités vers l’Europe. Un rapport récent d’OpenAI a toutefois révélé un nouvel élément, les attaquants nord-coréens ont désormais automatisé l’ensemble du flux de travail de leurs employés en technologies de l’information grâce à l’IA.  

Automatisation des candidatures frauduleuses 

Les fraudeurs utilisent l’IA pour créer automatiquement des curriculums vitae (CV) adaptés aux descriptions de postes, générant des antécédents professionnels, des références et des parcours académiques cohérents. L’IA est également utilisée pour : 

  • Suivre et gérer les candidatures 
  • Compléter des taches liées aux demandes d’emploi, comme répondre à des questions d’entrevue 
  • Résoudre des exercices de programmation 

Il est important de noter qu’il ne s’agit pas de quelque chose d’impossible sans l’IA, mais l’automatisation permet plus d’efficacité et une capacité d’exécution à grande échelle. Cela démontre clairement l’impact croissant de l’IA sur la cybersécurité. 

Personnalités générées par l’IA

Salon un rapport d’Anthropic (créateurs de Claude), des efforts ont été entrepris pour automatiser les campagnes d’influence numérique. L’IA a été utilisée pour créer des publications sur les réseaux sociaux, répondre à des messages d’autres utilisateurs, générer des identités fictives alignées sur des opinions politiques précises, et produire des images cohérentes pour renforcer ces faux profils.  

En théorie, le système semble efficace, mais dans la pratique, son impact viral demeure limité pour l’instant.  

L’essor de L’IA interne 

La fenêtre de visibilité que nous avons actuellement sur l’utilisation des outils d’IA public se referme progressivement. Avec l’arrivée de modèles à code ouvert, comme ceux de DeepSeek et d’autres entreprises, qui rivalisent avec la puissance des systèmes les plus avancés, il est probable que, dans un avenir proche, de nombreuses cybermenaces reposeront sur des IA internes. Ces IA développées et utilisées en interne seront beaucoup plus difficiles à détecter et échapperont largement à la surveillance des experts en cybersécurité. 

En perspective : l’IA deviendra encore plus dangereuse 

Les spécialistes de l’IA rappellent souvent que « nous vivons actuellement le moment où l’IA est la moins puissante ». Autrement dit, plus la technologie progressera, plus elle deviendra performante et plus ses capacités offensives se renforcent.  

Ainsi, les opérations d’influence échouées aujourd’hui pourraient devenir les manipulations réussies de demain dans une élection démocratique. De la même façon, les vulnérabilités jugées mineures aujourd’hui pourraient être exploitées demain par des systèmes automatisés capables de lancer des attaques zero-day complexes, exploitant des failles inconnues des développeurs et des défenseurs.  

Principales conclusions de l’évaluation du NCSC 

Le Centre national de cybersécurité (NCSC) a publié une évaluation récente, qui fait suite à un premier rapport de début 2024, mais avec un horizon temporel plus long, couvrant les menaces d’ici 2027. Ce rapport est facile à lire et met en évidence plusieurs points clés. 

Impacts prévus de l’IA sur la cybersécurité 

  • L’IA continuera de rendre certaines cyberattaques plus efficaces et plus rapides, ce qui entrainera une augmentation du nombre total d’attaques.  
  • Une fracture apparaitra entre les systèmes dotés de défense basés sur l’IA et ceux qui n’en auront pas, ces derniers devenant de plus en plus vulnérables.  
  • Sans changements significatifs dans les stratégies d’atténuation, les systèmes critiques deviendront plus vulnérables aux acteurs malveillants avancés d’ici 2027. Il sera donc essentiel de maintenir le rythme des développements liés à l’IA pour assurer des défenses solides.  
  • L’utilisation généralisée des systèmes d’IA dans la société créera davantage de surfaces d’attaque, offrant plus d’occasions aux adversaires d’exploiter des failles. 
  • Des défenses de cybersécurités insuffisantes augmenteront considérablement les chances de réussite des attaques menées à l’aide d’outils propulsés par l’IA contre les entreprises et organisations.  

Rôle des États et des acteurs criminels 

L’évaluation prévoit que certains États développeront des outils d’intrusion et de piratage propulsés par l’IA, qui seront ensuite adoptés par les groupes criminels. C’est un schéma déjà observé au cours des dernières décennies, les techniques conçues initialement par des gouvernements finissent souvent par être réutilisées et perfectionnées par des organisations criminelles.  

Recherche de vulnérabilités et développement d’exploits 

Un domaine couvert par le rapport est la recherche de vulnérabilités et le développement d’exploits (Vulnerability research and exploit development VRED). On y observe que certains outils d’IA basés sur des modèles de langage étendu (LLM) sont désormais capables d’identifier seuls certaines vulnérabilités « simples » dans du code. 

L’intervention humaine demeure nécessaire 

Le NCSC ne prévoit pas que les attaques automatisées par l’IA soient entièrement autonomes d’ici 2027. L’intervention d’experts humains restera essentielle, mais l’automatisation partielle de plusieurs étapes clés pour gagner en rapidité et en efficacité est jugée très probable.  

Stratégies pour une cyber résilience face aux menaces propulsées par L’IA 

Les principes de cyberhygiène de base demeurent cruciaux pour toutes les entreprises afin de réduire les risques, qu’ils soient liés à l’IA ou à des attaques traditionnelles.  

Renforcent des systèmes essentiels 

  • Mettre à jour régulièrement les logiciels 
  • Suivre les vulnérabilités connues 
  • Prioriser la protection des systèmes critiques et des bases de données contenant des renseignements sensibles.  

Renforcement de l’authentification 

  • Mettre en œuvre une authentification multifacteur (MFA) résistante à l’hameçonnage, par exemple Windows Hello for Business, les clés de sécurité FIDO ou les mots de passe physiques, pour les utilisateurs afin d’assurer une sécurité renforcée. 
  • Surveiller les identités non humaines (machines, bots, IA) utilisées dans votre infrastructure et appliquer des politiques de sécurité spécifiques pour protéger également ces accès. 

Sécurisation des canaux de communication 

  • Utiliser un outil fiable pour maintenir une bonne hygiène des courriels et éviter que des emails de phishing ne parviennent dans les boites de réception des utilisateurs. Le phishing demeure aujourd’hui le vecteur d’attaque initial le plus courant. 
  • Appliquer des politiques strictes pour le partage et la collaboration sur les documents, tant en interne qu’à l’externe.  

Adopter une approche Zero Trust 

  • Applique une approche Zero Trust pour renforcer la résilience en cybersécurité, vérifiez explicitement chaque connexion, attribuez le minimum de privilèges nécessaires et présumez la compromission dès le départ. Cette approche exige également d’adapter vos systèmes de surveillance et d’alerte pour détecter rapidement toute tentative d’intrusion, afin que lorsqu’un attaquant parvient à s’infiltrer, la menace soit identifiée et neutralisée rapidement.  

Gestion des risques liés aux tiers et à la chaine d’approvisionnement  

  • Surveillez attentivement vos fournisseurs et votre chaine d’approvisionnement, car même si vos propres systèmes sont sécurisés, une faille chez un partenaire peut compromettre votre organisation. 

Développer la résilience humaine 

  • Former vos utilisateurs sur les menaces liées à l’IA, idéalement à l’aide d’outils simples permettant des sessions de formation courtes, répétées et ciblées. Cette approche améliore la capacité de vos équipes à agir comme des « pare-feux humains » et renforce leur aptitude à détecter les tentatives d’ingénierie sociale. 

Assurer la protection et la récupération des données  

Prévenir les fuites de données 

  • Utilisez un outil comme AI Recipient Validation afin de vus assurer que les utilisateurs n’envoient pas accidentellement des informations sensibles aux mauvaises personnes. 

Garder une longueur d’avance sur les cybermenaces propulsées par l’IA grâce à l’assistance de l’ATP 

Votre organisation est-elle prête à faire face à l’évolution rapide des menaces informatiques amplifiées par l’IA ? Ne laissez pas la sécurité de vos systèmes dépendre de l’incertitude. Adoptez de stratégies de pointe comme Advanced Threat Protection de Hornetsecurity, et mettez en place une gestion proactive des risques pour lutter efficacement contre les attaques propulsées par l’IA.  

Advanced Threat Protection icon

Communiquez avec nous dès aujourd’hui pour découvrir comment renforcer vos défenses et protéger vos actifs essentiels. 


Conclusion 

Nous n’avons vu que les débuts de l’impact de l’IA sur la cybersécurité. Comme le souligne le NCSC, si vous n’êtes pas conscient des risques et que vous ne prenez pas les mesures nécessaires pour les atténuer, il est très probable que vos défenses actuelles ne soient pas suffisantes. 

La solution Advanced Threat Protection est un outil de défense basé sur l’IA et l’apprentissage automatique (AA) qui détecte les menaces que d’autres solutions pourraient manquer. Elle constitue un élément essentiel pour protéger vos utilisateurs contre les menaces traditionnelles et celle propulsée par l’IA. 

Foire aux questions (FAQ) 

Comment l’IA influence-t-elle les cybermenaces ? 

L’IA améliore l’efficacité des attaques en permettant aux cybercriminels d’automatiser certaines tâches, d’optimiser les techniques d’hameçonnage et d’exploiter les vulnérabilités plus rapides que jamais.  

Que devraient faire les organisations pour se préparer aux cybermenaces par l’IA ? 

Les organisations doivent mettre en place des pratiques de cyberhygiène de base, utiliser une authentification multifacteur résistance au phishing, appliquer les principes de sécurité Zero Trust et former leurs utilisateurs à reconnaitre de manière proactive les menaces liées à l’IA. 

L’IA automatisera-t-elle complètement les cyberattaques dans l’avenir % 

Bien que L’IA puisse automatiser certains processus, l’intervention humaine restera nécessaire pour de nombreux aspects des cyberattaques, en particulier en matière de planification stratégique et d’exécution. La solution Advanced Threat Protection de Hornetsecurity est un puissant outil de défense reposant sur l’IA et l’apprentissage automatique. Elle permet d’identifier efficacement es menaces que d’autres solutions pourraient négliger. C’est un élément crucial pour protéger vos utilisateurs contre les menaces traditionnelles et les nouvelles menaces émergentes propulsées par l’IA.  

Vous pourriez aussi être intéressé par