

Die Auswirkungen von KI auf die Cybersicherheit
Seitdem ChatGPT Ende 2022 das Bewusstsein der Öffentlichkeit im Sturm eroberte, sind die Auswirkungen von KI-gestützten großen Sprachmodellen (Large Language Models, LLMs) auf Wirtschaft, Gesellschaft und die Cybersicherheit geradezu erstaunlich.
Frühe Vorhersagen, dass automatisierte Angriffe im Handumdrehen Abwehrmaßnahmen überwinden und blitzschnell Schwachstellen finden würden, waren übertrieben. Dennoch sind die Auswirkungen von KI auf die Cybersicherheit in der Branche spürbar, auch wenn die KI den Verteidigern wohl mehr geholfen hat.
Das wird sich in den nächsten Jahren ändern. Das National Cyber Security Centre (NCSC) in Großbritannien hat kürzlich seine Analyse „Auswirkungen von KI auf die Cyberbedrohung von heute bis 2027“ veröffentlicht. Diese befasst sich mit den Risiken von KI-gestützten Cyberangriffen auf Unternehmen und die kritische nationale Infrastruktur (CNI).
Obwohl sich die Analyse auf die Risiken für das Vereinigte Königreich konzentriert, kennen Cyberangriffe keine Grenzen. Die Empfehlungen gelten für alle Organisationen in Europa und darüber hinaus.
In diesem Artikel werden wir Folgendes untersuchen:
- die verschiedenen Bereiche, in denen wir Beweise dafür haben, dass Angreiferinnen und Angreifer KI für ihre Angriffe nutzen,
- wie Sie Ihre Cybersicherheitsstrategie erstellen oder anpassen, um KI-gestützte Bedrohungen zu berücksichtigen,
- wie Sie den Advanced Threat Protection von Hornetsecurity zur Verteidigung Ihrer Nutzer einsetzen können.
Verstehen Sie die Auswirkungen von KI auf Cyberbedrohungen
Mangel an Transparenz bei der kriminellen Nutzung von KI
Cyberkriminelle und staatliche Cyberspione veröffentlichen keine Berichte darüber, wie sie KI erfolgreich in ihre Arbeitsabläufe integriert haben. Daher mussten wir Verteidiger uns auf verschiedene indirekte Beweise stützen, um zu erkennen, wie und auf welche Weisen KI ihre Taktiken beeinflusst.
OpenAI und Anthropic (und andere) haben in den letzten Jahren Berichte veröffentlicht, in denen sie detailliert darlegten, wie ihre KI-Tools von Angreifern für verschiedene cyberbezogene Aufgaben genutzt wurden.
Frühe Anwendungsfälle: Unterstützung beim Programmieren
Frühe Beweise zeigten, dass die Unterstützung beim Programmieren ein erster Anwendungsfall war, was auch Sinn ergibt, da nicht-kriminelle Entwickler zu den Ersten gehörten, die KI zur Effizienzsteigerung nutzten. Sowohl bei Geschäftsanwendungen als auch bei Malware geht es dabei um Unterstützung beim Programmieren, nicht um „beschreibe die Anwendung und lass die KI sie vollständig von alleine erstellen“.
KI für Recherche und Informationsbeschaffung
Es gab zudem Hinweise darauf, dass KI eingesetzt wurde, um im Internet nach technischen Fakten oder Schwachstellen zu suchen. Eine solche Aufgabe könnte genauso gut mit einer herkömmlichen Suchmaschine erledigt werden und sollte eigentlich nicht dazu führen, in einem OpenAI-Bericht erwähnt zu werden (Iran, ich sehe dich).

Cybersecurity Report 2025
Eine detaillierte Analyse der Microsoft 365-Bedrohungslandschaft basierend auf Erkenntnissen aus 55,6 Milliarden E-Mails.
KI-gestützte Phishing-Kampagnen
Beim häufigsten Angriffsvektor, Phishing-E-Mails (und Teams-/Slack-Nachrichten), werden große Sprachmodelle (LLMs) verwendet, um:
- einwandfreie Grammatik zu erzeugen,
- psychologisch verlockendere Köder zu erstellen,
- und Angriffe in Sprachen zu übersetzen, in denen die Nutzer weniger an Phishing-Angriffe gewöhnt sind (man denke an Japan).
Nordkoreanische KI-gestützte Betrugsmaschen
In einem aktuellen Bericht von OpenAI gab es eine interessante Entdeckung zu einer nordkoreanischen Betrugsmasche, die sich zunächst an US-Unternehmen richtete, die Remote-Technikexperten bzw. Entwickler einstellen wollten. Dabei nutzen sie sogenannte Laptop-Farmen, auf die sie aus der Ferne zugreifen, um den Anschein zu erwecken, sie würden aus dem richtigen Bundesstaat bzw. Land arbeiten. Sie greifen dabei gleich dreifach an:
- Erstens erledigen die Entwickler reale Arbeit und erhalten dafür Gehälter, die an das Regime zurückfließen.
- Zweitens haben Techniker oft privilegierten Zugriff, der genutzt werden kann, um geistiges Eigentum zu stehlen oder – im Falle von Kryptowährungsunternehmen – Gelder zu entwenden.
- Drittens, wenn die Täuschung kurz vor der Aufdeckung steht, kann klassische Ransomware eingesetzt werden, um noch eine Auszahlung zu erzwingen.
Die US-Strafverfolgungsbehörden gehen verstärkt gegen diese Operationen vor, weshalb Nordkorea nun auch nach Europa expandiert. Der jüngste OpenAI-Bericht zeigte jedoch etwas Neues: Nordkoreanische Angreifer hatten den gesamten Arbeitsablauf für diesen IT-Betrug automatisiert.
Automatisierung betrügerischer Bewerbungen
Dabei wird KI genutzt, um automatisch Lebensläufe zu erstellen, die exakt zu Stellenbeschreibungen passen – mit konsistenten Berufserfahrungen, Referenzen und Ausbildungswegen. Darüber hinaus wird KI verwendet, um:
- Bewerbungen zu verfolgen und zu verwalten,
- Aufgaben im Rahmen von Bewerbungsverfahren wie Interviewfragen zu erledigen,
- Programmieraufgaben zu lösen.
Dies sind zwar alles Tätigkeiten, die auch ohne KI möglich wären – die Automatisierung bringt jedoch deutlich mehr Effizienz und Skalierbarkeit. Das ist ein klares Zeichen für die wachsenden Auswirkungen von KI auf die Cybersicherheit.
KI-generierte Personas
Ein Bericht von Anthropic (den Entwicklern von Claude) untersuchte Versuche, Influence-as-a-Service zu automatisieren – also das Erstellen von Beiträgen in sozialen Medien sowie das Verfassen von Antworten auf die Beiträge anderer. Die KI-generierten Personas waren dabei in ihren politischen Ansichten abgestimmt, und auch KI-basierte Bildgenerierung wurde integriert.
In der Theorie klingt das System überzeugend, doch in der Praxis hatte es nur eine begrenzte virale Wirkung.
Aufstieg hausinterner KI
Es ist wichtig zu beachten, dass das Zeitfenster, in dem wir Einblick in die Nutzung öffentlich zugänglicher KI-Tools auf diese Weise haben, sich zunehmend schließt. Der Grund dafür ist das Aufkommen von Open-Weight-Modellen, wie etwa denen von DeepSeek und anderen Anbietern, die mit den leistungsfähigsten aktuellen Modellen konkurrieren. Zukünftige KI-Bedrohungen werden voraussichtlich verstärkt auf intern entwickelten Systemen basieren, auf die wir keinen Zugriff mehr haben werden.
Ausblick: KI wird nur noch gefährlicher werden
Befürworter von KI weisen häufig darauf hin: „So schlecht wie heute wird KI nie wieder sein.“ Damit ist gemeint, dass sich die Technologie weiterentwickelt, leistungsfähiger wird und sich somit kontinuierlich verbessert.
Was heute also noch als gescheiterte Einflussoperation gilt, könnte morgen bereits eine erfolgreiche Manipulation einer demokratischen Wahl sein. Und was heute das Auffinden „einfacher“ Schwachstellen ist, könnte morgen schon eine automatisierte Zero-Day-Attack-Fabrik sein.
Zentrale Einschätzungen aus der NCSC-Analyse
Die aktuelle Analyse des NCSC baut auf einer früheren Bewertung aus dem Jahr 2024 auf und hat einen längeren Zeithorizont: Sie untersucht Bedrohungen von heute bis ins Jahr 2027. Die Einschätzung ist leicht verständlich und fasst sich in den folgenden Kernaussagen zusammen.
Erwartete Auswirkungen von KI auf die Cybersicherheit:
- KI wird weiterhin bestimmte Teile von Cyberangriffen effektiver und effizienter machen und dadurch zu einer Zunahme von Angriffen führen.
- Es wird eine Spaltung geben zwischen Systemen, die Schritt halten und KI-gestützte Abwehrmechanismen integriert haben, und solchen, die das nicht tun und damit zunehmend verwundbar werden.
- Dies könnte – sofern keine grundlegenden Änderungen bei Abwehrmaßnahmen erfolgen – bis 2027 dazu führen, dass kritische Systeme anfälliger für hochentwickelte Angreifer werden. Schritt zu halten mit den neuesten KI-Entwicklungen wird daher Voraussetzung für starke Verteidigungen sein.
- Die Verbreitung von KI-gestützten Cyber-Tools wird dazu führen, dass ein erweitertes Spektrum von staatlichen und nichtstaatlichen Akteuren Zugang zu KI-basierten Angriffswerkzeugen erhält.
- Der zunehmende Einsatz von KI-Systemen in der Gesellschaft wird die Angriffsfläche vergrößern, die Gegner ausnutzen können.
- Unzureichende Cybersicherheitsmaßnahmen werden die Chancen für KI-gestützte Angreifer erhöhen, Unternehmen und Organisationen erfolgreich anzugreifen.
Rolle staatlicher und krimineller Akteure
Die Analyse geht davon aus, dass zunächst staatliche Akteure KI-gestützte Werkzeuge und Angriffstechniken entwickeln werden, gefolgt von kriminellen Akteuren – ein Muster, das wir in den letzten Jahrzehnten bereits bei anderen Werkzeugen und Techniken beobachten konnten.
Schwachstellenforschung und Exploit-Entwicklung
Ein Bereich, der abgedeckt wird, ist die Vulnerability Research and Exploit Development (VRED). Hier gibt es bereits Beispiele dafür, dass LLM-basierte KI-Tools eigenständig „einfache“ Schwachstellen im Code finden können.
Menschliche Beteiligung bleibt notwendig
Das NCSC erwartet bis 2027 keine vollständig KI-automatisierten Angriffe. Menschliche Cyberakteure werden weiterhin erforderlich sein. Allerdings wird die Automatisierung verschiedener Phasen für mehr Effizienz und Geschwindigkeit wahrscheinlich zunehmen.
Strategien für Cyber-Resilienz gegenüber KI-Bedrohungen
Grundlegende Cyberhygiene bleibt für jedes Unternehmen und jede Organisation entscheidend, sowohl um die Auswirkungen von KI auf die Cybersicherheit abzuwehren als auch um klassischen Angriffen entgegenzuwirken.
Stärkung der Kernsysteme
- Patchen Sie regelmäßig Software-Systeme, verfolgen Sie Schwachstellen und kritische Systeme nach – insbesondere solche, die sensible Daten speichern – priorisieren.
Starke Authentifizierung durchsetzen
- Implementieren Sie phishingresistente Multi-Faktor-Authentifizierung (z. B. Windows Hello for Business, FIDO-Hardware-Keys oder Passkeys) für alle Nutzer, um eine starke Authentifizierung sicherzustellen.
- Überwachen Sie nicht-menschliche bzw. Maschinenidentitäten in Ihrer Infrastruktur und wenden Sie auch auf deren Authentifizierungen geeignete Richtlinien an.
Kommunikationskanäle absichern
- Setzen Sie ein zuverlässiges Tool zur Sicherstellung der E-Mail-Hygiene ein, sodass Phishing-E-Mails nicht in den Posteingang der Endnutzer gelangen. Phishing ist nach wie vor der häufigste Einstiegspunkt für Angriffe.
- Wenden Sie klare Richtlinien für die gemeinsame Nutzung und Zusammenarbeit bei Dokumenten an – sowohl intern als auch extern.
Zero-Trust-Ansatz umsetzen
- Wenden Sie einen Zero-Trust-Ansatz für die Cyber-Resilienz an, verifizieren Sie jede Verbindung ausdrücklich, weisen Sie den Benutzern nur minimal erforderliche Zugriffsrechte zu und gehen Sie von einem Sicherheitsvorfall aus. Letzteres ist besonders wichtig, da es erfordert, die Überwachung und Alarmierung so anzupassen, dass Angreifer, sobald sie einen ersten Zugang erlangt haben, erkannt werden und der Angriff frühzeitig eingedämmt werden kann.
Management von Drittparteien- und Lieferkettenrisiken
- Überwachen Sie Ihre Lieferanten sowie deren Lieferketten. Auch wenn Sie in Ihrem eigenen Unternehmen alles im Griff haben, können Sie durch ein anderes Unternehmen, auf das Sie angewiesen sind, kompromittiert werden.
Aufbau menschlicher Resilienz
- Schulen Sie Ihre Nutzer in Bezug auf KI-bezogene Bedrohungen. Verwenden Sie vorzugsweise ein Tool, das einen geringen administrativen Aufwand erfordert und auf kurze, wiederholte Trainingseinheiten setzt. So werden Ihre menschlichen Firewalls gestärkt und deren Fähigkeit geschärft, Social Engineering zu erkennen.
Sicherstellung von Datenschutz und Wiederherstellung
- Führen Sie getestete Backups aller relevanten Unternehmensdaten, die auf unveränderbarem Speicher abgelegt sind. Dadurch können Angreifer diese nicht manipulieren oder löschen, um Sie im Falle eines Ransomware-Angriffs zu erpressen.
- Testen und üben Sie Ihre Notfallpläne, damit Ihre Mitarbeiter auf allen Ebenen der Organisation wissen, was zu tun ist, wenn ein unvermeidbarer Angriff Ihre Verteidigung durchdringt.
Verhinderung von Datenlecks
- Use a tool such as AI Recipient Validation to ensure users don’t send sensitive information to the wrong people.
Behalten Sie einen Vorsprung gegenüber KI-gestützten Cyberbedrohungen durch den Einsatz von ATP
Ist Ihre Organisation bereit, sich der sich ständig weiterentwickelnden Bedrohungslandschaft zu stellen, die durch KI beschleunigt wird? Setzen Sie Ihre Sicherheit nicht der Ungewissheit aus. Implementieren Sie modernste Strategien wie Advanced Threat Protection von Hornetsecurity und betreiben Sie proaktives Risikomanagement, um KI-gestützte Angriffe wirksam zu bekämpfen.

Nehmen Sie noch heute Kontakt auf, um zu erfahren, wie Sie Ihre Verteidigungsmaßnahmen stärken und Ihre wichtigen Werte schützen können.
Fazit
Wir haben bisher nur die Anfänge der Auswirkungen von KI auf die Cybersicherheit gesehen. Wie das NCSC betont, besteht eine hohe Wahrscheinlichkeit, dass Ihre Verteidigung nicht ausreicht, wenn Sie sich der Risiken nicht bewusst sind und diese nicht entsprechend abmildern.
Hornetsecuritys Advanced Threat Protection ist ein auf KI und ML basierendes Verteidigungswerkzeug, das Bedrohungen erkennt, die andere übersehen. Es ist ein unverzichtbarer Bestandteil der Verteidigung Ihrer Nutzer – sowohl gegen traditionelle als auch gegen KI-gestützte Bedrohungen.
FAQ
KI erhöht die Effizienz von Angriffen. Sie ermöglicht es Cyberkriminellen, Aufgaben zu automatisieren, Phishing-Taktiken zu verbessern und Schwachstellen schneller auszunutzen als zuvor.
Setzen Sie grundlegende Cyberhygiene um, nutzen Sie phishing-resistente Multi-Faktor-Authentifizierung, wenden Sie Zero-Trust-Prinzipien an und schulen Sie Nutzer, um KI-bezogene Bedrohungen proaktiv zu erkennen.
Obwohl KI bestimmte Prozesse automatisieren wird, bleibt die Beteiligung von Menschen in vielen Aspekten von Cyberangriffen notwendig, insbesondere in der strategischen Planung und Ausführung. Hornetsecuritys Advanced Threat Protection ist ein leistungsstarkes, auf KI und ML basierendes Verteidigungswerkzeug, das Bedrohungen effektiv erkennt, die andere übersehen. Es ist ein entscheidender Bestandteil, um Ihre Nutzer sowohl vor traditionellen als auch vor neuen KI-gestützten Bedrohungen zu schützen.