Was sind die Chancen und Risiken von GenAI für die Cybersicherheit?
Generative Künstliche Intelligenz revolutioniert die automatisierte Erstellung von Inhalten wie Texten und Bildern, aber auch Programmcode. Möglich wird dies durch neuronale Netze, die auf bis zu Billionen von Parametern basieren. Doch mit den Chancen gehen auch Risiken einher: Neben der Transparenz und Nachvollziehbarkeit von KI-Systemen stellen ihre Halluzinationen und ihre Robustheit gegenüber Angreifern sowie Verlässlichkeit zentrale Herausforderungen dar.
Auch in der Cybersicherheit gehen mit generativer Künstlicher Intelligenz Chancen und Risiken einher: So ist GenAI sowohl als potenzielle Bedrohung als auch als Werkzeug zur Verteidigung zu verstehen.
Chancen von GenAI in der Cybersicherheit
1. Proaktive Erhöhung des Cybersicherheitsniveaus auch gegen KI-basierte Angriffe:
- Echtzeitanalyse: Generative KI kann große Datenmengen schnell analysieren, Anomalien erkennen und Ursachen für Angriffe identifizieren.
- Vorhersage von Angriffspfaden: Predictive Security AI kann Schwachstellen erkennen und Schutzmaßnahmen antizipieren.
- Autonome Abwehr: KI kann ohne menschliches Eingreifen auf Angriffe reagieren, sofern ihre Entscheidungen transparent und nachvollziehbar sind.
2. Unterstützung bei operativen Cybersicherheitsaufgaben
- Automatisierung von Routinetätigkeiten: Die Automatisierung von Routinetätigkeiten etwa bei der Log-Analyse entlastet Fachkräfte und wirkt dem Fachkräftemangel entgegen.
- Automatisierte Schwachstellen-Erkennung: Schwachstellen können automatisiert erkannt, verfolgt und behoben werden.
- Compliance-Unterstützung: Hilfe bei der Umsetzung und Dokumentation gesetzlicher Anforderungen (z. B. DSGVO, NIS2, CRA) etwa durch Integration in Frameworks der Open Security Controls Assessment Language (OSCAL) der NIST, dem Common Security Advisory Framework (CSAF) oder des Bundesamts für Sicherheit in der Informationstechnik (BSI).
3. Verbesserung der Sicherheitsqualität in der Softwareentwicklung
- Analyse von Softwareartefakten: Unterstützung bei der Sicherheitsprüfung von Software in der Supply Chain, auch bei Binärcode.
- Sichere Softwareentwicklung: Frühe Erkennung von Schwachstellen, Vorschläge für sicheren Code und kontinuierliche Sicherheitsanalysen durch Integration in IDEs und CI/CD-Pipelines.
- Effizientere Entwicklungsprozesse: Generative KI kann Entwicklungsqualität und -geschwindigkeit verbessern und Sicherheitsrisiken frühzeitig minimieren.
Risiken
1. Individuelle Nutzungsrisiken
- Prompt Injection: Nutzer können durch gezielte Eingaben große Sprachmodelle (Large Language Models / LLMs), die mithilfe großer Mengen an Textdaten gelernt haben, menschliche Sprache zu verstehen und selbst Texte zu erzeugen, manipulieren.
- Informationsabfluss: Vertrauliche Daten können versehentlich in Anfragen offengelegt oder über Modell-Antworten zurückerschlossen werden (Inference Attacks).
- Schadcode durch LLM-Ausgaben: Die ungeprüfte Nutzung von KI-Antworten kann Sicherheitslücken erzeugen, besonders wenn generierter Programmcode unkontrolliert verwendet wird.
- Manipulierte Trainingsdaten: »Training Data Poisoning« kann gezielt das Verhalten eines Modells verändern.
2. KI-generierte Angriffskampagnen
- Automatisch generierte Malware: Anpassungsfähiger Schadcode kann ohne tiefes Fachwissen erstellt werden (z. B. polymorphe Viren).
- Phishing und Deepfakes: KI ermöglicht breit angelegte Kampagnen mit gezielten, hoch-individualisierten und scheinbar realistischen, aber manipulierten Inhalten.
- Fake News und Desinformation: Großflächig automatisiert gestreute Falschinformationen gefährden gesellschaftliches Vertrauen und demokratische Prozesse.
- Autonome Angreifer: KI kann Schwachstellen erkennen und Angriffsstrategien entwickeln (z. B. hierarchische Agentensysteme).
- Hybride Angriffe: Die Kombination von LLM mit herkömmlichen Sicherheitsanalyse-Frameworks zur Unterstützung von Sicherheitsverantwortlichen ermöglicht koordinierte, dynamische Cyberangriffe.
3. KI-gestützte Angriffsvorbereitung
- Schwachstellenerkennung: LLMs helfen Angreifenden bei der schnellen Identifikation von Schwachstellen.
- Lagebilder durch Datenanalyse: Die Kombination aus Open-Source-Intelligenz (OSINT) und anderen Datenquellen erlaubt eine präzise Vorbereitung von Angriffen, auch ohne technisches Fachwissen.
Einen guten Überblick über die Chancen und Risiken liefert das Impulspapier »Generative KI und ihre Auswirkungen auf die Cybersicherheit« der Wissenschaftlichen Arbeitsgruppe Nationaler Cyber-Sicherheitsrat von Juni 2025. Hauptautorin des Impulspapiers ist Prof. Dr. Claudia Eckert, Leiterin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC.
Die OWASP* Top 10 für Anwendungen mit großen Sprachmodellen (LLMs) von November 2024 identifiziert die kritischsten Sicherheitsrisiken in diesem Bereich.
Fraunhofer-Institut für Angewandte und Integrierte Sicherheit