Künstliche Intelligenz: Die Zukunft der IT-Sicherheit?

News / 15. September 2020

Die Digitalisierung von Prozessen in Wirtschaft und Gesellschaft nimmt weiter zu. Corona hat das Tempo nochmals verschärft. Doch wie können die virtuellen Systeme der Zukunft wirkungsvoll gegen immer raffiniertere Cyberattacken geschützt werden? Unternehmen hoffen auf Verfahren der künstlichen Intelligenz (KI). Kann KI diesem Anspruch gerecht werden?   

Cyberangriffe werden immer mehr zur Gefahr für Wirtschaft und Gesellschaft. Laut des Jahresberichts des Weisenrats für Cyber-Sicherheit hatten 2017 drei Viertel der deutschen Unternehmen digitale Attacken gemeldet. Weitere 13 Prozent hatten den Verdacht, angegriffen worden zu sein. Gleichzeitig waren bereits 55 Prozent der Internetnutzer in Deutschland Opfer von Cyber-Kriminalität1. Im Wettlauf mit kriminellen Hackern setzen Wirtschaft und Gesellschaft daher große Hoffnung auf Verfahren der künstlichen Intelligenz (KI).

Besseres maschinelles Lernen

Die meisten Unternehmen nutzen aktuell jedoch allein die klassischen Tools der IT-Sicherheit. Der Einsatz von KI-Verfahren ist wenig verbreitet. Das liegt zum einen daran, dass in der IT-Sicherheit schwierige, komplexe Problemstellungen zu lösen sind, die für KI-Algorithmen immer noch herausfordernd sind. Zum anderen herrscht bei den Unternehmen Unklarheit darüber, was KI aktuell leisten kann. »Eine KI gesteuerte Security, die automatisiert ganze Systeme überwacht und absichert, existiert noch nicht. KI versteht bisher keine abstrakten Zusammenhänge. Auch in absehbarer Zeit wird sich das wohl nicht ändern. Denn selbst ein Dutzend schwache KIs ergeben nicht automatisch eine starke KI, die über ein semantisches Verständnis wie wir Menschen verfügt. Das Gleiche gilt auch für KI-gesteuerte Angriffe, prognostiziert Nicolas Müller aus der Abteilung »Cognitive Security Technologies« am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC.

Es wird noch dauern, bis KI auf breiter Ebene als Werkzeug der IT-Sicherheit eingesetzt werden kann. »KI ist stark beim Erkennen von Anomalien in großen Datenmengen – vorausgesetzt die Verfahren werden angemessen und ausreichend trainiert. Mit den entsprechenden Methoden lassen sich dann z. B. in großen Netzwerken Viren und Angriffe mit einer Feinheit aufdecken, die mit klassischen IT-Sicherheitsverfahren nicht möglich ist«, sagt Müller.

Doch die Mustererkennung der KI ist nur so gut wie die verwendeten ML-Verfahren. Je intensiver das Training – je größer und abwechslungsreicher der Datensatz – desto robustere Ergebnisse liefert die KI. Dafür ist es häufig notwendig, die Daten unterschiedlicher Stakeholder zusammenzuführen. »Dazu wird jedoch nur dann eingewilligt, wenn Datenschutz und -souveränität gewährleistet sind«, sagt Müller, der zu diesem Zweck die Daten nicht zum Trainingsmodell, sondern umgekehrt das Modell zu den Daten bringt. »Man teilt das Modell in kleine Stückchen und schickt es zu den Daten. Es kehrt dann wieder zurück und liefert das gewonnene Wissen ab«, erklärt Müller. Valide Trainingsdaten sind Voraussetzung für KI-Systeme, die Basis von (teil-)automatisierten Sicherheitslösungen sind. »Diese kommen immer häufiger zum Einsatz, um die Sicherheit und Stabilität von Systemen zu gewährleisten und den Menschen bei der Untersuchung und Absicherung sicherheitskritischer Systeme zu unterstützen«, sagt Müller.

KI-Anwendungen schützen

Aktuell geht es aber auch darum, zu verstehen, wie KI funktioniert, um herauszufinden, wo Schwachstellen liegen und welche Angriffsszenarien möglich sind. Das heißt, die KI selbst ist Betrachtungsgegenstand der IT-Sicherheit. Die Resilienz von KI-Algorithmen wird umso relevanter, desto mehr KI unseren Alltag durchdringt. Und dies ist zunehmend der Fall: KI begegnet uns als virtueller Assistent im Internet, als Sprachassistent auf unseren smarten Geräten, stellt uns über Sensoren in Autos nützliche Informationen für unsere Fahrt zu Verfügung oder wartet die Fertigungsmaschinen der Industrie. »Doch die Systeme lassen sich noch recht einfach manipulieren. KI erkennt dann z. B. Verkehrsschilder falsch, was dazu führen kann, dass ein autonomes Auto über eine rote Ampel fährt«, sagt Müller. Mit Verfahren wie »Robust Learning« und »Adversarial Learning« gibt das Fraunhofer AISEC den KI-Algorithmen eine dickere Panzerung und macht sie resilienter – z. B. durch ein komplexeres Design der Programmierung oder die Abwehr nicht-vertrauenswürdiger Informationen.

Gleichzeitig arbeiten die Wissenschaftlerinnen und Wissenschaftler daran, das Missbrauchspotenzial von KI besser zu verstehen. Ein konkretes Angriffsszenario sind »Deep Fakes«, mit Hilfe von KI-Algorithmen manipulierte Video-, Audio- oder Foto-Dateien. »Das Thema wird weiter an Brisanz gewinnen: Durch das Fortschreiten der technischen Möglichkeiten werden manipulierte Dateien bald zur Normalität. Jeder von uns wird sie bequem und einfach auf seinem Smartphone erstellen können«, befürchtet Müller. Doch es gibt Möglichkeiten den Fälschungen auf die Schliche zu kommen und sie entsprechend zu kennzeichnen.  

Big Data braucht KI

»Oft ist es noch so, dass die klassischen Ansätze der IT-Sicherheit dann überlegen sind, wenn sich eindeutige Regeln anwenden lassen. Falls es diese klar definierten Regeln nicht gibt, sollte man den Einsatz von KI-Unterstützung prüfen. Die Stärken der KI liegen in der Anomalie-Erkennung, bei der Unterstützung statistischer Verfahren oder der Visualisierung großer Datensätze. Das ist auch für die IT-Sicherheit relevant, z. B. um breit angelegte Denial-of-Service-Attacken zu erkennen. »Und aktuell sind wir gerade dabei, KI-Algorithmen zuverlässiger zu machen, um noch komplexere Dienstleistungen zu erbringen«, sagt Müller.