Fraunhofer und FU Berlin untersuchen die Umsetzung von Sicherheitsaspekten in Maschinellen Lernverfahren

News / 29. Juli 2020

Aktuell geht es bei der Umsetzung von Maschinellem Lernen vor allem ums Tempo. Kommen dabei Sicherheitsaspekte zu kurz? Welchen Stellenwert hat Cybersicherheit hier bei den Unternehmen? Diese Fragen soll ein gemeinsames Forschungsprojekt der Fraunhofer-Institute für Angewandte und Integrierte Sicherheit AISEC und für Sichere Informationstechnologie SIT sowie des nationalen Forschungszentrums für angewandte Cybersicherheit ATHENE und der Freien Universität Berlin beantworten.

Unternehmen setzen Verfahren des Maschinellen Lernens (ML) immer stärker ein. Sie erhoffen sich dadurch Wettbewerbsvorteile, z. B. indem sie ihren Kunden neue Services anbieten oder ihre Prozesse optimieren. Um keine Zeit zu verlieren, werden die neuen Tools oft sehr schnell konzipiert und umgesetzt. Sicherheitsaspekte kommen dabei oft zu kurz. Die Bedrohungsszenarien sind vielfältig und reichen von Datenklau bis zur Manipulation der verwendeten Algorithmen und Daten. Gleichzeitig sind die verschärften Vorgaben hinsichtlich Datenschutz bei ML besonders relevant, da meist Nutzerdaten für das Training der Modelle verwendet werden. Hier fehlt insbesondere Wissen darüber, wie individuelle Datensätze das dahinterliegende Modell beeinflussen und wie offen die verwendeten Daten zugänglich sind. Nehmen Unternehmen diese Sicherheitsaspekte nicht ernst, drohen nicht nur wirtschaftliche und finanzielle Schäden, auch Ruf und Image sind in Gefahr.

Noch gibt es kaum Informationen darüber, inwieweit Sicherheitsaspekte bei ML-Verfahren in der Praxis mitgedacht werden. Dies herauszufinden ist das Ziel einer gemeinsamen Studie der Fraunhofer-Institute AISEC und SIT sowie ATHENE und der FU Berlin unter denjenigen, die ML-Verfahren bereits jetzt in Unternehmen einsetzen. Die Studienergebnisse werden Anfang nächsten Jahres vorgestellt.

Praktiker für Umfrage gesucht

Haben Sie in Ihren beruflichen oder privaten Projekten mit maschinellem Lernen (ML) zu tun? Dann nehmen Sie an unserer kurzen Umfrage teil. Sie soll das Bewusstsein für die Implementierung sicherer ML-Systeme bewerten. Mit 15 Minuten Ihrer Zeit können Sie ein wichtiges Forschungsprojekt dabei unterstützen, auf dem Gebiet der Sicherheit für ML voranzukommen.

Jetzt mitmachen