Die Neuauflage der schwarz-roten Koalition hat sich vorgenommen, Sicherheitsbehörden "den nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Internetdaten" etwa mithilfe Künstlicher Intelligenz (KI) zu erlauben. Doch just eine Studie von Europol – also aus dem Bereich Strafverfolgung selbst – gießt nun Wasser in den Wein der Überwachungsbefürworter. Biometrische Erkennungssysteme seien zwar "im Allgemeinen robust", heißt es in der Analyse. Doch es gebe zahlreiche Möglichkeiten, sie auszutricksen. Entscheidend sei daher, "die Schwachstellen solcher Systeme zu kennen". Anzeige Viele biometrische Erkennungssysteme gelten seit Längerem als geknackt. Attrappen mit digitalen Fingerprints erstellen etwa Hacker aus dem Umfeld des Chaos Computer Clubs (CCC) seit vielen Jahren. Auch Systeme zur Venen-, Iris- oder Gesichtserkennung haben sie umgangen. Das Operations- und Analysezentrum sowie das Innovationslabor von Europol vollziehen diese Schwachstellennachweise jetzt nach und leiten daraus Schlussfolgerungen für die Arbeit von Ermittlern ab. Die Autoren des veröffentlichten Berichts konzentrieren sich auf sogenannte Präsentationsangriffe auf das Erfassungsgerät. Diese zielen darauf ab, sich als legitimer Benutzer auszugeben oder die Erkennung zu umgehen. Im Kern wird dabei dem System zur Erfassung biometrischer Daten ein imitiertes oder gefälschtes biometrisches Merkmal untergejubelt, mit dem Ziel, das Verfahren zu stören oder auszuhebeln. Masken, Make-up, Morphing und Deepfakes Präsentationsangriffe, bei denen Fingerabdrücke nachgeahmt werden, können auch ohne Zustimmung einer Person durchgeführt werden, erläutert Europol. Bei solchen nicht einvernehmlichen Ansätzen würden Fingerprints von glatten oder nicht porösen Oberflächen wie Gläsern gewonnen. Alternativ könnten digital generierte Fingerabdrücke, die üblicherweise zum Trainieren biometrischer Erkennungssysteme verwendet werden, zur Erzeugung von Fälschungen beispielsweise per 3D-Druck genutzt werden. Fingerabdrücke ließen sich auch bewusst verändern, um einer Erkennung zu entgehen. Normalerweise würden Papillarleisten durch Arbeitsbedingungen oder Unfälle beschädigt, deren Zerstörung könne aber auch absichtlich erfolgen. Angesichts der Fülle digitaler Fotos in Sozialen Netzen und anderen öffentlichen Bereichen ist es den Verfassern zufolge auch leicht, Bilder in die Finger zu bekommen, um sich bei einer automatisierten Gesichtserkennung als eine andere Person auszugeben. Die Erfolgsquote des Identitätsbetrugs lasse sich etwa daran messen, ob diese Methode mit weniger anspruchsvollen Smartphones eingesetzt werden könne. Diese ließen sich manchmal sogar durch einen einfachen Papierausdruck täuschen. Als mögliche Angriffe in diesem Bereich beschreiben die Experten "Print and Screen Replay"-Angriffe, bei denen das Bild des Opfers der Kamera auf einem Ausdruck oder Bildschirm präsentiert wird, die Verwendung von Masken oder sogar nur Make-up. Etwas anspruchsvoller seien "Face Morphs", bei denen zwei Gesichter verschmolzen würden, "sodass beide Personen auf den Originalfotos mit demselben Morphing-Bild identifiziert werden können". Dieser Ansatz werde üblicherweise verwendet, um Fotos für Ausweisdokumente bereitzustellen. Zudem könnten Deepfakes mithilfe KI-generierter Bildern und Videos Identitäten und Stimmen täuschend ähnlich imitieren, sogar in Live-Situationen. Zu den Methoden zum Überlisten von Iriserkennung gehören Europol zufolge Papierausdrucke, Bildschirmanzeigen, künstliche Augäpfel und Replay-Angriffe. Oft kämen für diesen Zweck strukturierte Kontaktlinsen zum Einsatz. Anzeige Biometrische Daten sind besonders sensibel Umgekehrt gebe es inzwischen auch zahlreiche standardisierte Techniken zum Schutz biometrischer Merkmale und darauf basierender Erkennungssysteme, heißt es in der Untersuchung. Hardwarebasierte Verfahren konzentrierten sich auf das Erfassen zusätzlicher Daten, um erfolgreiche Angriffe zu verhindern. Mithilfe spezieller Software ließen sich Spuren von Präsentationsangriffen ausmachen. Die Einbeziehung von Faktoren für die Lebenderkennung sei für alle Modalitäten wichtig. Die Prüfung der sicheren Bewertungsschemata basiere aber nur auf bekannten Angriffen. Daher sei wichtig, auch die Entwicklung neuer Methoden zu antizipieren und das Wissen über neue Präsentationsangriffe zwischen Strafverfolgungsbehörden zu teilen. Entscheidend ist laut den Empfehlungen, den Identifizierungsprozess ganzheitlich zu betrachten – vom Moment der persönlichen Registrierung über die Verifizierung bis zur verschlüsselten Datenspeicherung. Es gelte zu bedenken, dass "schwache" biometrische Daten eines Systems für Angriffe auf andere Systeme missbraucht werden können. Daher erhöhten alle kompromittierten biometrischen Daten die Bedrohung für andere automatisierte Erkennungstechniken, unabhängig davon, wie sicher diese selbst seien. (nie)