key: cord-0064760-2bzryjau authors: Fiedler, Arno; Thiel, Christoph; Thiel, Christian title: Verlässliche Personenidentifizierung mittels Techniken der Künstlichen Intelligenz date: 2021-06-21 journal: Datenschutz Datensich DOI: 10.1007/s11623-021-1472-8 sha: b0a2c464ba29e5bb5ed8c8fe3f3e7d45f343d6f1 doc_id: 64760 cord_uid: 2bzryjau Künstliche Intelligenz hält zunehmend Einzug in unseren Alltag, auch die automatisierte Identifizierung natürlicher Personen wird davon erfasst. In diesem Artikel werden die dabei entstehenden Risiken erläutert und erste Vorschläge für die Zertifizierung geeigneter Sicherheitsmaßnahmen aufgezeigt. sische Präsenz der zu prüfenden Person auskommen und stattdessen remote mittels Videoübertragung durchgeführt werden. In den folgenden Abschnitten betrachten wir zunächst die grundlegenden Probleme und Risiken, die sich im Zusammenhang mit solchen Verfahren der Remote-Identifizierung ergeben. Wir diskutieren die aktuellen Rahmenbedingungen und Entwicklungen insbesondere hin zur automatisierten visuellen Identitätsprüfung bzw. des Identitätsnachweises. Die aktuellen Vorgaben klären allerdings nicht, wie die Verlässlichkeit der automatisierten Lösung bewertet werden kann. Implizit ist zumindest klar, dass es sich um KI-basierte Lösungen handeln wird. Wir betrachten daher die Möglichkeiten und Herausforderungen hinsichtlich der Standardisierung und Zertifizierung solcher Lösungen. Die Zunahme des digitalen Marktes hat die Idee der Remote-Identifizierung einer Person attraktiv gemacht, da die Remote-Identifizierung auch jenen Kunden, die physisch weit entfernt sind, den Zugang zu Identifizierungsdienstleistungen ermöglicht. Während der COVID-19-Pandemiekrise wurde die Möglichkeit, eine Person ohne physische Anwesenheit zu identifizieren, sogar noch wichtiger, da die physische Anwesenheit nicht nur umständlich ist, sondern sogar gefährlich sein kann, oder einfach nicht möglich ist, weil die Sicherheitsmaßnahmen zur Reduzierung der Auswirkungen der Pandemie eingehalten werden müssen. Die Möglichkeit des Remote-Identitätsnachweises fördert und erhöht die Möglichkeit elektronischer Transaktionen bei gleichzeitiger Sicherstellung der Gültigkeit der Identitäten der beteiligten Transaktionspartner. Die Verfahren der Remote-Identifizierung lassen sich unterteilen in Verfahren, bei denen ein Live-Agent in Echtzeit mit der zu prüfenden Person in einem Videochat verbunden ist und in automatisierte Verfahren, bei denen in bzw. nach einer Videositzung die Identität ohne Personaleinsatz, also unbeaufsichtigt und automatisiert, überprüft und validiert wird. Entsprechend des Identitätsnachweisprozesses, wie er in [1] und in ähnlicher Form in {2] skizziert wird, werden in beiden Fällen zusätzlich physische und / oder digitale Identitätsdokumente als Nachweis (Evidence) vorgezeigt. Der Ansatz mit Live-Agenten kann zu einer schlechten Benutzererfahrung führen, wenn z.B. ein Kunde im Web-/Online-Kanal warten muss, bevor er mit dem Agenten verbunden werden kann. Außerdem führt der Personaleinsatz zu erheblichen Kosten für den Anbieter. Automatisierte Verfahren erfordern aber eventuell weitergehende Maßnahmen, um zusätzliche Risiken zu kompensieren. Gerade im digitalen Umfeld ist aufgrund des fehlenden direkten persönlichen Kontakts und dem Wegfall der Anreise die Hemmschwelle für Missbrauchsversuche herabgesetzt. Entsprechend wichtig ist es für Hersteller bzw. Betreiber entsprechender Services eine Risikobewertung durchführen, um sicherzustellen, dass das Sicherheitsniveau dem Grad des Risikos angemessen ist, und um die Auswirkungen von Sicherheitsvorfällen zu minimieren. Derzeit gibt es in der aktuellen Literatur nur wenige Quellen zu Bedrohungen und Schwachstellen bzw. Verletzlichkeiten und weitergehend zu Risiken hinsichtlich von Verfahren der Remote-Identifizierung (s. [1] , [2] ). So empfiehlt [1] einheitliche Risikoanalysen, die systematisch durchgeführt werden sollten, um einen sicheren Nachweisprozess zu gewährleis- Entsprechend ihrer großen Bedeutung hat die EU-Kommission die elektronische Identifizierung als Voraussetzung der Nutzung von Vertrauensdiensten zu einem zentralen Element der "Verordnung über elektronische Identifizierung und elektronische Vertrauensdienste (eIDAS)" (s. [5] ) gemacht. Bevor Vertrauensdienste genutzt werden können, muss der potenzielle Nutzer (der Antragsteller) eindeutig identifiziert werden. Nur somit kann sichergestellt werden, dass Vertrauensdienste nur diejenigen Anwender erhalten, die dazu auch tatsächlich berechtigt sind. eIDAS definiert u.a. die Identifizierungs-Anforderungen, die Vertrauensdiensteanbieter mit dem höchsten Sicherheitsniveau -sogenannte qualifizierte Vertrauensdiensteanbieter -erfüllen müssen. eIDAS sieht in Art. 24 vor, dass eine Identitätsprüfung vor Ort durchgeführt werden muss oder eine der Vor-Ort-Prüfung gleichwertige Prüfung der Identität erforderlich ist. Ob eine Technologie diese Anforderungen erfüllt, wird von einer akkreditierten Konformitätsbewertungsstelle festgestellt. Auf diese Weise kann die Identifizierung grundsätzlich durch persönliche Anwesenheit oder aus der Ferne (remote) mittels elektronischer Identifizierungsmittel durchgeführt werden. Möglich sind auch andere Identifizierungsmethoden, vorausgesetzt, sie sind auf nationa-ler Ebene anerkannt und bieten eine der Anwesenheit vergleichbare Sicherheit. Hierzu fehlten in Deutschland bisher an automatische Remote-Identifizierungsverfahren angepasste Prüfkriterien. Die Bundesnetzagentur hat Anfang April 2021 im Einvernehmen mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und nach Anhörung des Bundesbeauftragten für den Datenschutz und der Informationsfreiheit offizielle Kriterien für die automatisierte optische Identitätsprüfung (Identifizierung einer natürlichen Person unter Nutzung einer Videoidentifizierung mit einem automatisierten Verfahren, [3] ) vorgelegt. Bislang gab es solche Kriterien lediglich für Video-Ident-Verfahren, bei denen die Verifizierung durch einen menschlichen Prüfer, also einen Live-Agenten, stattfindet. Grundlage für den neuen Kriterienkatalog ist das deutsche Vertrauensdienstegesetz, das die nationale Umsetzung der EU-weiten eIDAS-Verordnung in deutsches Recht darstellt [4] . Der nun von der Bundesnetzagentur und dem BSI veröffentlichte Kriterienkatalog schreibt für die automatisierte Identitätsprüfung u.a. folgende Anforderungen vor. Durchführung der Videoidentifizierung in Echtzeit und ohne Unterbrechung Ende-zu-Ende-Verschlüsselung der audiovisuellen Kommunikation zwischen der zur Videoidentifizierung mit automatisiertem Verfahren genutzten IT- Tatsächlich lassen diese notwendigen und sinnvollen Anforderungen aus [3] einen deutlichen Interpretations-und Gestaltungsraum, so dass im konkreten Fall einer Identifizierungslösung weitere Detaillierungen notwendig sind. Insbesondere sollten spezifischere Parameter für die Eignung und Angemessenheit von Maßnahmen vorgegeben werden. Damit stößt man zwangsläufig auf das Problem der Verlässlichkeit der zur Automatisierung genutzten Verfahren. Hier sind die Aspekte der automatischen Erkennung von Manipulationsversuchen (z.B. Manipulation des Videobildes und -tones) und der zeitlichen Aktualität des Identifizierungsvorganges zu beachten. Diese setzen zunehmend auf moderne KI-Systeme, und für diese ist nach unseren obigen Betrachtungen (Abschnitt 2 und 3) im Kern offen, wie eine entsprechende Sicherheit nachvollziehbar nachgewiesen werden kann. Es ist kaum vorstellbar, dass dieses ohne eine Zertifizierung entsprechend eines noch festzulegenden Standards denkbar ist. Auch aus Sicht des BSI (s. [ Im Vergleich zu bisherigen Standards im Umfeld der Identitätsprüfung und -nachweise ( [7] , [8] ) erscheint das grundlegende Problem im Zusammenhang mit der automatisierten Identifizierung zu sein, dass die dabei genutzten Techniken der künstlichen Intelligenz bei weitem noch nicht so gut verstanden werden wie klassische Techniken wie z.B. kryptographische Verfahren, Chipkarten etc. Das Black-Box-Problem beeinflusst die IT-Sicherheit und das Vertrauen in das Identifizierungsverfahren maßgeblich. Beispielsweise ist es bei komplexeren KI-Systemen häufig schwierig Auswirkungen von möglichen Angriffen vom statistisch bedingten Fehlverhalten der KI-Systeme zu unterscheiden, so dass ggf. Angriffe unerkannt bleiben oder es umgekehrt zu unberechtigten Alarmen kommt. Das Vertrauen in ein System, dessen Funktionsweise und einzelne Ausgaben bzw. Aktionen nicht vollständig verstanden oder erklärt werden kann, bleibt oft hinter dem Vertrauen gegenüber einem menschlichen Kontakt zurück. Somit besteht Anlass zu der Sorge, dass KI-gestützte Verfahren, welche für »Deep Fakes« verwendet werden, erfolgreicher zum Einsatz kommen als die Verfahren, welche für eine remote-Identifizierung verwendet werden. Electronic Signatures and Infrastructures Policy and security requirements for trust service components providing identity proofing of trust service subjects REMOTE ID PROOFING Analysis of methods to carry out identity proofing remotely, ENISA Vorläufige Anerkennung einer innovativen Identifizierungsmethode gemäß § 11 Absatz 3 VDG Vertrauensdienstegesetz (VDG) on electronic identification and trust services for electronic transactions in the internal market and repealing Directive 1999/93/EC[6] Mandate M460: "Standardisation Mandate to the European Standardisation Organisations CEN, CENELEC and ETSI in the Field of Information and Communication Technologies Applied to Electronic Signatures Bundesamt für Sicherheit in der Informationstechnik Technische Richtlinie TR-03147 Vertrauensniveaubewertung von Verfahren zur Identitätsprüfung natürlicher Personen, Bundesamt für Sicherheit in der Informationstechnik ETSI TR 119 460 Electronic Signatures and Infrastructures (ESI); Survey of technologies and regulatory requirements for identity proofing for trust service subjects ETSI TR 119 461 Electronic Signatures and Infrastructures (ESI); Policy and security requirements for trust service components providing identity proofing of trust service subjects