Auch Sie nutzen sicher schon Gesichtserkennung zu Hause: Nahezu jedes aktuelle Smartphone findet automatisch Gesichter – meistens um fröhliche Menschen statt verkniffener Gesichtszüge abzulichten. Bei den neueren iPhones können Sie nur noch nach einem Blick in die Kamera auf das Gerät zugreifen. Viele Notebooks verwenden Kameras mit Windows Hello, um das Betriebssystem freizugeben. Oder Sie können sich für das Smart Home eine Kamera als Ersatz für das Haustürschloss kaufen, mit dem Sie Ihre Haus- oder Wohnungstür quasi auflächeln.
Doch die Technik setzt sich ebenfalls im öffentlichen Raum durch: Am Berliner Südkreuz testete die Bundespolizei in einem Pilotprojekt Gesichtserkennung. Millionen Reisende schätzen die Bequemlichkeit der automatisierten Grenzkontrolle: Allein in Deutschland gibt es über 180 Kontrollspuren von Easypass an sieben Flughäfen, des Weiteren Tausende von E-Gates weltweit. 51 Länder benutzen automatisierte Grenzkontrollen per Biometrie: Ein Staat verwendet die Iris zur Identifikation der Einreisenden, zwölf Staaten nutzen Fingerabdrücke, die große Mehrheit jedoch hat sich für die Gesichtserkennung entschieden.

Ist Big Brother schon Realität? Oder zeugt die Ablehnung dieser Technik von paranoider Fortschrittsfeindlichkeit? Zwischen diesen Positionen bewegt sich die Diskussion zur Gesichtserkennung: Befürworter sehen in ihr ein Wundermittel, das flächendeckend Sicherheit gewährleistet, Kritiker brandmarken sie als Teufelszeug, das die Privatsphäre vernichtet. Doch nur wer versteht, was Gesichtserkennung leistet, kann sich eine fundierte Meinung bilden.
Test: Apples iPhone-Gesichtserkennung am sichersten
Was sich alles aus einem Gesicht erkennen lässt

Um eine Person anhand ihres Gesichts zu erkennen, müssen Sensoren ihre charakteristischen Merkmale erfassen. Das können beispielsweise die Koordinaten von markanten Punkten, Linien oder anderen messbaren Objekten im Gesicht sein. Wichtig ist dabei, dass diese sich über einen ausreichend langen Zeitraum stabil und mit vertretbarem Aufwand messen lassen sowie dass alle Menschen diese Merkmale in unterschiedlichen Ausprägungen besitzen.
Ein System zur Gesichtserkennung muss sich für jede Person, die es wiedererkennen soll, die erfassten Merkmale merken. Hier beginnen die Probleme: Denn aus dem Gesichtsbild eines Menschen kann man nicht nur seine Identität, sondern auch detailliertere Daten ableiten, wie etwa Alter, Geschlecht, ethnische Herkunft, Stimmung, Body-Mass-Index. Als Nächstes muss sichergestellt sein, dass sich alle relevanten Merkmale korrekt erfassen lassen: Das ist bei Gesichtern nicht immer einfach. Der meistgenutzte Bereich im Gesicht, aus dem Merkmale erfasst werden, ist die Augenregion. Verbirgt sie sich hinter einer großen Sonnenbrille, ist die Erfassung problematisch, ebenso mit Mütze und Schal. Sonnenbrillen und Mützen zu verbieten, damit die Überwachungskameras geeignete Gesichtsbilder liefern, erscheint aber weltfremd. Andererseits hängt es entscheidend von der Qualität der gemerkten Merkmale ab, wie leistungsfähig eine Gesichtserkennung arbeitet. So wird ihr Erkennungsalgorithmus mehr Fehler machen, wenn das gespeicherte Referenzmaterial schlecht ist. Es hat einen Grund, warum die Anforderungen an Passbilder streng sind und noch strenger werden. Außerdem stellt sich die Frage, ob diese Gesichtsdaten in einer zentralen oder verteilten Datenbank oder beim Merkmalsträger, sprich Bürger gespeichert sind? Hat der Merkmalsträger die Verfügungsgewalt über seine Daten, kann sie niemand anderer ungefragt verwenden – sofern das dafür genutzte System bestimmungsgemäß eingerichtet ist. Er ist dann aber auch auf jeden Fall selbst dafür verantwortlich, seine Daten zu schützen.
Fotos oder Masken: Wie sich Erkennungssysteme überlisten lassen

Ein Gesichtserkennungssystem lässt sich überwinden, indem man ihm ein Artefakt präsentiert, etwa eine Maske oder ein ausgedrucktes Foto. Das System muss das Artefakt akzeptieren und darauf die verwendeten Merkmale erfassen können. Oder man bringt den echten Merkmalsträger unter Ausnutzung von Zwang oder Hilflosigkeit zur Präsentation. Dieses Szenario kann aber leicht abgewehrt werden. Schon jetzt können Gesichtserkennungsalgorithmen Stimmungen erfassen. Daher wird es nicht lange dauern, bis Verfahren vorliegen, die Zwang, Schlaf oder Ohnmacht ausreichend gut identifizieren.
Schwieriger ist der Schutz vor Artefakten. Doch auch hier lassen sich Lösungen entwickeln: Präsentiert ein Angreifer ein zweidimensionales Objekt, so lässt sich das mit jeder 3D-Technologie erkennen. Hierfür muss man nicht tief in die Trickkiste der Elektronik greifen: Dafür genügen zwei Kameras für stereoskopisches Sehen, ein Projektor für strukturiertes Licht oder eine sogenannte Time-of-flight-Kamera zur Distanzmessung liefern hier gute Ergebnisse. Den Angriff mit einem Tablet oder einem Farbfoto erkennt eine Nah-Infrarot-(NIR)- Kamera, die im Biometrie-System integriert ist. Denn viele Pigmente in Drucken sowie Fotos sind außerhalb des sichtbaren Spektrums unkenntlich. Dabei muss eine Kamera nur für Nah-Infrarot nicht kostspieliger sein als eine gewöhnliche Webcam.
Generell unterscheiden sich zahlreiche Artefakte in ihrer spektralen Reaktion außerhalb des sichtbaren Lichts von der menschlichen Haut. NIR ist lediglich ein Beispiel. Außerdem zwinkern ausgedruckte Porträts nie, bewegen nicht die Augen und verziehen auch nicht das Gesicht.

©Easypass
Bleiben dreidimensionale Masken als mögliche Überlistungsstrategie: Sofern ein Angreifer darauf achtet, die richtigen Pigmente auszuwählen, erzielt dieser nicht nur im Weißlicht, sondern auch im NIR die richtige „Farbe“. Augenbrauen und Lippen vergessen Angreifer aber oft. Eine Maske, mit der man nicht nach einer missglückten Botox-Behandlung aussieht, muss dünn sein. Davon mit eignet sie sich vor allem für einen Angreifer, der eine ähnliche Gesichtsstruktur wie der Angegriffene hat. Es kann also nicht jeder Angreifer jede Zielperson angreifen. Aber auch gegen einen Maskenangriff lässt sich ein Erkennungssystem schützen: Die Maske muss zwingend Augen- und Nasenlöcher haben, wahrscheinlich ebenfalls ein Mundloch – andernfalls ließe sich der Überlistungsversuch aufgrund des ungewöhnlichen Aussehens mittels Bildverarbeitung entdecken. Um diese Gesichtslöcher herum gibt es einen Absatz, an dem sich Material, Textur und Temperatur ändern. Eine Wärmebildkamera zeigt beim Ein- und Ausatmen sehr starke Veränderungen um die Nasenlöcher, außer der Angreifer befindet sich in einer Umgebung mit Körpertemperatur. Gegen Angriffe lässt sich also einiges unternehmen. Ob das in einem konkreten Fall notwendig ist, ergibt die Bedrohungsanalyse: In dieser werden vorhandene Risiken benannt und bewertet und gegen die Kosten von möglichen Lösungen zur Risikoabwehr abgewogen. Für jeden Angriff braucht es einen Angriffspunkt und einen fähigen Angreifer, der einen Nutzen davon hat.
Web-Authentifizierung: Warum das Passwort so schnell nicht aussterben wird
Die schlimmsten Fehler eines Erkennungssystems
Ein System zur Gesichtserkennung soll da- zu dienen, eine Person zu authentifizieren. Dazu muss es die Frage beantworten, ob ein zu einer behaupteten Identität hinterlegter Merkmalssatz zu den Daten passt, welche die Person vor dem Sensor abgeliefert hat. Die aktuellen Daten werden immer nur ungefähr mit den hinterlegten Referenzdaten übereinstimmen. Denn Menschen ändern sich – im Laufe des Lebens, selbst im Tagesverlauf. Der verwendete Algorithmus muss also entscheiden, ob diese zwei Datensätze ähnlich genug sind, um sie derselben Person zurechnen zu können.
Er kann hierbei zu dem Schluss gelangen, dass die Datensätze übereinstimmen oder nicht. Es kann aber auch vorkommen, dass eine Person fälschlicherweise als nicht ähnlich genug zu ihrem hinterlegten Datensatz bewertet wird – eine falsche Nicht-Übereinstimmung. Dies lässt sich oft durch einen erneuten Versuch korrigieren, unbequem und peinlich bleibt der Fehler jedoch trotzdem. Der für die biometrische Sicherheit schlimmste Fehler ist, eine falsche Person als ähnlich genug zu hinterlegten Daten einzustufen. In diesem Fall liegt eine falsche Übereinstimmung vor. Beide Fehler hängen zusammen: Der Anteil der Falsch-Übereinstimmungen nimmt lediglich ab, wenn gleichzeitig der Anteil der Falsch- Nicht-Übereinstimmungen zunimmt.
Das perfekte System vereinbart Datenschutz und Sicherheit

©Microsoft
Probleme bei der Erkennung lassen sich wie dargestellt technisch lösen. Bleibt die Frage des Datenschutzes. Die hierfür seit Langem verankerten und akzeptierten Prinzipien der Transparenz, Datensparsamkeit, Zweckbindung und Angemessenheit werden immer wichtiger. Erkennungssysteme müssen diese Prinzipien unterstützen. Es gibt beispielsweise keinen Zwang, Bilder oder extrahierte Merkmale länger zu speichern als notwendig. Wird eine Anwendung so entworfen, dass nur die beabsichtigte Nutzung der biometrischen Daten möglich ist, kann Missbrauch erschwert werden.
Will ein Händler seinen Kunden – passend zu Alter und Geschlecht – personalisierte Werbung über ein Display anbieten, ist es nicht verwerflich, die Daten „Alter“ und „Geschlecht“ zu nutzen, sofern sie nicht mit anderen Daten verknüpft werden. Ist die Anwendung so konzipiert, dass sie die aufgenommenen Bilder verwirft, nachdem Alter und Geschlecht bestimmt wurden, lassen sich keine anderen Daten gewinnen. Zumindest bis man darauf vertrauen kann, dass Softwarehersteller ihre Systeme spezifikationsgetreu konzipiert haben, sind unabhängige Prüfer jedoch hilfreich. Wenn bei der Entwicklung von Anfang an datenschutzgerechte Funktionalität gedacht („Privacy by Design“ wird, muss das nicht teurer werden als eine nachträgliche Anpassung.
In der EU gibt es inzwischen zahlreiche Forschungen und Fördergelder zum Thema „Privacy by Design“. Sobald entsprechende Systeme verfügbar sind, werden die Benutzer entscheiden, wie wichtig ihnen der Umgang mit ihren Daten ist. Sind datenschutzfreundliche Systeme bei den ersten großen Kunden erfolgreich, steigt der Druck auf deren Konkurrenten, mitzuziehen.
Ein praxisnahes Beispiel: Bei einer bestimmten Dienstleistung muss sichergestellt werden, dass sie immer von derselben Person in Anspruch genommen wird. Das gilt etwa für eine personengebundene Monatskarte im öffentlichen Nahverkehr. Dabei ist es für den Busfahrer nicht wichtig, welche Person einsteigt – es muss nur die sein, für die die Fahrkarte gilt. Das kann Gesichtserkennung komfortabel leisten. Beim Kauf oder bei der erstmaligen Nutzung der Monatskarte würde ein Gesichtsbild erfasst und aus diesem ein Merkmalsvektor für ein passendes Vergleichsverfahren extrahiert und gespeichert. Dieser Vektor ist so beschaffen, dass mit ihm eine Profilbildung von Benutzern ohne weitere Daten kaum möglich ist.
Dies geht, wenn ein ausreichender Anteil der Bevölkerung zu diesem Merkmalsvektor „passen“ würde. Damit könnten zwar theoretisch ziemlich viele Personen diese Monatskarte benutzen – welche das sind, ist aber nicht vorher bestimmbar. Eine beliebige Weitergabe der Karte funktioniert nicht. In einer Bedrohungsanalyse findet der Anbieter heraus, wie „gut“ die biometrische Komponente arbeiten muss. „Schwächere“ Merkmalsvektoren benötigen weniger Platz, „schwächere“ Vergleichsverfahren weniger Rechenleistung. Ordentlicher Datenschutz kann also sogar günstiger sein.
Technik und Datenschutz gehen zusammen
Aktuelle Technologie ermöglicht schon jetzt leistungsfähige Gesichtserkennungssysteme, die für zahlreiche Anwendungen ein passendes Sicherheitsniveau erlauben und dabei datenschutzfreundlich arbeiten können. Dass letzteres tatsächlich geschieht, sollte der mündige Verbraucher von seinen Technologielieferanten verlangen. Wenn es genügend Kunden fordern, wird die Industrie entsprechend liefern.
Ähnliches gilt auch für die Politik: In Brüssel hat man erkannt, dass „Privacy by Design“ keine leere Sprachhülse ist. Die EU-Datenschutz-Grundverordnung wird hoffentlich dabei helfen, das Recht auf Datenhoheit zu stärken. An der Technologie selbst wird es jedenfalls nicht liegen. Daran, wie sie verwendet wird, wirken wir alle mit.