Unsere Gesichter sind einzigartig. Sie unterscheiden sich anhand biometrischer Merkmale voneinander, etwa der Position und Abstände von Nase, Augen, Mund und Kinn. Diese Daten lassen sich auf Fotos automatisch und massenhaft erfassen. Damit lassen sich Gesichtersuchmaschinen bauen, die Menschen anhand eines Schnappschusses wiedererkennen und identifizieren können. Das ist keine Science-Fiction, sondern Realität: Eine Recherche von netzpolitik.org hat vor zwei Jahren gezeigt, wie die polnische Firma PimEyes ihre Gesichtersuchmaschine damals kostenlos für alle zur Verfügung gestellt hat.
Die Recherchen hatten in Deutschland ein großes Medienecho ausgelöst. Unter anderem haben der SPIEGEL und der WDR berichtet, ein datenschutzrechtliches Verfahren gegen PimEyes wurde eingeleitet. Nach Einschätzungen von Expert:innen verletzte PimEyes die Europäische Datenschutz-Grundverordnung (DSGVO). Biometrische Daten dürfen demnach nicht ohne Einverständnis der betroffenen Personen erfasst werden. Außerdem untersagt die DSGVO, dass biometrische Daten verwendet werden dürfen, um eine natürliche Person eindeutig zu identifizieren.
Die Konsequenzen für PimEyes hielten sich in Grenzen, denn PimEyes hatte sich zwischenzeitlich auf die Seychellen abgesetzt. Inzwischen steht in den Nutzungsbedingungen eine Adresse im mittelamerikanischen Land Belize. Das ändert zwar wenig an möglichen Verstößen gegen die DSGVO – aber viel an der Durchsetzbarkeit von Maßnahmen wie beispielsweise einem Bußgeld. Nun ist erneut eine biometrische Gesichtersuchmaschine in Polen aufgetaucht. Vieles daran erinnert an PimEyes. Beteiligt sind etwa die PimEyes-Gründer Łukasz Kowalczyk und Denis Tatina. Der Name des Angebots lautet Public Mirror.
Wir wollten von Public Mirror wissen, ob die Gesichtersuche dieselbe Datenbank wie PimEyes nutzt. PimEyes hatte nach eigenen Angaben mehrere Hundert Millionen Gesichter erfasst – potenziell könnte jeder Mensch betroffen sein, dessen Foto im Internet ist. Public Mirror hat unsere E-Mail nicht beantwortet.
Neues Image, alter Service
Generell funktioniert eine biometrische Gesichtersuchmaschine so: Die Datenbank besteht aus biometrischen Daten von Millionen Gesichtern. Im Fall von PimEyes stammten sie aus dem Internet, inklusive der Links zu den dazugehörigen Fotos. Bei einer Suchanfrage erhält die Gesichter-Suchmaschine zuerst ein Bild von einem Gesicht, erfasst dessen biometrische Daten und durchforstet dann die eigene Datenbank nach möglichen Übereinstimmungen. Das Ergebnis sind Gesichter mit denselben oder zumindest sehr ähnlichen Merkmalen und Proportionen.
Public Mirror ist bereits seit August 2020 in dem polnischen Handelsregister vermerkt und hat ebenfalls wie PimEyes seinen Gründungsort in Wrocław. In den öffentlich verfügbaren Dokumenten stehen zwei Geschäftsleute als Anteilseigner von Public Mirror: Łukasz Kowalczyk und Denis Tatina. Wir wollten wissen, welche Rolle die beiden in dem neuen Unternehmen spielen – keine Antwort von Public Mirror.
Auf der eigenen Website präsentiert sich Public Mirror als kostenpflichtiges „Analysetool“, mit dem Nutzer:innen weiteres Bildmaterial über sich im Netz finden sollen. Auf Englisch steht dort: „Public Mirror findet Erwähnungen von Ihnen, die auf der Grundlage Ihres Fotos im Internet veröffentlicht wurden.“ Die Suchmaschine suche ausdrücklich nicht nach dem Namen einer Person, sondern nach Bildern. Erst über die Suchergebnisse im Netz lassen sich gegebenenfalls Namen finden. Nach diesem Prinzip hat auch PimEyes funktioniert.
Public Mirror spricht auf der eigenen Website Menschen an, die in der Öffentlichkeit stehen, etwa Influencer:innen oder Promis. Sie sollen mit der Suchmaschine herausfinden können, wie populär sie weltweit sind und wie erfolgreich ihre PR-Kampagne läuft. Auch andere Nutzer:innen könnten die Such-Software nutzen, um sicherzustellen, „dass Bilder nicht in die falschen Hände geraten sind.“
Der Knackpunkt: Um diesen Service überhaupt liefern zu können, braucht Public Mirror eine entsprechend umfangreiche Datenbank. Public Mirror verspricht, mit diesem Wissen vertrauensvoll umzugehen: „Wir garantieren unseren Kunden vollen Datenschutz und halten Ihre Ergebnisse geheim.“
Public Mirror schreibt in seinen Datenschutzrichtlinien, kein Bildmaterial oder anderweitige Informationen von Social-Media-Plattformen zu beziehen. PimEyes hatte für seine Datenbank zunächst auch Social-Media Plattformen durchforstet, aber nach Kritik damit aufgehört.
Kritik an Public Mirror: „gewaltige Überwachungsdatenbank“
Als netzpolitik.org vor zwei Jahren über das Missbrauchspotenzial von PimEyes berichtet hat, reagierten Datenschutzexpert:innen und Politiker:innen aus dem Bundestag. Sie haben die biometrische Suchmaschine scharf kritisiert. Der baden-württembergische Datenschutzbeauftragte Stefan Brink hat ein Verfahren gegen das Unternehmen eingeleitet.
Wir haben die Datenschutzbehörde nun auf Public Mirror angesprochen. Ein Sprecher schreibt: „Die Neufirmierung zeigt auch, dass das Geschäftsmodell nach wie vor aktuell ist und datenschutzrechtlich genauestens beobachtet werden muss.“ Die Konsequenzen der Software seien gefährlich für unsere Demokratie, so der Sprecher weiter. Sie bedrohe nicht nur das Recht der Bürger:innen auf informationelle Selbstbestimmung, sondern auch andere Grundfreiheiten.
Der SPD-Europaabgeordnete Tiemo Wölken schreibt auf Anfrage von netzpolitik.org, die Rückkehr von PimEyes mit Public Mirror sei vor allem ein ganz klarer Arbeitsauftrag für das Parlament und die Mitgliedstaaten im Rat. Er fordert: „Wir müssen das Verbot der Gesichtserkennungstechnologie gegen kommerzielle und behördliche Interessen verteidigen.“
Der Informatiker Matthias Marx beschäftigt sich mit den datenschutzrechtlichen Konsequenzen von Gesichtserkennung. Über Public Mirror schreibt er auf Anfrage von netzpolitik.org: „Die Bilder von Millionen von Menschen werden ohne deren Einverständnis biometrisch verarbeitet – eine gewaltige Überwachungsdatenbank wird aufgebaut. Insofern ist Public Mirror genauso illegal in der EU wie die Gesichtersuchmaschine PimEyes“. Public Mirror sieht das wohl anders – in den eigenen Datenschutzrichtlinien schreibt das Unternehmen, es handele auf Grundlage der DSGVO.
Public Mirror kennt wohl auch das Gesicht von Matthias Marx, das hat er selbst getestet. Er hat das Unternehmen aufgefordert, ihm die über ihn gespeicherten persönlichen Daten zu schicken. Als Antwort habe er einen Bericht mit Suchergebnissen von Public Mirror erhalten. Die Treffer zeigen, dass Public Mirror offenbar Marx‘ biometrische Daten verarbeitet hat, obwohl er einer Erfassung und Speicherung nie zugestimmt hat. Marx habe sich deshalb bereits an den Hamburgischen Datenschutzbeauftragten gewandt.
Hürden zum Missbrauch der Suchmaschine leicht überwindbar
Das Missbrauchspotenzial einer Gesichtersuche besteht unter anderm darin, dass Menschen damit durch beispielsweise Stalker:innen oder Strafverfolgungsbehörden identifiziert und verfolgt werden könnten. Public Mirror hat dagegen Hürden hochgezogen. Die Nutzungsbedingungen von Public Mirror verbieten es, ein Konto mit Bilder und Daten von Dritten zu erstellen. Um ein hochgeladenes Gesicht zu suchen, sollen Nutzer:innen zuerst Echtzeit-Aufnahmen per Webcam liefern. Damit soll verifiziert werden, dass Nutzer:innen wirklich nur ihr eigenes Gesicht suchen.
Sie sollen ihr Gesicht dabei von vorne, rechts und links zeigen. Aber unsere Recherchen zeigen, dass diese Hürde leicht umgangen werden kann, etwa mit einer virtuellen Webcam. Damit lassen sich zuvor gespeicherte Aufnahmen vom eigenen Gerät verwenden, als wären sie Echtzeit-Aufnahmen aus der Webcam. Wer eine fremde Zielperson auf Public Mirror suchen möchte, bräuchte also nichts weiter als Fotos der Person aus den entsprechenden Winkeln. Wir haben das selbst mit dem Gesicht eines Redaktionsmitglieds ausprobiert und haben eine Suche durchführen können.
Es ist also nach wie vor möglich, mit Public Mirror die digitalen Spuren eines anderen Menschen zu überwachen. Das ist insbesondere für vulnerable Personen eine Gefahr. Biometrische Suchmaschinen können etwa die Identität von Sexarbeiter:innen und politische Aktivist:innen aufdecken. Der Sprecher des Datenschutzbeauftragten Baden-Württemberg schreibt: „Wenn insbesondere biometrische Daten der Nutzer:innen verwendet werden, um übereinstimmende Fotos aus dem Netz zu finden, besteht jedoch das enorme Risiko, dass jede politische, religiöse, sexuelle oder andere private Angelegenheit auf einfachstem Wege mit der jeweiligen Person direkt verknüpft werden kann.“
Datenschutzbeauftragter: Public Mirror „widersprüchlich“
Der Datenschutzbeauftragte kritisiert die öffentlichen Erläuterungen von Public Mirror. Einerseits erklärt Public Mirror in seinen Datenschutzrichtlinien, die Identität der Menschen auf den gefunden Bildern nicht zu kennen. Auf der Website heißt es, Public Mirror würde die Daten nicht sammeln, um eine natürliche Person eindeutig zu identifizieren. Andererseits sollen Nutzer:innen mit Public Mirror erfahren können, wo sie erwähnt wurden, sei es in den Nachrichten, Blogs, Foren und mehr. „Die Angabe des Unternehmens, Daten von nicht identifizierten Personen zu nutzen, ist vor dem Hintergrund des angebotenen Geschäftsmodells aus Datenschutzsicht nicht nachzuvollziehen“, schreibt ein Sprecher.
Das Bündnis Reclaim Your Face fordert die Europäische Kommission auf, biometrische Massenüberwachung ganz zu verbieten. Sie sehen eine Gefahr für Rechtsstaatlichkeit und Grundfreiheiten. Der SPD-Europaabgeordneter Tiemo Wölken schreibt auf Anfrage von netzpolitik.org, die neue Präsenz von Public Mirror zeige, wie wichtig ein explizites Verbot von Gesichtserkennungstechnologien sei. Er sehe bisher keinen Anwendungsfall, in dem die massenhafte Speicherung und Durchsuchung unserer persönlichsten biometrischen Daten mit unserer freiheitlichen Gesellschaftsordnung vereinbar ist.
In den knapp zwei Jahren seit der Kritikwelle an PimEyes haben Politik und Behörden langsam reagiert. Das internationale Vorgehen gegen Gesichtersuchmaschinen wird auch durch unklare Zuständigkeiten erschwert – das zeigt etwa der Fall von Clearview AI, einer Gesichtersuchmaschine für Ermittlungsbehörden. Matthias Marx sagt: „Eigentlich müssten die europäischen Datenschutzbehörden bei solch eklatanten und offensichtlichen Verstößen koordiniert und zeitnah handeln.“ Der besondere Schutz biometrischer Daten, wie in der DSGVO vorgesehen, bleibe sonst vor allem theoretischer Natur.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
0 Commentaires