Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

We fight for your digital rights!: „Die erfassen Milliarden Gesichter biometrisch – ohne jede Zustimmung.“

Biometrische Suchmaschinen schnappen sich unsere Gesichter und attackieren unsere Anonymität. Sie erschaffen eine Welt, in der niemand unerkannt bleibt. Sebastian Meineck, Redakteur bei netzpolitik.org, begann seine Recherche zu Gesichter-Suchmaschinen, indem er selbst ein Foto von sich hochlud – und staunte.

Kommt mit uns in den Maschinenraum von netzpolitik.org: In sechs Videos und persönlichen Einblicken zeigen wir euch, mit welchen Prinzipien und mit welchen Mitteln unsere Redaktion arbeitet. CC-BY-NC-SA 4.0 – Foto: Darja Preuss, Bearbeitung: netzpolitik.org – owieole

Es geht hier um nichts anderes als die Rechte von Menschen mit Gesicht. Also um alle. Du kannst dir das so vorstellen: Du bist unterwegs, du steigst in den Bus, und dann sitzt dir ein Creep gegenüber, macht ein Foto von dir, und sofort weiß er alle Eckdaten über dich: Name, Beruf, Adresse vom Arbeitgeber, Hobbys, Social-Media-Posts, und wer deinen letzten Tweet geteilt hat. Und dann spricht er dich direkt mit Namen an: Hey, Sebastian Meineck! All das ist möglich mit biometrischen Gesichter-Suchmaschinen.

Wir hatten da zuerst einen Vergleich gebracht: Das ist, als hättest du deinen Namen auf der Stirn tätowiert. Aber inzwischen glaube ich, das trifft es immer noch nicht. Es ist mehr als nur der Name. Eigentlich ist es so, als würdest du eine Info-Mappe um deinen Hals tragen, voller Eckdaten über dein Leben, und alle können die einfach durchblättern. Hier geht es um das Recht auf Anonymität und um das Recht auf informationelle Selbstbestimmung.

Angefangen hat das alles im Jahr 2020, im Sommer. Ich wollte gerade ins Bett gehen. Und wie man das so macht, hab ich vorher noch mal kurz bei Twitter reingeschaut. Immer eine schlechte Idee. Und da hatte mich jemand in einem Tweet getaggt mit dem Hinweis, da ist etwas, das könnte mich interessieren. In dem Tweet war ein Link zu einer Website: pimeyes.com. Die habe ich mir angeschaut und zuerst gedacht: Das ist doch irgendein Scam.

Oder?

Meine Doppelgänger und ich

PimEyes ist eine Gesichter-Suchmaschine, auf der du das Foto einer Person hochlädst, und dann kommen noch mehr Fotos dieser Person, plus die Links zu den Fundorten im Netz. Als ich das 2020 gesehen habe, dachte ich: Das wird nie im Leben so funktionieren. Technisch möglich wäre das, aber einfach so offen im Netz würde das niemand anbieten, viel zu krass.

Ich habe dann ein Foto von mir hochgeladen, das ich überall als Profilbild verwende, und im nächsten Moment wusste ich: Wow, diese Suchmaschine funktioniert doch! Und zwar richtig gut. Die Gesichter-Suchmaschine hat viele andere Fotos von mir gefunden, einige Uploads kannte ich noch nicht.

Weiter unten in den Suchergebnissen kamen dann Gesichter, die meinem erstaunlich ähnlich sehen, und ich fand das ziemlich surreal. Da waren einfach Dutzende Männer, die genauso wie ich blond sind, einen Bart und eine Brille mit Rand tragen. Ich habe noch nie so viele potenzielle Doppelgänger auf einmal gesehen.

Man muss dazu sagen, ich habe nicht lange gezögert, da mein Foto hochzuladen, weil ich wenig befürchtet hatte. Ich habe schon früher kaum private Fotos von mir ins Internet gestellt, auch nicht auf Facebook oder SchülerVZ. Es gibt auch keine Fotos von mir auf irgendwelchen Nullerjahre-Partys, die dann vom Party-Fotograf*innen auf einer Website geteilt wurden. Trotzdem war ich schwer beeindruckt von der Gründlichkeit der Suchergebnisse. Plötzlich war eine Stunde vorbei, und ich bin später als geplant und mit klopfendem Herzen ins Bett gegangen – und wusste: Dazu muss ich eine Recherche machen. Zufällig war das auch meine allererste Recherche für netzpolitik.org.

Wir überwachen die Überwacher

WE FIGHT FOR YOUR DIGITAL RIGHTS

Jetzt Spenden

Vom Privileg, nicht bedroht zu sein

Es ist ein Privileg, dass ich von so einer Gesichter-Suchmaschine auf den ersten Blick nichts zu befürchten hatte. Als Journalist halte ich mein Gesicht freiwillig vor Kameras, es gehört zu meinem Beruf, dass man mich und meine Inhalte finden kann. Aber das ist völlig anders bei manchen vulnerablen Personen.

Ich denke da an Menschen in autoritären Regimen, die auf Demos gehen und dann über ihr Gesicht identifiziert werden können. Das kann für einige bedeuten, dass sie verfolgt und verhaftet werden. Ich denke auch an Sexarbeiter*innen, die mit einer Gesichter-Suchmaschine identifiziert werden können. Viele halten ihren Beruf geheim, weil sie sonst massive Benachteiligung erfahren können, bis hin dazu, dass ein*e Vermieter*in sie aus der Wohnung schmeißt.

Im Sommer haben wir beobachtet, was für Gesichter die Leute in einer Telegram-Gruppe suchen, die mit PimEyes verknüpft war. Das war eine einzigartige Gelegenheit, um in Echtzeit zu verfolgen, wofür sich PimEyes-Nutzer*innen interessieren. Das waren vorwiegend Männer, und sie haben vorwiegend Gesichter von fremden Frauen gesucht, die sie „heiß“ fanden. PimEyes selbst hat dazu gesagt, das sei nicht repräsentativ. Die Telegram-Gruppe war auch kein offizielles Angebot der Firma. Für mich zeigt das aber klar: Die Anonymität von uns allen ist durch solche Gesichter-Suchmaschinen in großer Gefahr.

Es ist ja nicht nur, dass wir durch Gesichter-Suchmaschinen gefunden werden können. Es kann auch sein, dass wir verwechselt werden. Die Gesichter-Suchmaschine kann sich irren. Stellen wir uns vor, die Polizei fahndet nach Verdächtigen, und prompt bekommen Unbeteiligte ernste Probleme, weil die Gesichter-Suchmaschine sagt: Dieser Mensch sieht dem Verdächtigen am ähnlichsten. Was für eine Bedrohungslage!

Der Geist ist aus der Flasche

Das ganze ist eine rechtliche Grauzone. Ich würde sagen: Dunkelgrauzone. Die entscheidende Frage ist: Konnten die Leute, die da biometrisch erfasst wurden, dieser Erfassung vorher zustimmen? Haben die wirklich alle ihre informierte Einwilligung gegeben? Über Jahre hinweg wird politisch ausführlich darüber diskutiert, wie gefährlich biometrische Anwendungen sein könnten und wie man die Gefahren von sogenannter Künstlicher Intelligenz einschränken kann. Aber der Geist ist längst aus der Flasche.

Gesichter-Suchmaschinen für alle sind jetzt da, und die sind erstaunlich effektiv. Man muss sich nun entscheiden: Wollen wir das wirklich? Wie können wir vulnerable Leute vor den Konsequenzen schützen? Unsere Berichterstattung hat bewirkt, dass Nachrichtenmedien in Deutschland das auf dem Schirm haben und selbst weiter aufgreifen. Über PimEyes wurde zuvor schon auf Englisch berichtet, aber wir haben das Thema erstmals politisiert.

Der klassische Ansatz vieler Nachrichtenmedien ist eine Warnung an das Publikum: Achtung, so funktionieren Gesichter-Suchmaschinen, passt auf, was ihr mit euren Fotos macht. Für uns ist das aber nicht genug. Wir schauen darüber hinaus, was das politisch bedeutet: Versagen hier aktuelle Regulierungen? Welche Regeln gibt es überhaupt, wer ist dafür zuständig und wohin entwickelt sich das?

Unsere Berichte über Gesichter-Suchmaschinen haben die Politik überhaupt erst alarmiert. Zwar war biometrische Gesichtserkennung im Allgemeinen im Jahr 2020 nichts Neues – wohl aber für alle frei zugänglichen Gesichter-Suchmaschinen. Wir haben mit Abgeordneten im Bundestag und Europa-Parlament gesprochen, Einschätzungen von Datenschutzbehörden geholt. In der Folge unserer Berichte wurden Betroffene auf PimEyes aufmerksam, der Datenschutzbeauftragte Baden-Württemberg hat ein Verfahren gestartet. So bringen wir mit unseren Recherchen einen Stein ins Rollen. Aber damit geben wir uns noch nicht zufrieden.

Wir machen’s nicht für Klicks

WE FIGHT FOR YOUR DIGITAL RIGHTS

Jetzt Spenden

Probleme nicht einschlafen lassen

Wir haben nach der Veröffentlichung immer wieder nachgehakt: Was wurde aus PimEyes? Was wurde aus dem datenschutzrechtlichen Verfahren? Das Ganze ist ein kleiner Krimi. Die Betreiber der Website sind laut Impressum geflüchtet, aus der EU auf die Seychellen, dann nach Zentral-Amerika.

Solche Follow-up-Berichte sind nicht mehr die großen Würfe, die einem hunderttausende Klicks bringen. Das ist Fleißarbeit. Aber nur so ist es möglich, Probleme nicht einschlafen zu lassen. Manchmal ist die Nachricht eben, das nichts passiert ist – immer noch nicht. Und dann passiert plötzlich eine Wendung, mit der niemand gerechnet hat.

Das war in diesem Jahr, als wir bemerkt haben, PimEyes hat plötzlich einen neuen CEO, und der macht vieles anders. Auf einmal hat PimEyes nicht mehr die Öffentlichkeit gemieden, sondern aktiv Kontakt zu Medien gesucht. Wir haben den CEO ausführlich interviewt und konnten dieser brisanten Suchmaschine, die wir für so problematisch halten, endlich ein Gesicht geben. Viele seiner Antworten fanden wir fragwürdig und haben immer weitergebohrt – und alles hat es ins Interview geschafft. Nach den ersten Recherchen hätte ich es nie für möglich gehalten, dass es eines Tages einen solchen Austausch gibt.

Der CEO von PimEyes hat im Interview klargemacht: Er hält seine Suchmaschine für ein Werkzeug des Guten. Ich glaube: PimEyes schafft überhaupt erst das Risiko, vor dem es Leute daraufhin schützen will. Das ist ein Problem. Um das Problem zu verstehen, muss man sich aber sorgfältig mit den Argumenten beschäftigen. So eine Differenzierung erschließt sich oft erst, wenn man lange an einem Thema dranbleibt. Genau das können wir machen, weil wir die Zeit dafür haben. Wir können uns dafür einsetzen, dass Themen nicht versanden, und wir können auch komplexe Missstände über Jahre herausarbeiten.

Ein flüchtiges Gruppenfoto genügt

Einiges spricht dafür, dass die Praxis dieser Gesichter-Suchmaschinen möglicherweise so nicht erlaubt ist. Die DSGVO, also die Datenschutzgrundverordnung, schützt biometrische Daten eigentlich sehr gut. Ich hoffe, dass unsere Berichte über Gesichter-Suchmaschinen Tempo in die Sache bringen. Es ist richtig und wichtig, dass Regulierungen lange diskutiert werden und dass Behörden nichts überstürzen. Aber es geht hier nicht um ein Problem der Zukunft, das man mal in Ruhe auf sich zukommen lassen kann.

Da draußen sind Leute, die erfassen jetzt gerade Milliarden Gesichter biometrisch – ohne jede Zustimmung. Die Datenbanken werden mit jedem Tag größer. Wir müssen damit rechnen, dass wir alle früher oder später in diesen Datenbanken landen, wenn wir nicht schon längst drin sind. Es reicht, wenn unser Gesicht einmal kurz in irgendeinem Gruppenfoto aufblitzt.

Das erinnert mich an eine Anekdote. Vor einigen Jahren habe ich in Prag an einer geführten Stadt-Tour teilgenommen. Und am Ende hat der Guide alle Teilnehmer*innen gebeten, sich kurz für ein Gruppenfoto aufzustellen. Ich war sofort dagegen und habe mich demonstrativ außer Reichweite der Kamera hingestellt. Den anderen war das offenbar egal. Später ist das Foto auf Facebook gelandet, als Werbung für den Veranstalter. Ich frage mich, ob ich heute immer noch der Einzige wäre, der so ein Foto verweigert.

Unsere Recherchen stellen Sichtbarkeit her. Wir zeigen auf, das sind die Probleme, das sind die Betroffenen, und diese Stellen haben die Macht, etwas zu ändern. Wenn sich herausstellt, solche Gesichter-Suchmaschinen sind tatsächlich nicht vereinbar mit dem Recht auf Anonymität und dem Recht auf informationelle Selbstbestimmung, dann muss das Konsequenzen haben.

Der Text basiert auf einem Gespräch, das Stefanie Talaska geführt und aufbereitet hat.

Kommt mit uns in den Maschinenraum von netzpolitik.org: In sechs Videos und persönlichen Einblicken zeigen wir euch, mit welchen Prinzipien und mit welchen Mitteln unsere Redaktion arbeitet.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires