„Man sieht Ihnen Ihr Alter gar nicht an“ – dieser Satz steht über vielen deutschen Supermarktkassen. Die Supermärkte bitten jung aussehende Menschen um Verständnis, weil sie beim Kauf von Alkohol und Tabak ihren Ausweis zücken sollen. Denn ob eine Person wirklich schon volljährig ist, lässt sich mit bloßem Blick unmöglich feststellen.
Genau das sollen Löscharbeiter:innen in sozialen Medien trotzdem tun. Das Alter einer Person in einer Nacktaufnahme entscheidet darüber, ob es sich um eine potentiell strafbare Missbrauchsdarstellung handelt oder nicht. In Deutschland bezeichnet man solche illegalen Aufnahmen von Menschen ab 14 und unter 18 Jahren als Jugendpornografie.
Die New York Times berichtet nun über eine Arbeitsanweisung von Meta, dem Mutterkonzern von Facebook, Instagram und WhatsApp. Einem Schulungsdokument zufolge sollten Löscharbeiter:innen eine Person in einer Aufnahme im Zweifel als erwachsen einstufen. In diesem Fall fließt die Aufnahme nicht in die Statistik von Verdachtsfällen ein und Meldestellen werden nicht informiert.
Die Leiterin der Sicherheitsabteilung von Meta, Antigone Davis, hat die Richtlinie gegenüber der New York Times bestätigt. Meta prüfe nun Alternativen. Davis weist darauf hin, dass der Konzern einen vielschichtigen, strengen Überprüfungsprozess anwende. Meta melde weltweit mehr Aufnahmen als jedes andere Tech-Unternehmen, so Davis weiter.
Meta meldet millionenfachen Verdacht auf Missbrauch
In den USA führt eine NGO namens „National Center for Missing & Exploited Children“ (NCMEC) Buch über gemeldete Missbrauchsdarstellungen durch Online-Plattformen. Im Jahr 2021 gab es insgesamt rund 29 Millionen Meldungen (PDF). Die überwiegende Mehrheit stammte dem Bericht zufolge von Meta: Rund 22,1 Millionen von Facebook, 3,4 Millionen von Instagram, 1,4 Millionen von WhatsApp.
Zum Vergleich: TikTok machte laut NCMEC-Bericht nur rund 155.000 Meldungen, Pornhub rund 9.000. Dabei spielt es wohl auch eine entscheidende Rolle, wie intensiv ein Anbieter nach solchen Aufnahmen sucht. Meta zum Beispiel kann auch private Chats, sofern sie nicht Ende-zu-Ende-verschlüsselt sind, automatisiert nach verdächtigen Aufnahmen scannen. Möglich macht das in Europa ein im Vorjahr im Eiltempo beschlossenes EU-Gesetz.
Die New York Times hat nach eigenen Angaben mit vier ehemaligen Löscharbeitenden gesprochen, die im Auftrag von Meta Inhalte moderiert haben sollen. Gearbeitet hätten sie für eine Drittfirma, die sich gegenüber der Zeitung nicht zu dem Fall geäußert habe. Die Löscharbeitenden hätten die Arbeitsanweisungen bestätigt. Ein Löscharbeiter habe der New York Times geschildert, dass etwa auch Schambehaarung als Hinweis auf Volljährigkeit gewertet worden sei.
Offenbar ist Meta mit dem Problem nicht allein. Ähnliche Regeln gab es für freiwillige Löscharbeiter:innen bei xHamster, eine der drei meistbesuchten Pornoseiten der Welt. Mindestens bis 2020 sollten Löscharbeiter:innen dort eine Person in einem hochgeladenen Nacktfoto nur dann als minderjährig einstufen, wenn sie „mit hoher Wahrscheinlichkeit unter 18“ war. Das zeigen veröffentlichte Moderationsregeln von xHamster, die das VICE-Magazin exklusiv veröffentlicht hat.
Falsche Meldungen als Belastung für Volljährige
Es gibt wohl keine einfache Lösung für die Löscharbeit von Aufnahmen möglicherweise minderjähriger Personen. Einerseits könnte die Arbeitsanweisung, älter aussehende Menschen im Zweifel als volljährig einzustufen, zu Problemen führen. Fälle sexualisierter Gewalt gegen Minderjährige könnten dadurch von Meta ignoriert werden – nur, weil die betroffene Person zufällig schon erwachsen aussieht.
Andererseits kann es für Volljährige sehr belastend sein, wenn ihre Aufnahmen fälschlicherweise als strafbare Jugendpornografie verdächtigt werden. Im schlimmsten Fall müssten jung aussehende, erwachsene Menschen vermehrt Angst davor haben, sich in Aufnahmen nackt zu zeigen, weil sonst Ermittlungsbehörden informiert werden könnten. Gegenüber der New York Times sagte Facebook-Managerin Davis, die Folgen einer irrtümlichen Kennzeichnung könnten für Betroffene „lebensverändernd“ sein.
Anscheinend folgen nicht alle Online-Plattformen bei ihrer Löscharbeit dem Prinzip, im Zweifel für die Volljährigkeit zu entscheiden. Sprecher:innen von Apple, Snapchat und TikTok sagten laut New York Times, sie würden jegliche sexualisierte Aufnahme melden, wenn das Alter der Person fragwürdig sei.
Das Problem wird dadurch erschwert, dass eine bloße Meldung noch keine Hilfe für Betroffene darstellt. Entscheidend ist, was danach passiert. Es liegt auf der Hand, dass Ermittlungsbehörden bei Abermillionen Meldungen nicht jede einzelne aufwändig prüfen können. Auf diesen Flaschenhals weist auch Facebook-Managerin Davis gegenüber der New York Times hin. Andererseits bleibt der wahre Umfang des Problems ohne entsprechende Meldungen unsichtbar. Eine Sprecherin des NCMEC sagte der Zeitung, Aufnahmen sollten immer gemeldet werden, wenn darin ein Kind zu sehen sein könnte.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
0 Commentaires