Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

System „Oculus“: Was wir aus Russlands Internet-Kontrolle lernen können

Ein Werkzeug namens Oculus soll russischen Behörden bei der Suche nach unliebsamen Uploads helfen. Im Visier sind unter anderem queere Inhalte. Rein technisch erinnert das an eine Software, die auch die deutsche Medienaufsicht einsetzt. Ein Kommentar.

Farbenfrohes Bild einer Stadt mit surrealistischen Stil. Ein Turm mit menschlichen Augen. Ein Mensch mit Aktenkoffer und Anzug vor einer Kamera.
Internet unter Aufsicht (Symbolbild) – Public Domain DALL-E-2 („surveillance at every corner of the futuristic city, vibrant painting by salvador dali“)

Technologie lässt sich nach Belieben für gute und schlechte Zwecke einsetzen. Ein aktuelles Beispiel dafür ist ein neues System, das die russische Medienaufsicht zur Inhaltskontrolle im Netz verwenden will. Automatisch soll die Software Texte, Bilder und Videos analysieren und dabei nach Verstößen gegen russische Gesetze suchen. Das teilt die russische Nachrichtenagentur Interfax mit. Ein ähnliches System nutzt die deutsche Medienaufsicht unter dem Namen KIVI. Der Vergleich mit Russland ist schwierig, aber ich halte ihn für wichtig.

Schon die Namen der beiden Systeme ähneln sich. Der Name des russischen Systems, Oculus, bezieht sich auf das lateinische Wort für Auge. Das deutsche System KIVI basiert auf dem lateinischen Wort für überwachen (vigilare) sowie der Abkürzung für Künstliche Intelligenz (KI). Beide Systeme nutzen Text- und Bilderkennung.

Der entscheidende Unterschied: Russland, mitten im Angriffskrieg gegen die Ukraine, ist eben keine lupenreine Demokratie und auch kein funktionierender Rechtsstaat. Mit Oculus gehen russische Behörden gegen Inhalte vor, die aus der Perspektive von Grund- und Menschenrechten als legal betrachtet werden müssen. So wird Oculus zu einem Werkzeug der Unterdrückung und zum Teil des Zensurapparats.

Systematischer Einsatz durch Aufsichtsbehörden

Noch mehr Einblicke in die russische Online-Zensur liefert ein Leak der Medienaufsicht Roskomnadsor, den die Süddeutsche Zeitung jüngst ausgewertet hat. Demnach nutzte die russische Medienaufsicht den Dienstleister „Brand Analytics“, um systematisch Social-Media-Inhalte zu durchkämmen. Verdächtig waren demnach etwa „Aufrufe zum Protest“. In dem Leak gibt es laut SZ-Bericht bereits Hinweise auf Oculus.

Oculus sucht laut Interfax-Bericht etwa Inhalte zu „LGBT-Propaganda“, „extremistischen Themen“ und Versammlungen. Diese Wortwahl muss selbst als Propaganda verstanden werden. Queerness kann kein Verbrechen sein. Hinter den anderen Begriffen dürften beispielsweise demokratische Proteste oder legitime Regimekritik stecken. Außerdem soll Oculus Inhalte rund um Suizid und Drogen aufspüren können.

In Deutschland sucht KIVI unter anderem nach Volksverhetzung, Holocaustleugnung und Gewaltdarstellungen. Ähnlich wie Oculus sucht KIVI nach Verherrlichung von Drogen und nach Inhalten, die Suizid verherrlichen. Die Funde von KIVI landen in einem Ticketsystem, das amtliche Sichter*innen händisch abarbeiten. Wenn sich ein Verdacht erhärtet, lassen sich rasch Mitteilungen an die zuständige Staatsanwaltschaft generieren. Wie diese Arbeit im Detail abläuft, haben wir hier beschrieben.

Text- und Bilderkennung sind keine besonders neuen Technologien. Neu ist aber ihr vermehrter und systematischer Einsatz durch Medienaufsichtsbehörden. Solche Systeme legen den Grundstein für eine neue Infrastruktur staatlicher Inhaltskontrolle im Netz. Eine solche Kontrolle kann legitim sein, wie das Beispiel von KIVI zeigt, oder illegitim, wie das Beispiel von Oculus zeigt.

Debatte über Chancen und Risiken fehlt

Beiden Systemen gemeinsam ist, dass Inhalte im Netz nicht mehr sporadisch ins Visier von Behörden gelangen, weil ein Mensch sie entdeckt hat. Stattdessen durchkämmt eine Software das Netz und schlägt bei Verdacht Alarm. Es ist bloß eine Frage der Justierung, welche Stichworte eine Texterkennung suchen soll und welche Motive eine Bilderkennung.

Noch gibt es in Deutschland keine breite Debatte über die Chancen und Risiken einer solchen staatlichen Inhaltskontrolle. Einerseits kann eine Medienaufsicht mit diesen Systemen Grundrechte schützen, indem sie etwa Hassrede und Volksverhetzung aufspürt. Eine solche staatliche Kontrolle kann im besten Fall transparent und demokratisch legitimiert sein – anders als die oft nebulöse Inhaltemoderation durch privatwirtschaftliche Konzerne wie Facebook, TikTok oder Twitter. Die Technologie zeigt einen neuen Weg auf, Rechtsverstöße im Internet zu regulieren.

Andererseits können solche Werkzeuge kinderleicht auch zur Zensur genutzt werden. Sie können verändern, wie Menschen im Netz kommunizieren, weil sie damit rechnen müssen, mit ihren Inhalten einen automatisierten Alarm auszulösen. Das könnte vorauseilende Selbstzensur fördern, bekannt als Chilling Effect. Wer bloß nicht auf dem Schirm von Behörden landen möchte, könnte im Netz dann zum Beispiel weniger über den sicheren Konsum von Drogen sprechen. Manch einer möchte vielleicht keinen Fehlalarm riskieren, den dann erst ein Mensch richtig einordnen müsste.

Nachdem die deutsche Medienaufsicht den KIVI-Einsatz von Nordrhein-Westfalen auf alle anderen Bundesländer ausgeweitet hat, möchte sie das System nun auch in anderen Ländern der EU vermarkten. Um die Vor- und Nachteile beim Ausrollen dieser Technologie umfassend abwägen zu können, braucht es auch Negativ-Beispiele aus der Praxis – wie etwa das russische Oculus.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Enregistrer un commentaire

0 Commentaires