Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Desinformation auf Facebook: Erst handeln, wenn es zu spät ist

Fake-Likes, Hetze, Desinformation: Facebook steht regelmäßig in der Kritik, nicht genug gegen die missbräuchliche Verwendung der Plattform zu tun. Selbst Enthüllungen innerhalb des Unternehmens, die eine verdeckte politische Einflussnahme über Facebook beweisen, ignoriert das soziale Netzwerk immer wieder, so lange es geht. Sophie Zhang, die zweieinhalb Jahre für Facebook arbeitete und „koordiniertes nicht-authentisches Verhalten“ unterbinden sollte, hat jetzt dem Guardian von ihren Erfahrungen bei Facebook berichtet.

Zhang entdeckte unter anderem in Honduras und Aserbaidschan Aktivitäten, mit denen demokratiefeindliche Regierungen versuchten, ihre Macht zu sichern und ihre Bevölkerung zu manipulieren. Sie meldete die Vorgänge, sprach mit Vorgesetzten und dem Facebook-internen „Threat Intelligence Team“. Trotzdem passierte monate-, in manchen Fällen jahrelang nichts.

Ihr wurde mitgeteilt, ohne Druck von außen stünden diese Länder nicht im Fokus des Unternehmens, im Unterschied zu Ländern wie den USA, Taiwan oder Polen. Die Eindämmung von Manipulationskampagnen in den USA und Westeuropa sei wichtiger, sagte ihr der Vizepräsident für Integrität, Guy Rosen. Diese Priorisierung sei „richtig“, soll Rosen gesagt haben.

Im September 2020 wurde Zhang wegen schlechter Leistung gefeuert. Die von ihr aufgedeckten Netzwerke und Aktivitäten, mit denen in Ländern des Globalen Südens Menschen politisch beeinflusst wurden, liefen indes ungestört weiter. Die Unterbesetzung und Untätigkeit Facebooks beschäftigt sie noch heute, wie sie dem Guardian erzählt: „Ich habe immer noch Schlafstörungen. Manchmal war es einfach zu überwältigend und frustrierend. Offen gesagt hätte ich niemals so viel Verantwortung tragen und Macht haben sollen.“ Gegenüber dem Guardian wies Facebook die Vorwürfe zurück.

Verschiedene Strategien nicht-authentischen Verhaltens

Was genau unter „Coordinated Inauthentic Behaviour“ (CIP) fällt, ist nur lose definiert. In seinen Gemeinschaftsstandards nennt Facebook zuvorderst Fake-Profile, aber auch die Verwendung von „Seiten, Gruppen oder Veranstaltungen“, um Nutzende zu täuschen, gehören dazu. Täuschungen umfassen mit diesen Identitäten abgesetzte Kommentare und Likes, vorgeschobene Seiteninhalte oder Inhalte, die auf falschen Tatsachen beruhen.

Eine besonders beliebte Form von „Fake-Engagement“, für die es laut Zhang keine ausreichende Regelung bei Facebook gibt, ist der meinungsverzerrende Einsatz von Facebook-„Seiten“. So darf zwar jeder Mensch nur einen einzigen Account anlegen und nutzen. Diese Einschränkung gilt jedoch nicht für den Betrieb von „Seiten“, wie sie etwa Caféhäuser oder Nachrichtenorganisationen anbieten. Mit Hilfe dieses Schlupflochs kann sich ein einziger individueller Account hinter beliebig vielen Fake-„Seiten“ verstecken und darüber Kommentare, Likes und sonstiges Engagement hinterlassen.

Zhang bemerkte diese Form der Manipulation in exzessivem Ausmaß etwa bei der umstrittenen Wiederwahl des Präsidenten von Honduras, Juan Orlando Hernández. Damals betrieb einer der Administrierenden der Facebook-„Seite“ von Hernández hunderte andere „Seiten“, die wie ganz normale Benutzendenkonten aussahen, also Namen, Profilbilder und Berufsbezeichnungen enthielten. Mit diesen Profilen wurden hunderttausende Fake-Likes auf Hernándezs offizieller Seite hinterlassen, um ihn populärer erscheinen zu lassen und ihm womöglich mehr Reichweite zu verschaffen.

Inzwischen hat Facebook diese Seiten entfernt, aber erst nach einem mühsamen Kampf. Er dauerte ein Jahr, Zhang musste immer wieder insistieren, bis in Honduras 181 Konten und 1.488 Seiten gelöscht wurden. Der Direktor für Globale Bedrohungen bei Facebook, David Agranovich, bedankte sich offiziell für Zhangs Arbeit. Inoffiziell teilte er ihr mit, dass ihr Engagement dazu geführt hätte, einen Präzedenzfall zu schaffen. Profilähnliche Seiten zählten ab da offiziell zu nicht-authentischem Verhalten.

Gegenüber netzpolitik.org teilte ein Facebook-Sprecher mit, dass es unterschiedliche Integritätschecks für Facebook-„Seiten“ gäbe, damit diese nicht für Spam oder ähnliches verwendet würden. Menschen könnten ihre Profile verlieren, sollte ihre „Seite“ in Spam oder Belästigungen verwickelt sein.

Bloß keine schlechte Publicity

Dem Guardian gegenüber berichtete Zhang, dass der Präzedenzfall wenig geändert hätte. Sie deckte immer mehr verdächtige Netzwerke auf, unter anderem in Mexiko, Argentinien, Italien, Afghanistan, Südkorea, Tunesien, der Türkei und vielen weiteren Ländern. In Albanien wurde ein politischer Führer von solchen Netzwerken unterstützt. Die meisten der von ihr gemeldeten Fälle sollen von der Threat Intelligence Agency nicht weiter untersucht worden sein, obwohl sie die Richtlinien von Facebook verletzten.

So auch im Falle des autoritären Aserbaidschans, wo dieselbe Taktik wie in Honduras angewendet wurde. Dort wurde jedoch weniger demokratisches Engagement vorgetäuscht, sondern „Seiten“ dazu benutzt, um massenhaft Regimekritiker zu verunglimpfen. 2019 produzierten diese Seiten 2,1 Millionen Beiträge, in denen Oppositionelle und unabhängige Medien beschimpft und der autokratische Präsident und seine Regierungspartei YAP gelobt wurden. Zhang meldete die Fälle und musste feststellen, dass niemand für das Land zuständig war.

Für Aserbaidschan gab es kein eigenes Team, das Land fiel weder in den Zuständigkeitsbereich Nahost noch in den für Osteuropa. Zuständig war eigentlich das Türkei-Team, doch dort war niemand ausreichend mit der ehemaligen Sowjetrepublik und ihren sprachlichen Nuancen vertraut. Um einschätzen zu können, ob die Posts gegen die Richtlinien verstießen, mussten die Mitarbeitenden Posts mit Google übersetzen. Zhang musste immer wieder insistieren und den Fall in verschiedenen internen Gruppen vorbringen, bis er Beachtung fand. Erst im Dezember wurde ein Team damit beauftragt, die Belästigungskampagnen genauer zu untersuchen, die Arbeit startete im Januar 2020.

Anfang Februar stellte die Untersuchungsgruppe fest, dass die Kampagnen eindeutig mit der Regierungspartei YAP verbunden waren. Einen Monat später wurde das Prioritätslevel der Eskalation ohne Begründung von „hoch“ wieder auf „niedrig“ heruntergestuft. Trotz der Beweise, dass eine nicht-demokratische Partei ihre Bevölkerung über Facebook beeinflusste, wurde der Fall abgetan. Zhang setzte sich erneut dafür ein, unter anderem nach Meldungen über gewaltvolles Vorgehen gegenüber Journalist*innen in Aserbaidschan. Nach ihrer Kündigung im Oktober 2020 wurden 589 Facebook-Konten, 7.665 Seiten und 437 Instagram-Konten gelöscht, die mit der YAP in Verbindung standen.

In einem ausführlichen Abschiedsstatement an ihre Kolleg*innen, das von Buzzfeed News veröffentlicht wurde, schrieb Zhang: „Wir hielten es nicht für wichtig genug, um sie zu stoppen. Ich weiß, dass ich nun Blut an meinen Händen kleben habe.“

Facebook widerspricht der Darstellung von Sophie Zhang in einer Mail an netzpolitik.org „fundamental“. Laut dem Pressesprecher würden die Teams global arbeiten, da es sich um globale Probleme handele, einer Priorisierung widerspricht das Unternehmen jedoch. Zur Größe der Teams gab es keine Auskunft. Laut dem Pressesprecher gehe Facebook aggressiv gegen Missbrauch überall in der Welt vor. Er nennt unterschiedliche Länder wie Moldavien, Mexiko und Pakistan, die einzelnen Sperrungen veröffentlicht Facebook auch auf einer eigenen Webseite mit Beschreibungen der eingesetzten Taktiken.

Es geht auch anders

Dass Facebook auch schnell handeln kann, insbesondere wenn Medien-Skandale drohen, zeigt Zhang an anderen Beispielen. Bei den britischen Parlamentswahlen wurden konstant Aktivitäten überwacht und bei Bedarf gestoppt. Zwei Tage vor den schwedischen Parlamentswahlen änderte Guy Rosen kurzerhand die Facebook-Richtlinien, obwohl es sich in dem Fall nicht mal um vorgetäuschtes Verhalten, sondern um echte Personen handelte, die sich organisiert hatten.

Die anstehenden deutschen Wahlen sind laut dem Sprecher eine Top-Priorität Facebooks. Das Unternehmen habe seit letztem Herbst ein Team erstellt, das unterschiedliche Methoden verwenden werde, um fragwürdige Inhalte früh genug zu erkennen. Parallel dazu wolle man ein System aufbauen, um intern Inhalte zu flaggen, die viral gehen könnten. Diese sollen dann näher überprüft werden. Bereits jetzt hätten sie eine kleine Einsatzzentrale in Baden-Württemberg und Rheinland-Pfalz in Betrieb genommen und sich mit dem Bundesamt für Sicherheit und Informationstechnik zu Wahlbeeinflussung ausgetauscht. Es geht ja, zumindest auf dem Papier – wenn man nur will.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires