Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Online-Radikalisierung: YouTube-Algorithmus wohl harmloser als gedacht

Eine US-Studie konnte dem Empfehlungssystem von Youtube nicht nachweisen, Nutzer:innen in ein „Rabbit Hole“ zu führen. Gemeinfrei-ähnlich freigegeben durch unsplash.com Victor Larracuente

Das sagenumwobene YouTube-Empfehlungssystem, das ganze Heerschaaren von Nutzer:innen radikalisieren soll, spielt womöglich eine nur untergeordnete Rolle. Laut einer aktuellen Studie lässt sich derzeit kein sogenannter Rabbit-Hole-Effekt nachweisen, der Nutzer:innen zunehmend extreme Videos vorschlägt und sie in eine Radikalisierungsfalle lockt. Der Vergleich mit dem Kaninchenbau stammt aus dem Kinderbuch „Alice im Wunderland“. Die Protagonistin folgt darin einem weißen Kaninchen und stürzt durch dessen Bau in eine andere Welt.

Der Rabbit-Hole-Effekt hatte in den vergangenen Jahren immer wieder Nachrichtenmedien und Forscher:innen beschäftigt. Er war Thema von TED-Vorträgen, aufwändig recherchierten Podcasts und dem AlgoTransparency-Projekt des ehemaligen YouTube-Entwicklers Guillaume Chaslot. Auf die anhaltende Kritik reagierte YouTube schließlich 2019 mit der Ankündigung, sein Empfehlungssystem zu überarbeiten und dabei strenger gegen grenzwertige Inhalte wie 9/11-Verschwörungserzählungen oder angebliche Wunderheilmittel vorzugehen.

Was an dem Effekt damals wirklich dran war, lässt sich aus heutiger Sicht schwer sagen. Es gibt Hinweise, dass er nicht ganz an den Haaren herbeigezogen war, mit empirischem Datenmaterial wurde er jedoch nicht unterfüttert. Zudem passt YouTube seinen Algorithmus regelmäßig an, ohne sich dabei in die Karten schauen zu lassen.

Direkte Links problematischer als Empfehlungen

Die kürzlich veröffentlichte Studie gewährt nun zumindest einen Einblick in die gegenwärtige Lage. Demnach konsumieren Nutzer:innen extremistische Videos zumeist, weil sie dem entsprechenden YouTube-Kanal direkt folgen oder auf externe Links klicken. Überwiegend würden Videos von „alternativen und extremistischen Kanälen“ von einer kleinen Minderheit von Menschen angeschaut. Bei ihnen habe sich schon zuvor ein frauenfeindliches und rassistisches Weltbild verfestigt. Und nur selten ließe sich beobachten, dass YouTube solche Kanäle anderen Nutzer:innen empfiehlt.

Erstellt hat die Studie ein Forscher:innen-Team aus mehreren US-Universitäten, darunter Stanford und Dartmouth. Der Fokus lag naturgemäß auf US-amerikanischen Nutzer:innen und Inhalten. Die Schlussfolgerungen dürften sich aber bis zu einem gewissen Grad auf andere Regionen übertragen lassen. Demnach ist Radikalisierung auf YouTube wohl eher ein Problem der Nachfrage von Menschen, die solche Inhalte sehen wollen – auf algorithmische Empfehlungen lässt sie sich weniger zurückführen.

Zu diesem Schluss gelangte bereits 2018 die Datenforscherin Becca Lewis. Sie hat eine qualitative Untersuchung zu rechten Influencer:innen-Netzwerken erstellt. Eine entscheidende Rolle spielen demnach vor allem die Community rund um gut vernetzte YouTube-Persönlichkeiten und sogenannte „parasoziale Beziehungen“. Das Gefühl von vermeintlicher Authentizität, Nähe und Vertrauen mache Teile des Publikums anfällig für reaktionäres Gedankengut. Der Weg dahin könne zwar sehr wohl über die Empfehlungsalgorithmen von YouTube führen, sei aber nur eine Möglichkeit von vielen. Mehrere Folgestudien scheinen diese Sicht zu stützen.

Expert:innen spüren für YouTube grenzwertige Videos auf

Die Änderung am Empfehlungssystem vor drei Jahren habe sich jedenfalls bemerkbar gemacht, sagt eine YouTube-Sprecherin zu netzpolitik.org. Seitdem würden Nutzer:innen deutlich weniger lange grenzwertige Videos von Kanälen schauen, die sie nicht abonniert haben. Diese Dauer sei um 70 Prozent zurückgegangen. „Heute liegt der Konsum von grenzwertigen Inhalten, der aus Empfehlungen stammt, bei signifikant unter einem Prozent“, sagt die Sprecherin.

Das bedeutet: Die allermeisten YouTube-Empfehlungen seien nicht grenzwertig. Mit „grenzwertig“ sind Videos gemeint, die zwar keine illegalen Inhalte verbreiten und auch mit den Gemeinschaftsregeln von YouTube vereinbar sind, aber dennoch nicht unbedingt empfehlenswert sind.

Um solche Videos aufzuspüren, unterhält der Videodienst ein globales Netzwerk an Expert:innen aus verschiedenen Disziplinen. Anhand eines Leitfadens bewerten sie eine Teilmenge an Videos. Ihre Bewertungen fließen in Machine-Learning-Systeme ein, die dann weitere Videos automatisiert einstufen. Bis zu neun Meinungen von Expert:innen hole YouTube pro Video ein, sagt die Sprecherin. Generell achte der Dienst in den letzten Jahren vermehrt auf Qualität und empfehle autoritative Quellen. Dies sei „harte“ und „kontinuierliche Arbeit“, die viel Nuance erfordere, so die Sprecherin.

Aus der Verantwortung entlässt das YouTube aber freilich nicht. Der weltgrößte Videodienst bietet eine einfach nutzbare Infrastruktur an, über die sich ein Millionenpublikum erreichen und gegebenenfalls monetarisieren lässt – notfalls ganz ohne Empfehlungen. In gewisser Hinsicht könnte dies sogar noch besorgniserregender sein, heißt es in der Studie: Direkte Links auf einzelne Videos und die Möglichkeit, extremistische Kanälen zu abonnieren, würden Nutzer:innen dabei helfen, mehr solcher Inhalte zu konsumieren.

Mehr Forschung notwendig

Trotz der inzwischen schärferen Moderations- und Empfehlungspraxis von YouTube finden sich weiterhin unzählige hetzerische und desinformative Videos auf dem Dienst. Und oft genug sind sie ausgesprochen beliebt: So kamen etwa in einer Untersuchung mehrerer Landesmedienanstalten die drei populärsten desinformativen Videos auf insgesamt rund zehn Millionen Aufrufe, obwohl sie YouTube kaum empfohlen hatte. Grundlage der Studie war eine Stichprobe aus Videos zu den Themen Covid-19-Pandemie, Klimakrise und Migration.

Auch diese aus dem Vorjahr stammende Studie, die sich auf nicht-personalisierte Empfehlungen konzentriert hatte, konnte dem YouTube-Algorithmus kein Abdriften in immer extremere Inhalte nachweisen. Einig sind sich die Forscher:innen jedoch darin: Wer sich auf die Suche nach einschlägigen Inhalten macht, wird sie auf dem Videodienst auch finden. Und YouTube mache es solchen Nutzer:innen leicht, in ihrer weltanschaulichen Blase zu bleiben.

Was diese Mechanismen mit Nutzer:innen auf einer individuellen und kollektiven Ebene machen, bleibt jedoch unklar, schreiben die Autor:innen der neuen US-Studie. Dazu sei mehr unabhängige Forschung notwendig – und vor allem auch solche, die nicht auf Browser-Plugins oder ein „Reverse Engineering“ der Algorithmen zurückgreifen muss. Das dürfte bald möglich sein: So schreibt das EU-Gesetz für digitale Dienste, auf das sich die EU kürzlich verständigt hat, endlich den Zugang für Forscher:innen fest.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires