YouTube ist weltweit die zweitmeist besuchte Webseite und sein Empfehlungsalgorithmus bestimmt 70 Prozent der Zeit, welche Inhalte Nutzer*innen sehen. Während die Plattform für viele Menschen nicht aus ihrem Alltag wegzudenken ist, hat sie in den vergangenen Jahren vermehrt zur Verbreitung von Falschinformationen, Hass- und Hetzrede beigetragen. Eine nun veröffentlichte Studie von Mozilla zeigt auf, welche verheerenden Auswirkungen der Empfehlungsalgorithmus der Plattform auf seine Nutzer*innen hat. Die Studie ergab: Das Empfehlungssystem verletzt in den meisten Fällen nicht nur die eigenen Richtlinien, sondern spielt „verstörende und hasserfüllte“ Videos besonders häufig an nicht-englischsprachige Nutzer*innen aus.
Insgesamt haben Wissenschaftler*innen zwischen Juli 2020 und Mai 2021 über 3.000 sogenannter „Regret-Videos“ aus 91 Ländern gefunden. Mithilfe der eigens entwickelten Open-Source-Browsererweiterung „RegretsReporter“ hatte die Organisation Freiwillige weltweit aufgerufen, ihre negativen Erfahrungen mit der Plattform zu teilen. Mozilla analysierte die sogenannten „Regrets“ – bedenkliche Videos. Die Untersuchung sei die bisher größte Crowdsourced-Untersuchung des YouTube-Algorithmus. Auch jetzt können YouTube-Nutzer*innen weiter bedenkliche Inhalte melden.
Besonders betroffen: Nicht-englischsprachige Länder
Ein Großteil der „Regrets“ seien Fehlinformationen, gefolgt von gewalttätigen Inhalten und Falschinformationen, die mit der Covid-19-Pandemie in Verbindung stehen. Mozilla räumt ein, dass YouTube für die Inhalte nicht alleinig verantwortlich ist. Dennoch weisen die Ergebnisse daraufhin, dass der Empfehlungsalgorithmus des Unternehmens eine übergroße Rolle spiele. „Der Algorithmus steuert die Menschen zu diesen Inhalten, und wenn diese erst einmal ‚drin‘ sind, bietet er immer extremere Ideen an“, so Mozilla in seinem Bericht.
71 Prozent der als „bedauernswert“ gemeldeten Videos hat der Algorithmus YouTubes dabei selbst empfohlen. Der Widerspruch: Viele dieser Inhalte verletzen die eigenen Community-Richtlinien der Plattform, die unter anderem Spam, gewaltverherrlichende oder gefährliche Inhalte verbieten. Einige Inhalte habe YouTube laut Mozilla mittlerweile entfernt. Was bei den Ergebnissen besonders heraussticht, ist der Anteil unangemessener Video-Empfehlungen in nicht-englischsprachigen Ländern: Dieser war dort um 60 Prozent höher als in den Ländern, wo Englisch als Muttersprache gilt. Insgesamt hat Mozilla die meisten „Regrets“ in Brasilien, Deutschland und Frankreich gefunden.
Die Mozilla-Studie sieht auch darüber hinaus Bedenkliches am Empfehlungsalgorithmus. Viele der Inhalte fielen in die Kategorie „Borderline“-Inhalte , welche die YouTube-Richtlinien „umschiffen“, ohne sie zu verletzen. Mozilla weist darauf hin, dass diese Annahme nicht einfach überprüfbar sei, da YouTube selbst nicht offenlegt, wie sie grenzwertige Inhalte definieren und klassifizieren. Außerdem empfehle der Algorithmus auch nicht explizit bedenkenswerte Inhalte, die durch die Wirkungsweise des Empfehlungssystems jedoch besorgniserregende Folgen haben können. Die Huffington Post hatte vergangenes Jahr berichtet, dass der Algorithmus der Plattform pädophilen Täter*innen helfe, scheinbar harmlose Videos von Kindern zu finden, mit denen sie gewaltvolle Fantasien ausleben könnten.
Neben der allgemein hohen Diskrepanz zwischen den „Regrets“ englischsprachiger und nicht-englischsprachiger Länder fiel Mozilla auf, dass es außerdem in nicht-englischsprachigen Ländern deutlich mehr bedenkliche Videos mit Pandemie-Bezug gäbe. Erst im April kam die EU-Kommissionsvizepräsidentin Věra Jourová in einem inoffiziellen Gespräch mit Vertreter*innen von Facebook, Google, TikTok, Twitter und YouTube zusammen, um Maßnahmen gegen Desinformationen über Coronavirus-Impfstoffe auf den Plattformen zu bekämpfen.
In einem Dokument mit Gesprächsnotizen des Treffens, die auf Anfrage von netzpolitik.org öffentlich wurden, heißt es, EU-Kommissarin Jourová habe explizit die Dringlichkeit hervorgehoben, gegen entsprechende Falschinformationen in allen Mitgliedsstaaten und Sprachen vorzugehen. Auch ging es darum, wie man die Zusammenarbeit zwischen Behörden und Online-Plattformen verbessern könne, um Fehlinformationen besser zu entlarven und Informationen von Gesundheitsbehörden zu fördern.
„Kommerzielle Anreize gegen das Wohlergehen der Menschen“
Die Verantwortung YouTubes, dem Problem entgegenzuwirken, ist nach Ansicht von Mozilla hoch. Algorithmen müssten nicht nur vorhersagen, wie wahrscheinlich ein bestimmtes Video jemanden anspricht, sondern auch, wie wahrscheinlich dieses gegen Community-Richtlinien verstößt. „Das ist eine große Verantwortung, und eine, die kommerzielle Anreize gegen das Wohlergehen der Menschen ausspielen kann“, heißt es in dem Bericht.
Die Organisation betont, es gehe ihnen nicht lediglich um die Aufklärung der Problematik, sondern auch um das Finden möglicher Lösungsansätze. Brandi Geurkink, Managerin von Mozilla, erklärte: „Mozilla hofft, dass diese Erkenntnisse – die nur die Spitze des Eisbergs sind – die Öffentlichkeit und die Gesetzgebenden von der dringenden Notwendigkeit einer besseren Transparenz der KI von YouTube überzeugen werden.“
Kritiker*innen bemängeln schon seit einigen Jahren die Art und Weise wie YouTube Algorithmen einsetzt. Maßnahmen, mit denen YouTube 2019 Fortschritte in der Bekämpfung schädlicher Inhalte gemacht hatte, seien unzureichend. Deshalb schlägt Mozilla auf Basis seiner Studienergebnisse konkrete Empfehlungen vor – sowohl für die Plattform als auch für politische Interessensvertreter*innen und Nutzer*innen.
Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.
0 Commentaires