Ticker

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Datenjournalismus: TikToks Algorithmus drängt zu Nischeninhalten

Eine Wendeltreppe führt in die Tiefe hinab.

Die „Für-Dich-Seite“ ist „buchstäblich deine Intention“, sagt die populäre TikTok-Nutzerin @lilmamas97 über die Inhalte, die ihr von TikTok zusammengestellt werden. Sie und andere Nutzer:innen sind fasziniert von der Art und Weise, wie die Videoplattform agiert. Doch statt Intention oder Bauchgefühl entscheidet bei TikTok ein kalkulierender Algorithmus.

Dessen Funktionsweise demonstrierte das Wall Street Journal (WSJ) zuletzt mit einer aufschlussreichen Datenrecherche. Hierfür wurden 100 fiktive Accounts (Bots) erstellt, denen jeweils eine IP-Adresse und charakterisierende Interessen zugeteilt wurden. Laut The Verge basierte das Verhalten der Bots auf den Hashtags, die unter den Videos gesetzt sind. Je nachdem ob die Hashtags relevant für die zugeschriebenen Interessen waren, schaute sich der Bot Videos an. 

Schon nach kurzer Zeit generierte der Algorithmus ein individuelles Interessenprofil basierend auf der Verweildauer des Bots auf den einzelnen Videos. 

Zeit ist Information 

Interessanterweise spielen laut dem WSJ die Anzahl von Likes und Shares bei TikToks Vorschlagsalgorithmus nur eine untergeordnete Rolle. Viel ausschlaggebender ist die Verweildauer auf einzelnen Videos und die Information darüber, wie häufig ein Video angeschaut wurde. TikTok widerspricht dieser Aussage und sagt, dass sowohl die Anzahl von Likes, Shares und Follower als auch der Inhalt selbst eine Rolle für den Vorschlagsalgorithmus spielen würden. Das „TikTok Transparenz-Center“ veröffentlichte schon im Juli 2020 unbestimmte Anhaltspunkte, wie der Algorithmus funktionieren könnte:

Ein starker Interessenindikator, wie etwa ob die Nutzer:in ein Video von vorne bis hinten angeschaut hat, wird stärker beachtet als ein schwacher Indikator, wie etwa ob die Video-Konsument:in und Urheber:in beide in dem gleichen Land sind. 

Zwar zeigte TikTok den neuen Nutzer:innen zunächst populäre Videos von allgemeinem Interesse, aber schon nach den ersten Videos bewegt sich der vorgeschlagene Inhalt zu immer spezifischeren Interessengruppen. In Abhängigkeit von der Verweildauer analysiert der Algorithmus weitere gegebenen Informationen wie Hashtags, Nutzernamen und Videobeschreibungen. Ziel ist es dabei Inhalte zu finden, die den Nutzer dazu bewegen auf der App zu bleiben. Nach nur durchschnittlich zwei Stunden Video schauen, schickt der Algorithmus nun vor allem personalisierte Inhalte, die nicht mehr im Mainstream, sondern auch in Nischen und an Rändern zu verorten sind. Die populären Mainstreamvideos machen zu diesem Zeitpunkt nur noch einen geringen Prozentsatz aus.

TikTok drängt zu extremen Rändern 

Der Algorithmus-Experte Jonathan Stray zeigt sich auf Twitter fasziniert von der Arbeit des Wall Street Journals. Nach seiner Interpretation des Experiments stellt TikToks Vorschlagssystem vor allem eines dar, nämlich eine Bedrohung. 

Hier klicken, um den Inhalt von Twitter anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von Twitter.

Das Spezifizieren auf bestimmte Interessen durch den Algorithmus wirkt selbstverstärkend. Nutzer:innen geraten so in einen Sog, der sie an Ränder und in Nischen führen kann.

Die Visualisierung des Wall Street Journals modelliert die Inhaltewolken auf TikTok nach Hashtags. Inhalte, mit einer niederen Hashtag-Frequenz sind mit ausufernden Armen der Wolke repräsentiert, während die Mainstream-Themen im Inneren der Wolke dargestellt werden. Je weiter die Nutzer:in in eine Nische eindringt, desto geringer wird die Anzahl der Verknüpfungspunkten zu anderen inhaltlichen Themen. 

Inhaltliche Verengung

Was bei Hundeinhalten noch süß wirkt, wird spätestens bei Verschwörungstheorien problematisch. Folglich beinhaltet TikToks Algorithmus ein hohes Potenzial für eine Verengung der Inhaltsbreite und damit auch für politische Radikalisierung, da gesellschaftliche Pluralität ausgeblendet wird. 

Der Algorithmus von TikTok ist nicht der erste, der eine solche Tendenz vorweist. YouTube steht seit Jahren in der Kritik die Verbreitung von politisch extremeren oder abwegigen Positionen zu fördern und so die Nutzer:innen zu radikalisieren.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Enregistrer un commentaire

0 Commentaires