…

So funktioniert der TikTok-Algorithmus

Nicht was wir liken oder sharen entscheidet auf TikTok, welche Videos uns künftig ausgespielt werden. Nein: das Wall Street Journal will herausgefunden haben, dass die Empfehlungen fast ausschließlich von der Verweildauer bei den Videos abhängen. Und sie haben sich angesehen, was der TikTok-Konsum für Folgen haben kann.

Userinnen und User rätseln schon lange, wie TikTok es schafft, Videos so passgenau auf die Interessen auszuspielen, dass Stunden mit der App verbracht werden können, ohne, dass es langweilig wird. Das Geheimnis liegt im Algorithmus. Und der ist tatsächlich geheim – TikTok lässt nur sehr wenig darüber nach außen dringen. Daher hat das Wall Street Journal sich selbst auf Spurensuche begeben – mit erstaunlichen Ergebnissen.

 

Verweildauer vor Likes

Die Untersuchung war umfassend und aufwändig angelegt. Das Team des Wall Street Journals schuf dazu 100 Bots mit fiktiven Interessen und Biografien, die auf TikTok fleißig Videos schauten. Schon nach wenigen Stunden App-Konsum zeigte sich, dass TikTok die Interessen ziemlich genau erkannt hatte und entsprechend seine Videos ausspielte. Dabei schien die Zahl der Likes und Shares eher eine untergeordnete Rolle zu spielen. Entscheidend war, wie lange die Videos angesehen wurden. Videos die bis zum Ende gesehen wurden, hatten zum Beispiel mehr Einfluss auf die Vorschläge.

 

Rein in den Kaninchenbau

Der Algorithmus verleitet dazu, immer mehr Videos anzusehen. Das ist unterhaltsam, aber es werden Nutzerinnen und Nutzer auch immer tiefer in Nischeninteressen hineingezogen. Nach einigen Stunden TikTok-Konsum gibt es fast nur mehr Videos zu speziellen Themengebieten. Das ist niedlich, wenn es etwa um Videos zu bestimmten Hunderassen geht, aber bedenklich, wenn es sich zum Beispiel um Verschwörungstheorien handelt. Im Englischen hat sich der Ausdruck „Rabbithole“ etabliert – angelehnt an Lewis Carols „Alice im Wunderland“, die nach einem Sturz in den Kaninchenbau auch nicht mehr in die Realität zurückfindet.

 

Die Empathie fehlt

Eine weitere Gefahr zeigte sich in dieser Untersuchung des Wall Street Journals: Bei einem Algorithmus handelt es sich um ein rein technisches Konstrukt. Das machte die Untersuchung schmerzhaft mit einem konkreten Beispiel bewusst: Ein Bot war darauf programmiert, Interesse an Videos mit depressiven Inhalten zu zeigen. Innerhalb kürzester Zeit wurden fast ausschließlich solche ausgespielt. Welche Auswirkungen das auf die Psyche einer echten Person hat, wird vom Algorithmus nicht berücksichtigt.

 

TikTok bestreitet Ergebnisse

TikTok selbst hat sich übrigens zu der Untersuchung geäußert und die Richtigkeit der Ergebnisse in Frage gestellt. Eine Untersuchung mit Bots sei nicht mit echten Menschen zu vergleichen. Dennoch wäre es gut, wenn TikTok gewisse Lehren aus dem Bericht ziehen würde. Schließlich geht es bei dem sozialen Medium längst nicht mehr nur um lustige Videos. Eine Plattform mit Millionen von Nutzerinnen und Nutzern wird sich über kurz oder lang auch einer sozialen Verantwortung bewusst sein müssen.

 

Mehr Infos zu TikTok finden sich übrigens hier auf unserem Blog: TikTok für Unternehmen?