Algorithmen setzen auf Extreme
YouTube radikalisiert: Veganer, Rechte, Linke und Jogger
Eine ganz hervorragende Lese-Empfehlung, die euch zum Reflektieren des persönlichen YouTube-Konsums anhalten sollte.
Zeynep Tufekci musste sich im Rahmen einer Artikel-Recherche für die New York Times mit dem Video-Portal des Suchmaschinen-Betreibers auseinandersetzen und besuchte YouTube.com, wie so viele Nutzer, mit aktivierter Auto-Play-Option, die ausgehend von dem initial angeschauten Clip immer mehr thematisch verwandte Inhalte abspielt.
Was Zeynep im Laufe ihrer Recherche dann auffiel werden viele Anwender wahrscheinlich auch schon registriert, bislang aber vielleicht nicht nur in Worte gefasst haben – so ging es zumindest uns beim Lesen des Times-Essays: YouTube, the Great Radicalizer.
Lässt man die Auto-Play-Option lange genug ans Steuer, sorgen die Algorithmen Googles dafür, dass die abgespielten Videos auf immer radikalere Inhalte setzen. Euch vom gesellschaftlichen Konsens immer weiter an dessen Ränder driften lassen.
Empfehlungen werden immer extremer
Wie Zeynep unter Zuhilfenahme mehrerer neu erstellter YouTube-Accounts nachvollzogen hat, landet man unabhängig vom Ausgangspunkt fast immer am extremen Rand des jeweiligen Themengebietes.
Wer mit konservativen Polit-Videos startet, wird von Googles Empfehlungen irgendwann zu ultrafaschistischen Holocaust-Leugnern geschickt. Links-Liberale Inhalte bringen die Betrachter zu antifaschistischen Verschwörungstheoretikern. Mit vegetarischen Rezept-Suchen landet man bei orthodoxen Veganern und wer sich für den Einstieg ins Joggen interessiert sieht sich irgendwann Videoempfehlungen gegenüber, die sich mit der Vorbereitung zum Ultramarathon auseinandersetzen.
Googles Intention liegt dabei auf der Hand. Der Konzern verdient an Werbe-Einblendungen und muss zur Profitmaximierung vor allem sicherstellen, dass die Nutzer so lange wie möglich auf seinem Video-Portal verweilen.
Und Googles Algorithmen haben in den vergangenen Jahren herausgefunden: Nutzer lassen sich vor allem mit solchen Videos an den Bildschirm fesseln, die einen kleinen Zacken extremer als die vorherigen waren.
It seems as if you are never “hard core” enough for YouTube’s recommendation algorithm. It promotes, recommends and disseminates videos in a manner that appears to constantly up the stakes. Given its billion or so users, YouTube may be one of the most powerful radicalizing instruments of the 21st century.