ifun.de — Apple News seit 2001. 34 026 Artikel

Algorithmen setzen auf Extreme

YouTube radikalisiert: Veganer, Rechte, Linke und Jogger

43 Kommentare 43

Eine ganz hervorragende Lese-Empfehlung, die euch zum Reflektieren des persönlichen YouTube-Konsums anhalten sollte.

Zeynep Tufekci musste sich im Rahmen einer Artikel-Recherche für die New York Times mit dem Video-Portal des Suchmaschinen-Betreibers auseinandersetzen und besuchte YouTube.com, wie so viele Nutzer, mit aktivierter Auto-Play-Option, die ausgehend von dem initial angeschauten Clip immer mehr thematisch verwandte Inhalte abspielt.

Was Zeynep im Laufe ihrer Recherche dann auffiel werden viele Anwender wahrscheinlich auch schon registriert, bislang aber vielleicht nicht nur in Worte gefasst haben – so ging es zumindest uns beim Lesen des Times-Essays: YouTube, the Great Radicalizer.

Lässt man die Auto-Play-Option lange genug ans Steuer, sorgen die Algorithmen Googles dafür, dass die abgespielten Videos auf immer radikalere Inhalte setzen. Euch vom gesellschaftlichen Konsens immer weiter an dessen Ränder driften lassen.

Empfehlungen werden immer extremer

Wie Zeynep unter Zuhilfenahme mehrerer neu erstellter YouTube-Accounts nachvollzogen hat, landet man unabhängig vom Ausgangspunkt fast immer am extremen Rand des jeweiligen Themengebietes.

Wer mit konservativen Polit-Videos startet, wird von Googles Empfehlungen irgendwann zu ultrafaschistischen Holocaust-Leugnern geschickt. Links-Liberale Inhalte bringen die Betrachter zu antifaschistischen Verschwörungstheoretikern. Mit vegetarischen Rezept-Suchen landet man bei orthodoxen Veganern und wer sich für den Einstieg ins Joggen interessiert sieht sich irgendwann Videoempfehlungen gegenüber, die sich mit der Vorbereitung zum Ultramarathon auseinandersetzen.

Googles Intention liegt dabei auf der Hand. Der Konzern verdient an Werbe-Einblendungen und muss zur Profitmaximierung vor allem sicherstellen, dass die Nutzer so lange wie möglich auf seinem Video-Portal verweilen.

Und Googles Algorithmen haben in den vergangenen Jahren herausgefunden: Nutzer lassen sich vor allem mit solchen Videos an den Bildschirm fesseln, die einen kleinen Zacken extremer als die vorherigen waren.

It seems as if you are never “hard core” enough for YouTube’s recommendation algorithm. It promotes, recommends and disseminates videos in a manner that appears to constantly up the stakes. Given its billion or so users, YouTube may be one of the most powerful radicalizing instruments of the 21st century.

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
12. Mrz 2018 um 15:52 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    43 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
    Abonnieren
    Benachrichtige mich bei
    43 Comments
    Älteste Kommentare
    Neuste Kommentare Meiste Stimmen
    Inline Feedbacks
    View all comments
    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 34026 Artikel in den vergangenen 7561 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2022 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven