YouTube: Eine Entertainment-Seite voller Beauty-Tipps, Gaming-Channels und How-To-Videos. Aber auch eine Plattform für Verschwörungstheorien und immer mehr Hass. Und Schuld daran ist der Algorithmus. Dem soll es nun an den Kragen gehen. Hier erfährst du warum das gut für dich ist.
Der YouTube-Algorithmus: So tickt die Plattform
YouTube hat einen sogenannten "Empfehlungsalgorithmus" und der kann:
- sich merken was du früher schon mal gesucht hast,
- erkennen wofür du dich zurzeit interessierst und
- vorschlagen, was du in Zukunft wahrscheinlich sehen willst.
Das macht der Algorithmus nicht nur anhand deines Suchverhaltens fest, sondern vor allem an deiner Verweildauer. Je länger du dir ein Video ansiehst, umso empfehlenswerter ist der Content aus Sicht von YouTube. Dabei werden derzeit noch alle Kanäle als gleich relevant behandelt. Egal wie viele FollowerInnen der Kanal hat oder ob die Quelle tatsächlich vertrauenswürdig ist oder nicht. Daraus ergibt sich die personalisierte Startseite, die ganz auf deinen YouTube-Konsum abgestimmt ist. Aus der Sicht des Videoplattformanbieters hat sich der bisherige Algorithmus schon ausgezahlt. Seit 2012 sind wir durschnittlich zehnmal länger auf YouTube.
Was ist denn dann das Problem?
So wie bei Facebook auch kann der Algorithmus nicht zwischen Fakten und Verschwörungstheorien unterscheiden. Während die Augen der Welt bei Fake-News fast ausschließlich auf Facebook gerichtet waren, hatten rechte Gruppierungen freie Bahn auf YouTube. Dank des Algorithmus´ kommt man von einem Weltverschwörungsvideo zum nächsten, immer tiefer in den Sumpf hinein. Wenn man nach politischen Themen sucht, erhält man auf YouTube jedenfalls keinen ausgewogenen Medienspiegel. Ist dir das auch schon einmal aufgefallen?
Aber was kann YouTube eigentlich dafür?
Kurz gesagt: YouTube übernimmt keine Verantwortung für Inhalte. Verhält sich aber trotzdem nicht so wie eine reine Content-Plattform, was sehr widersprüchlich ist. Markus Breitenecker (Pro7, Sat1, Puls4 Chef) ist in den Ring gestiegen gegen YouTube. YouTube verhält sich mit der Autoplay-Funktion und der Empfehlung wie ein Medium (ein Fernsehkanal mit kuratiertem Content), und wird von den UserInnen auch als solches genutzt. Aber: Medien haben eine Redaktion, die recherchiert, falsifiziert und idealer Weise ausgewogen berichtet. Die Inhalte dürfen keinen Hass schüren, diffamieren oder Unwahrheiten erzählen. Das erfüllt YouTube leider nicht. Einige redaktionelle Aufgaben übernimmt bei YouTube ein Algorithmus. Also eine künstliche Intelligenz. Diese kann erkennen ob es beispielsweise bei Musik Lizenzverletzungen gibt - dann wird das Hochladen überhaupt erst gar nicht ermöglicht. Bei Hass, Hetze oder Verleumdung geht das nicht so einfach. Hierzu müsste YouTube viele qualifizierte Menschen einstellen. Dieser Verantwortung entzieht sich die Plattform aber. Sich gegen falsche, verhetzerische, hasserfüllte, bedrohliche, sexistische Inhalte wehren? Ist leider fast aussichtslos. Breitenecker ist hier aber dennoch ein Etappensieg gelungen. Nach dem Wettbewerbsrecht (Werbung) hat YouTube auch nach dem Urheberrecht Verantwortung für die gezeigten Inhalte.
Und nun - reagiert YouTube?
Die Parallelwelt, die durch YouTube geschaffen wird (dadurch, dass uns immer wieder ähnliche Videos angezeigt werden), soll nun wieder sukzessive umgebaut werden. Sie tut uns nicht gut. Wie es dazu kam? Die Tochter der YouTube-Chefin Susan Wojcicki fragte ihre Mutter, ob es tatsächlich weniger Frauen aus biologischen Gründen in Führungspositionen von technischen Unternehmen schafften. Wie sie darauf kam? Indem sie Bücher von James Damores gelesen hat. Wie er darauf kam? Der lauschte dem antifeministischen Pseudowissenschaftler Jordan Peterson. Ratet mal wo! Ja genau, auf YouTube, wie zum Beispiel im Guardian beschrieben wurde. Die Antifeminismus-Schriften und die Frage von Wojcickis Tochter führen nun also dazu, dass YouTube seinen Algorithmus ändern wird.
Was wird anders am neuen YouTube-Algorithmus?
Es wird an den Parametern geschraubt, die die Relevanz eines Videos bestimmen. Wenn bislang die Verweildauer das wichtigste Kriterium war, soll nun in Zukunft auch dem/der AbsenderIn mehr Relevanz zugemessen werden. Seriöse Quellen wie beispielsweise CNN oder SRF sollen stets höher gereiht werden. Doch da gibt es einen Haken. Diese Quellen stellen fast kein Filmmaterial zur Verfügung. Bei den meisten Nachrichtenargenturen gilt immer noch: Text schlägt Video. Weil Text viel schneller zu produzieren ist als ein Video. Hierzu benötigt man Equipment, Know-How und viel mehr Zeit. Auch dieses Problem hat Youtube erkannt und reagiert mit 25 Millionen Dollar darauf. Das Geld soll Medienhäusern beim Aufbau von Know-How helfen, wie YouTube Anfang Juli 2018 bekannt gab. Mal sehen, ob das reicht.
Und das ist gut für uns alle!
Wenn wir KonsumentInnen in Zukunft keine Halbwahrheiten mehr erhalten und auch nicht mehr daran glauben sollen, dass die Erde eine Scheibe ist (weil uns der Algorithmus nur noch Videos dieser Gruppen ausspielt), dann hilft uns das allen. Zum Einen haben wir dann keine Angst, dass wir mal am Ende der Welt ankommen und dort runterfallen. Zum Anderen erhalten wir dann Wissen, das uns weiterbringt. Weiter als bis zum Ende der Welt! Man kann uns nicht einreden, dass irgendwelche Personengruppen Schuld daran wären, dass man selber keinen Job hat. Oder, dass PolitikerInnen Echsenwesen sind. Stattdessen würden wir uns alle vielleicht ernste Fragen stellen wie beispielsweise: "Okay, Trump ist kein Echsenwesen und die MexikanerInnen nehmen mir die Jobs nicht weg. Die Statistik sagt, die Arbeitslosenquote in den USA sinkt - wieso habe ich dennoch keinen Job?"
Auch den progressiven Kräften würde der Algorithmuswechsel einen Gefallen tun. Diese sind ja oftmals für ihre Sachlichkeit bekannt á la: Immer bei den Fakten bleiben, ja nicht zu viele Emotionen. Lang würde es nicht dauern, sie als seriöse Quellen zu erkennen und ihre Relevanz nach oben schnellen zu lassen. Stellt euch das mal vor?! Vielleicht können die neuen Medien die Welt tatsächlich ein Stückweit zu einem besseren Ort machen. Glaubst du das?