Anzeige
Plattformen

Tut YouTube genug gegen Hass- und Verschwörungsvideos? Report zeigt, wie Mitarbeiter-Hinweise ignoriert wurden

In einem umfangreichen Report zeichnet die US-Nachrichtenagentur Bloomberg nach, wie YouTube in großem Stil versagt, problematische Inhalte auf der Video-Plattform unter Kontrolle zu bringen. Schlimmer noch: Hochrangige Mitarbeiter erklären, dass die Steigerung von Reichweite als wichtiger erachtet wird, als das Filtern von teils hochproblematischen Videos. YouTube erklärt hingegen, seine Bemühungen verstärkt zu haben.

Stefan Winterbauer03.04.2019 09:28
YouTube-Chefin Susan Wojcicki
YouTube-Chefin Susan Wojcicki

Dass es Probleme vor allem mit dem Empfehlungs-Algorithmus von YouTube gibt, ist nichts neues. Schaut man bei Alphabets Video-Tochter ein Video, bekommt man in einer Seitenleiste weitere Videos empfohlen. Diese Empfehlungen basieren auf einem Algorithmus und sollen Nutzer dazu animieren, möglichst viele weitere Videos zu schauen. 2018 berichtete der britische Guardian über ein Programm eines französischen Computerwissenschaftlers, der bis 2013 für YouTube gearbeitet hat. Er hat ein Programm entwickelt, das ermitteln sollte, welche Videos vom YouTube-Algorithmus über verschiedene Stufen hinweg empfohlen werden. Dabei zeigte sich, dass die empfohlenen Videos immer extremer und radikaler wurden. Über zunächst harmlose Suchanfragen landete man, folgte man den Empfehlungen, mit wenigen Klicks bei wüsten Verschwörungstheorien und extremistischen Inhalten (MEEDIA berichtete).

Anzeige