Partner von:
Anzeige

Von Propaganda-Vorwürfen zur US-Wahl bis zum Fall Richard Gutjahr: Auch die Videoplattform YouTube hat ein Hass-Problem

Der britische Guardian berichtete über die Rolle, die YouTube bei der Verbreitung von hetzerischen Inhalten rund um die US-Wahl spielte
Der britische Guardian berichtete über die Rolle, die YouTube bei der Verbreitung von hetzerischen Inhalten rund um die US-Wahl spielte

Viel ist die Rede vom Einfluss, den Facebook und Twitter auf die politische Willensbildung nehmen. Googles Videoplattform YouTube bleibt in der Debatte meist außen vor. Dabei ist YouTube mit rund 1,5 Mrd. Nutzern weltweit auch ein Social-Media-Riese. Ein ehemaliger YouTube-Mitarbeiter hat nun im Guardian enthüllt, welch fatale Rolle der Algorithmus der Videoplattform bei der Verbreitung von Hetze, Propaganda und Verschwörungstheorien spielt. YouTube widerspricht.

Anzeige
Anzeige

Guillaume Chaslot ist ein 36-jähriger französischer Computerwissenschaftler, der bis 2013 für YouTube gearbeitet hat. Er hat ein Programm entwickelt, das ermitteln soll, welche Videos vom YouTube-Algorithmus über verschiedene Stufen hinweg empfohlen werden. „Empfohlene“ Videos werden bei YouTube neben dem gerade angeschauten Video als „nächstes Video“ aufgeführt, bzw. werden beim Aufrufen von YouTube auf der Startseite als „empfohlen“ gelistet.

Videos, die es in diese Listen schaffen, werden naturgemäß häufig aufgerufen. Erstens werden sie den Nutzern prominent offeriert, zweitens startet das nächste empfohlene Video automatisch, wenn das gerade aktuelle Video zu Ende ist. Die Software, die Chaslot entwickelt hat, verfolgt nun automatisch, welche Videos vom YouTube-Algorithmus über verschiedene Stufen hinweg empfohlen werden. Dabei sei herausgekommen, dass der Algorithmus offenbar bevorzugt Videos empfiehlt, die sensationsheischend oder propagandistisch sind oder auch Verschwörungstheorien oder so genannte Fake News verbreiten. Darüber berichtet der britische Guardian.

Zwei Beispiele: Wenn die Software als Ausgangs-Video eines nimmt, das auf der Suchanfrage „Wer ist Michelle Obama?“ basiert, dann habe der Algorithmus vor allem weitere Videos vorgeschlagen, die die Verschwörungstheorie zum Thema hatten, dass Michelle Obama ein Mann sei. Bei einer YouTube-Suche nach dem Papst seien in 80 Prozent der Fälle weitere Videos empfohlen worden, die den Papst als böse, satanisch oder den Anti-Christen zeichnen.

Dass YouTube als Brandbeschleuniger für Hetze und Verschwörungstheorien funktionieren kann, hat auch der Journalist Richard Gutjahr am eigenen Leib erfahren. Gutjahr war zufällig während zweier dramatischer Ereignisse anwesend, dem Terroranschlag mit einem Lkw in Nizza und dem Amoklauf in München. Weil er von beiden Ereignissen berichtete, entstanden Verschwörungstheorien im Netz,  Gutjahr sei in die Vorbereitung des Anschlags, bzw. Amoklaufs involviert gewesen. Die Theorien wurden dadurch befeuert, dass seine Ehefrau Abgeordnete des israelischen Parlaments ist und den verpflichtenden Grundwehrdienst absolvierte.

In einem Artikel für die Zeit schildert Gutjahr, u.a. wie er erfolglos versuchte, Hetz-Videos gegen ihn und seine Familie bei YouTube entfernen zu lassen. Er berichtet von unnötig komplizierten Beschwerdeformularen, die letztlich nicht zu einer Sperrung von gemeldeten Videos führten. Schlimmer noch: Als er versuchte, die Hetz-Videos wegen Copyright-Verstößen entfernen zu lassen, gab YouTube offenbar seinen Namen und seine Adresse an die  Urheber der Videos weiter, was zu neuen Attacken gegen Gutjahr im Netz führte. Ein YouTube-Sprecher sagte hierzu gegenüber MEEDIA: „Wir kommentieren Einzelfälle nicht im Detail, können aber in diesem Fall bestätigen, dass wir alle gemeldeten Inhalte sorgfältig geprüft haben. Wir werden dies auch mit neu eingestelltem Material tun, wenn es uns gemeldet wird. Videos, die gegen Gesetze oder YouTubes eigene Richtlinien verstießen, seien gesperrt oder gelöscht worden. Solange Videos jedoch nicht gegen Persönlichkeitsrechte, unsere Inhaltsrichtlinien oder geltendes Recht verstoßen, sind sie von der Meinungsfreiheit gedeckt. Wir werden solche Fälle weiterhin genau beobachten und die Richtlinien wie auch in der Vergangenheit kontinuierlich anpassen.“

Trotzdem liegt wohl durchaus etwas im Argen bei YouTube. Für den britischen Guardian analysierte Chaslot mit seiner Software rückblickend den Wahlkampf zur jüngsten US-Präsidentschaftswahl. Viel wurde darüber berichtet und spekuliert, welchen Einfluss Facebook bei der Wahl Donald Trumps gehabt haben könnte. Eine mögliche Rolle von YouTube war bislang noch nicht im Fokus der Debatte.

Anzeige

Die Ergebnisse der Untersuchung waren recht eindeutig. 86% empfohlene Videos bei YouTube, die Teil der Analyse waren, waren laut Guardian Pro-Trump oder gegen die Clinton Kampagne gerichtet. Hillary Clinton wurde in zahlreichen empfohlenen Videos immer wieder als krank oder kriminell bezeichnet. Mehr als dubiose Quellen wie der rechtsgerichtete Verschwörungstheoretiker-Kanal „The Alex Jones Channel“ gehörten im Vorfeld der US-Präsidentschaftswahl demnach zu den meist empfohlenen Kanälen.

Offenkundige Lügengeschichten, wie jene, dass Ex-Präsident Bill Clinton eine 13-Jährige vergewaltigt habe, wurden von dem YouTube-Algorithmus in die Top-Listen der empfohlenen Videos gehievt. Laut der Untersuchung, die der Guardian mit Hilfe von Chaslots Software durchführte, war es sechsmal wahrscheinlicher, dass der Algorithmus ein Video empfahl, das Donald Trump half, statt eines, das positiv für Hillary Clinton war. Der Guardian betont freilich auch, dass der Algorithmus keineswegs so funktioniert, dass er eine bestimmte politische Richtung bevorzugt. Der Algorithmus reagierte auf besonders emotionale und eben auch spalterische und hetzerische Inhalte, da diese eben für eine hohe Aufmerksamkeit und Interaktionsrate sorgten.

YouTube widerspricht den Erkenntnissen von Chaslot, die der Guardian veröffentlichte: „Wir sind mit der Methodik, den Daten und, am wichtigsten, den Schlüssen der Guardian-Nachforschungen nicht einverstanden.  Die Stichprobe von 8.300 untersuchten Videos zeichnet kein akkurates Bild darüber, welche Videos YouTube vor über einem Jahr im Vorfeld der US-Präsidentschaftswahlen empfohlen hat. Unser Such- und Empfehlungssystem basiert darauf, was Leute suchen, welche Zahl an Videos verfügbar ist und welche Videos von Leuten bei YouTube angeschaut werden.“

Im Laufe des Jahres 2017 habe man daran gearbeitet zu verbessern, wie YouTube Anfragen und Empfehlungen mit Bezug auf News bearbeitet. So seien Änderungen am Algorithmus gemacht wurden, um Qualitätsmedien in Suchergebnissen besser sichtbar zu machen, besonders bei Breaking-News-Lagen. Außerdem sei auf der Homepage ein eigener „Breaking News“-Bereich geschaffen worden, der Inhalte von zuverlässigen News-Quellen anzeige. Und wenn Leute News-bezogene Suchanfragen eingeben, würde ein Feld „Top News“ Ergebnisse von Qualitätsmedien liefern. „Wir gehen auch hart gegen Videos vor, die zwar unsere Richtlinien nicht klar verletzen, aber religiös aufrührerische oder rassistische Inhalte haben. Wenn gemeldet, wird solchen Videos eine Warnmeldung vorangestellt, sie werden von der Vermarktung ausgeschlossen, werden nicht empfohlen und können nicht kommentiert oder von Nutzern gefördert werden. Wir schätzen, dass der Guardian mit seiner Arbeit diese herausfordernden Themen öffentlich macht. Wir wissen, dass mehr zu tun ist und freuen uns auf weitere Ankündigungen in den kommenden Monaten.“

Die Plattform hat nach eigenen Angaben auch mit US-Behörden zusammengearbeitet, als es darum ging mögliche Einflüsse ausländischer Staaten auf den US-Wahlkampf zu untersuchen. „Wie wir den Ermittlungsbehörden mitgeteilt haben, haben wir keine Beweise für eine Manipulation durch ausländische Akteure gefunden“, heißt es von Seiten YouTubes. Nach Informationen der Plattform werden weltweit über 10.000 Menschen beschäftigt, die mit der Prüfung von Video-Inhalten beschäftigt sind. Dazu zählen freilich sowohl Software-Ingenieure, die Algorithmen und automatischen Such- und Prüfprozesse anpassen und entwickeln, als auch so genannte Human Agents, die tatsächlich Videos sichten, prüfen und gegebenenfalls Sperren oder löschen. Auch in Deutschland würden solche Mitarbeiter sitzen. Wie viele das genau sind und wie sich die Zahl auf Ingenieure und Human Agents aufteilt, will YouTube lieber nicht mitteilen.

Anzeige

Mehr zum Thema

Anzeige
Anzeige

Alle Kommentare

  1. Wäre es nicht angebracht die wahrscheinlichste aller Ursachen ebenfalls zu erwähnen? Der „Algorithmus“ wird wohl in erster Linie die Videos berücksichtigen die a.) einen „Bezug“ zum Thema und b.) hohe Klickraten haben. Bezug stellen „Algorithmen“ dann am einfachsten über Namensgleichheit her.

    Wer nun a und b zusammenzählt wird leicht herausfinden wie diese „Timeline“ ( die ja gar keine ist und in die dann noch Videos eingestreut werden die auf diesem Gerät vorher geschaut wurden) zustande kommt.

    Durch den Mob, von dem sich das „zweitälteste Gewerbe“ nun mal ernährt.

    Das werden auch Sie wissen und trotzdem (oder gerade deshalb) nicht bringen. Aus den gleichen Gründen wie ihre „Brüder im Geiste“ bei YT.

Dein Kommentar

Deine E-Mailadresse wird nicht veröffentlicht.

*

Meedia

Meedia