Mordvideo zwei Stunden lang online: Facebook räumt Systemfehler im Umgang mit Gewalt-Inhalten ein

Bad News aus dem eigenen Netzwerk ausgerechnet kurz vor seiner Eröffnungsrede bei der Entwicklerkonferenz F8: Facebook-Gründer Mark Zuckerberg
Bad News aus dem eigenen Netzwerk ausgerechnet kurz vor seiner Eröffnungsrede bei der Entwicklerkonferenz F8: Facebook-Gründer Mark Zuckerberg

Das schockierende Facebook-Video, auf dem ein Mann einen wahllos ausgesuchten Rentner erschießt, hat die Debatte um die Verantwortung des weltgrößten Online-Netzwerks erneut zugespitzt. Der mutmaßliche Täter kündigte am Wochenende erst in einem Video einen Mord an, stellte dann zwei Minuten später bereits die gefilmte Tat online und bekannte sich kurz darauf auch noch in einem Livestream dazu.

Anzeige

Der Fall deckt exemplarisch die Schwachstellen des heutigen Umgangs mit solchen Videos bei Facebook auf. Das Netzwerk verlässt sich dabei zumeist auf Hinweise von Nutzern. Das Profil des mutmaßlichen Täters wurde zwar 23 Minuten nach Eingang der Meldung zum Mordvideos gesperrt, zu diesem Zeitpunkt war es jedoch gut zwei Stunden lang online verfügbar. Und das, obwohl ein Hinweis auf den verstörenden Livestream mit dem Geständnis ebenfalls rund zwei Stunden zuvor bei Facebook einging.

„Wir wissen, wir müssen besser werden“, resümierte der zuständige Top-Manager Justin Osofsky. Facebook beschäftige „Tausende“ Menschen rund um die Welt, die Millionen Facebook-Beiträge pro Woche prüften, betonte er. Nun solle auch das Meldesystem auf den Prüfstand gestellt werden. In Europa und vor allem auch in Deutschland mit den Gesetzesplänen von Bundesjustizminister Heiko Maas wächst der Druck auf Online-Plattformen, schneller und härter gegen Hass, Mobbing und Gewaltdarstellungen vorzugehen.

Könnte künstliche Intelligenz dabei helfen, die Inhalte von Bildern und Videos schneller zu erkennen? Schließlich heben Facebook oder Google bei jeder Gelegenheit ihre Erfolge bei selbstlernenden Computern hervor. Doch für die Online-Firmen geht es hier um das Grundprinzip, nach dem sie funktionieren – und das sie so rasant wachsen ließ: Sie stellen nur die Plattform, die Inhalte kommen von den Nutzern und müssen nicht vorab geprüft werden. Ausnahmen gibt es nur in einzelnen, besonders drastischen Fällen, zum Beispiel bei Kinderpornografie.

Ansonsten kommt Bilderkennungs-Technologie erst zum Einsatz, wenn Fotos oder Videos bereits von den Nutzern gemeldet wurden. Facebook erstellt seit kurzem auch bei sogenannten „Rachepornos“, also ohne Zustimmung geteilten intimen Bildern, eine Art digitalen Fingerabdruck, damit sie nicht weiterverbreitet werden können. Auch bei Gewaltvideos werde mit Hilfe lernender Maschinen das Teilen in voller Länge verhindert, betonte Osofsky jetzt. Nur Fragmente könnten in Berichte oder kritische Beiträge eingefügt werden.

Reicht diese Vorgehensweise für eine Plattform mit nahezu zwei Milliarden Mitgliedern aus? Jeder neue Fall verstärkt Schritt um Schritt den Druck auf Facebook – und mit dem Mord in Cleveland nun auch in den USA. „Ich denke, Facebook beginnt zu verstehen, dass sie eine Verantwortung als Plattform haben, über die sie sich vorher nicht so Gedanken machten“, sagte die prominente Silicon-Valley-Reporterin Kara Swisher im US-Sender NBC. „Wenn man die größte Plattform hat, werden die Leute auch so etwas veröffentlichen.“

Für Facebook platzt die neu aufgeflammte Debatte ausgerechnet in die jährliche Entwicklerkonferenz F8, bei der das Online-Netzwerk traditionell neue Produkte und Dienste vorstellt. Gründer und Chef Mark Zuckerberg dürfte geplant haben, bei seiner Eröffnungsrede am Dienstagabend europäischer Zeit an sein Manifest darüber anzuknüpfen, wie Facebook die Gesellschaft verbessern könnte. Nun dürfte er gezwungen sein, erst einmal die Hausaufgaben von Cleveland zu machen.

Anzeige
Anzeige
Anzeige