Partner von:
Anzeige

Missachteter Datenschutz: TikTok muss Millionenstrafe zahlen und will Teenager künftig besser schützen

Die Video-App TikTok auf einem Smartphone
Die Video-App TikTok auf einem Smartphone ©Foto: Picture Alliance/dpa

Zu einer Strafe von 5,7 Millionen US-Dollar hat US-Handelsbehörde FTC das Unternehmen Bytedance verdonnert. Grund dafür sind Verletzungen des Datenschutzes bei Musical.ly (heute TikTok), die unter 13-jährige Nutzer betreffen. Der chinesische Konzern kündigte nun an, weitere Maßnahmen zum Schutz der Privatsphäre junger Nutzer einzuleiten.

Anzeige

Das nun verhängte Bußgeld bezieht sich auf ein Gerichtsverfahren, das die US-Handelsbehörde FTC eingeleitet hatte, bevor Musical.ly von Bytedance für rund eine Milliarde Euro gekauft wurde und in die App TikTok integriert wurde. Konkret geht es dabei um Missachtungen des Children’s Online Privacy Protection Act (kurz: COPPA). Demnach müssen Apps bei Nutzern unter 13 Jahren das elterliche Einverständnis einholen, bevor sie einen Account für sie erstellen dürfen.

Mit der Geldstrafe wegen Missachtung des US-Datenschutzes geht ebenfalls einher, dass die App Daten in großem Umfang löschen muss, darunter alle Videos, die von Kindern unter 13 Jahren hochgeladen wurden. Dies geht aus einem gerichtlichen Vergleich zwischen Musical.ly und der FTC hervor. Laut dem COPPA wir das Sammeln personenbezogener Daten bei Kindern unter der besagten Grenze untersagt, wenn sich dadurch Kind, Gerät oder Konto identifizieren lassen.

Gesetz schamlos ignoriert, sagt die FTC

Die FTC wirft Musical.ly zudem vor, nicht die Zustimmung der Eltern für die Erstellung des Accounts eingeholt zu haben, obwohl dem Unternehmen bewusst war, dass eine “signifikante Prozentzahl der Nutzer jünger als 13 Jahre ist”. Hinzu kämen Tausende von Beschwerden der Eltern, dass ihre Kindern einen Account bei der App hätten. Auch habe das in Los Angeles ansässige Unternehmen die sensiblen Daten länger gespeichert als notwendig. “Diese Rekordstrafe sollte eine Erinnerung an alle Online-Dienstleister und Webseiten sein, die sich an Kinder richten. Wir nehmen die Durchsetzung von COPPA sehr ernst, und wir werden Firmen nicht tolerieren, die das Gesetz schamlos ignorieren”, erläuterte FTC-Vorsitzender Joe Simons.

TikTok hat sich in einem Statement zur Strafe geäußert. Es plane zusätzliche private Einstellung und Tools für die Eltern zum Schutz der Teenager, ohne jedoch Details der Schritte zu nennen. Hinzu kommt, dass jüngere US-Nutzer in einem separierten Bereich der App keine Videos mehr teilen, als auch nicht mehr kommentieren und mit anderen Nutzern schreiben können. Der Kern des Produkts, also kuratierte Inhalte anschauen und die Features der App nutzen, bliebe jedoch unangetastet.

Für den deutschen Markt, betont eine Sprecherin des Unternehmens auf Anfrage, dass es bereits Vorkehrungen gebe. “TikTok ist gemäß den Nutzungsbedingungen eine App für Nutzer ab 13 Jahren”, heißt es. Die App überprüft bei der Anmeldung das Alter. Ein Ausweis oder ähnliches Dokument zur Verifizierung muss nicht vorgelegt werden. Zusätzlich wurde im App Store eine 12+ Bewertung festgelegt, die es Eltern ermöglicht, die App auf dem Telefon des Kindes zu blockieren, indem die gerätebasierte Kindersicherung verwendet wird. Außerdem werden Eltern weitere Funktionen angeboten, um beispielsweise die auf TikTok verbrachte Zeit zu kontrollieren und den Inhalt einzugrenzen.

Hierzulande nutzen derzeit etwa 4,1 Millionen Deutsche die App monatlich. Damit liegt Deutschland in Europa vor Frankreich (4 Mio.), UK (3,7 Mio.) und Spanien (2,7 Mio.). Der stärkste Markt wird wohl weiterhin Asien sein, wo bereits rund 500 Millionen Menschen die Video-Plattform regelmäßig nutzen.

Missbrauchsvorwürfe in der Vergangenheit
Anzeige

Es ist nicht das erste Mal, dass der Kinderschutz auf der App kritisiert wird: Im April 2018 hatte das Verbraucherschutzportal mobilsicher.de vor Missbrauch und sexueller Nötigung bei Musical.ly gewarnt. So fänden sich unter einschlägigen Hashtags aufreizende Videos auch von jungen Mädchen, die nicht älter als sieben oder acht Jahre seien. Über die Kommentarleisten würden manche Nutzer anzügliche Kommentar abgeben, versuchen direkt an die Videos zu kommen oder Kontakt mit den Mädchen aufzunehmen. Zudem prangerte mobilsicher.de die Voreinstellungen und den Umgang des Dienstes mit Nutzerdaten an.

Das Unternehmen hatte in der Folge, die bereits vorhandenen Schutzmaßnahmen weiter ausgebaut, darunter diverse Einstellungen innerhalb der App wie das Blocken von Personen oder das Melden von Inhalten, die gegen die Richtlinien verstoßen.

 

Sieh dir diesen Beitrag auf Instagram an

 

Ein Beitrag geteilt von MEEDIA (@meedia.de) am

Mit Pädophilie-Vorwürfen hatte jüngst erst YouTube zu kämpfen (MEEDIA berichtete). Zahlreiche große Unternehmen, darunter Disney, Nestlé und „Fortnite“-Entwickler Epic Games hatten mitgeteilt, vorerst keine Werbung mehr auf YouTube zu schalten. Zwischenzeitlich hat die Video-Plattform Maßnahmen zur Eindämmung des Problems ergriffen. Das US-Unternehmen betonte dabei unter anderem, dass die Plattform bereits tausende Kanäle wöchentlich lösche, die von Kindern unter 13 Jahren betrieben werden.

tb

Keine Neuigkeiten aus der Medien-Branche mehr verpassen: Abonnieren Sie kostenlos die MEEDIA-Newsletter und bleiben Sie über alle aktuellen Entwicklungen auf dem Laufenden.

Anzeige

Mehr zum Thema

Anzeige
Anzeige
Werben auf MEEDIA
Meedia

Meedia