TikTok-Moderatoren sagen, dass sie mit Inhalten zum sexuellen Missbrauch von Kindern geschult wurden

TikTok-Moderatoren sagen, dass sie mit Inhalten zum sexuellen Missbrauch von Kindern geschult wurden

EIN Forbes Bericht wirft Fragen auf darüber, wie das Moderationsteam von TikTok mit Material über sexuellen Missbrauch von Kindern umgeht – und behauptet, es habe einen breiten, unsicheren Zugang zu illegalen Fotos und Videos gewährt.

Mitarbeiter eines Drittanbieters namens Teleperformance, das unter anderem mit TikTok zusammenarbeitet, behaupten, es habe sie gebeten, eine beunruhigende Tabelle mit dem Namen DRR oder Daily Required Reading zu den TikTok-Moderationsstandards zu überprüfen. Die Tabelle enthielt angeblich Inhalte, die gegen die Richtlinien von TikTok verstießen, darunter „Hunderte von Bildern“ von Kindern, die nackt waren oder missbraucht wurden. Die Mitarbeiter sagen, dass Hunderte von Menschen bei TikTok und Teleperformance sowohl innerhalb als auch außerhalb des Büros auf die Inhalte zugreifen könnten – was die Tür zu einem breiteren Leck öffnet.

Teleleistung verweigert Forbes dass es Mitarbeitern sexuell ausbeuterische Inhalte zeigte, und TikTok sagte, dass seine Schulungsmaterialien „strenge Zugriffskontrollen haben und keine visuellen Beispiele von CSAM enthalten“, obwohl es nicht bestätigte, dass alle Drittanbieter diesen Standard erfüllten. „Inhalte dieser Art sind abscheulich und haben keinen Platz auf oder außerhalb unserer Plattform, und wir sind bestrebt, die Exposition von Moderatoren gemäß den Best Practices der Branche zu minimieren. Die Schulungsmaterialien von TikTok haben strenge Zugriffskontrollen und enthalten keine visuellen Beispiele von CSAM, und unser spezialisiertes Kindersicherheitsteam untersucht und erstattet NCMEC Bericht“, sagte TikTok-Sprecher Jamie Favazza Der Rand in einer Stellungnahme.

Die Mitarbeiter erzählen eine andere Geschichte, und wie Forbes legt, es ist eine rechtlich heikle. Inhaltsmoderatoren sind routinemäßig gezwungen, sich mit CSAM auseinanderzusetzen, das auf vielen Social-Media-Plattformen veröffentlicht wird. Aber Bilder von Kindesmissbrauch sind in den USA rechtswidrig und müssen sorgfältig behandelt werden. Unternehmen sollen den Inhalt dem Nationalen Zentrum für vermisste und ausgebeutete Kinder (NCMEC) melden und ihn dann 90 Tage lang aufbewahren, aber die Anzahl der Personen, die ihn sehen, minimieren.

Die Vorwürfe gehen hier weit über diese Grenze hinaus. Sie weisen darauf hin, dass Teleperformance Mitarbeitern grafische Fotos und Videos als Beispiele dafür zeigte, was auf TikTok markiert werden sollte, während es mit dem Zugriff auf diese Inhalte schnell und locker spielte. Eine Mitarbeiterin sagte, sie habe das FBI kontaktiert, um zu fragen, ob die Praxis eine kriminelle Verbreitung von CSAM darstelle, obwohl nicht klar ist, ob eine eröffnet wurde.

Das volle Forbes Bericht ist sehr lesenswert und beschreibt eine Situation, in der Moderatoren nicht mit dem explosiven Wachstum von TikTok Schritt halten konnten und aufgefordert wurden, Verbrechen gegen Kinder aus Gründen zu beobachten, die ihrer Meinung nach nicht zusammenhingen. Selbst nach den komplizierten Maßstäben der Debatten über die Sicherheit von Kindern im Internet ist dies eine seltsame – und wenn sie richtig ist, erschreckende – Situation.

Update 6. August, 9:30 Uhr ET: Erklärung von TikTok hinzugefügt.

Quellenlink