TikTok gaat automatisch video’s verwijderen
TikTok gaat automatisch, al bij het uploaden, video’s verwijderen die tegen de regels ingaan. Zo hoopt het populaire platform de veiligheid voor kijkers én contentmoderatoren te verbeteren. Wel betekent dit dat ook video’s die niet tegen de regels ingaan, verwijderd kunnen worden. TikTok schat in dat dit bij 5% van de gevallen zal gebeuren.
Moderatie op TikTok: zo werkt het
Hoe werkt de contentmoderatie tot nu toe? Als je een video uploadt naar TikTok, dan gaat het eerst langs software die checkt of het aan de voorwaarden voldoet. Als een video mogelijk één van de regels schendt, wordt het ‘geflagd’ en gecontroleerd door een medewerker van het safety team. Bevestigt die persoon de schending vervolgens, dan wordt de video verwijderd. De maker van de video krijgt hier een melding van en krijgt de mogelijkheid om hier bezwaar tegen te maken.
TikTok wil dit proces verbeteren en kondigt aan dat de komende weken in de VS en Canada nieuwe technologie uitgerold wordt die automatisch video’s verwijdert, al bij het uploaden. Onbekend is of dit ook voor Europa geldt. De automatisering van contentmoderatie vindt voorlopig alleen plaats bij speciale categorieën. Te beginnen met video’s met minderjarigen, gewelddadige content, (volwassen) naaktheid en seksuele activiteiten, illegale activiteiten en zogenoemde ‘regulated goods’ (denk aan alcohol en sigaretten).
Het platform geeft wel eerlijk toe dat de technologie onmogelijk 100% accuraat kan zijn. Het blijft creators de mogelijkheid bieden om bezwaar te maken tegen verwijdering van hun video’s.
Contentmoderatoren beter beschermen
De maatregelen zijn ook bedoeld om de medewerkers van het Safety team beter te beschermen, geeft TikTok aan. Zo hoeven ze minder schokkende video’s te bekijken en kunnen ze hun tijd besteden aan het beoordelen van meer genuanceerde video’s, met bijvoorbeeld nepnieuws of pesterijen erin.
Deze maatregel past in de ontwikkeling dat er meer aandacht is voor het welzijn van contentmoderatoren op social media. Zo kwamen de afgelopen jaren al schokkende verhalen van moderators bij Facebook en bij Google en YouTube naar voren. Contentmoderatoren beoordelen heftige content voor een mager loon, onder strakke regels van het management, en houden daar uiteindelijk vaak trauma’s aan over. Het Boekenweekgeschenk Wat wij zagen van Hanna Bervoets gaat ook over dit onderwerp.
Goed en slecht nieuws voor contentcreators en kijkers
Dat een algoritme veiligheidsteams ondersteunt bij het verwijderen van video’s is een goede ontwikkeling. Maar daar zullen contentcreators het niet altijd mee eens zijn. 5% van de video’s wordt alsnog onterecht verwijderd. En bij miljoenen of miljarden uploads per dag, is dat nog steeds veel.
Als maker kun je bezwaar aantekenen tegen het verwijderen van je video, maar je bent wel aan de grillen van het systeem overgeleverd. En het is de vraag hoe lang het moderatieteam erover doet om je video te beoordelen én hoe eerlijk dit gaat. In het verleden heeft TikTok erkend video’s van de LGBTQ+-community, dikke mensen en verstandelijk beperkte mensen te hebben verborgen. En ook in 2020 en 2021 gaan op het platform nog steeds verhalen rond dat video’s van dikke mensen in bikini verwijderd worden, terwijl dezelfde video’s van slanke mensen wel blijven staan. Dus het is begrijpelijk dat de community sceptisch is over de aanpassingen.
Aan de andere kant is dit voor de moderatoren wel een goede ontwikkeling. Het beschermt mogelijk ook slachtoffers tegen verdere verspreiding van video’s waar zij in staan. En last but not least behoedt het platform de toch vaak jonge kijkers beter voor blootstelling aan schokkende content.