TikTok wdraża kolejną falę zwolnień w działach moderacji treści. Firma coraz mocniej opiera się na sztucznej inteligencji, która ma przejmować zadania dotąd wykonywane przez ludzi. Według najnowszych ustaleń, redukcje dotkną setek etatów – szczególnie w Wielkiej Brytanii oraz regionie Azji Południowej i Południowo-Wschodniej.
Najważniejsze informacje w skrócie
Setki etatów w moderacji treści są likwidowane w ramach restrukturyzacji (m.in. w Wielkiej Brytanii).
TikTok zwiększa udział AI w moderacji: ponad 85% usunięć zaczyna się od automatyzacji, a 99% z nich następuje zanim ktoś zgłosi treść.
W Niemczech około 150 moderatorów sprzeciwiło się zastępowaniu ludzi przez AI; odbyły się protesty i strajki.
Fala zmian trwa od IV kw. 2024 r., gdy zredukowano setki etatów w Malezji.
Co dokładnie się dzieje?
Wielka Brytania: Według „WSJ” i „The Guardian” TikTok zwolni kilkuset moderatorów w ramach przesunięcia ciężaru na automatyczną moderację. Część ról ma zostać przeniesiona do innych lokalizacji lub do zewnętrznych dostawców.
Azja Południowa i Południowo-Wschodnia: Redukcje pojawią się także w tym regionie. To kontynuacja trendu zapoczątkowanego jesienią 2024 r.
Niemcy (Berlin): Związki zawodowe informowały o zagrożeniu miejsc pracy dla ~150 osób i strajkach przeciw zastępowaniu ludzi przez AI.
Dlaczego TikTok przechodzi na AI w moderacji?
TikTok argumentuje, że automatyzacja przyspiesza i ujednolica egzekwowanie zasad, a przy tym ogranicza ekspozycję ludzi na szkodliwe treści. Dane platformy mówią o >85% treści usuwanych dzięki automatycznemu wykrywaniu oraz 99% usunięć przed zgłoszeniem przez użytkownika.
Firma równolegle aktualizuje Zasady Społeczności i raportowanie w UE (DSA), podkreślając „technologiczne usprawnienia” procesu moderacji.
Ryzyka i wyzwania automatycznej moderacji
Fałszywe alarmy i kontekst kulturowy: AI potrafi błędnie klasyfikować treści, szczególnie polityczne lub satyryczne, co podnoszą związki zawodowe i pracownicy. Przejrzystość i odwołania: Choć TikTok zapewnia możliwość odwołań, organizacje branżowe ostrzegają przed „niedojrzałością” systemów AI i skutkami ubocznymi masowej automatyzacji.
Odpowiedzialność regulacyjna: W Wielkiej Brytanii wchodzi w życie Online Safety Act, a w UE obowiązuje DSA, co zwiększa presję na skuteczność i transparentność moderacji
Co to oznacza dla twórców i marek?
Więcej prewencji: Unikaj elementów ryzykownych (np. niejednoznacznych kontekstów). Stawiaj na jasne opisy i metadane.
Szybkie odwołania: Monitoruj powiadomienia. Odwołuj się przy oczywistych błędach klasyfikacji.
Ujednolicone procesy: Spodziewaj się bardziej spójnych, lecz czasem surowszych decyzji algorytmicznych.
Compliance: Aktualizuj polityki marek i zasady współpracy z twórcami pod kątem OSA/DSA.
Oś czasu: jak narastała fala zwolnień
Październik 2024: Reuters informuje o setkach zwolnień w Malezji – głównie w zespołach moderacji treści.
Lipiec 2025: Berlin – strajk i protesty przeciw zastępowaniu moderatorów przez AI (ok. 150 miejsc pracy zagrożonych).
Sierpień 2025: Wielka Brytania – media donoszą o setkach redukcji w działach moderacji i bezpieczeństwa, w ramach globalnej restrukturyzacji.
Podsumowanie
TikTok przyspiesza automatyzację moderacji i redukuje setki etatów. Zmiana ma zwiększyć szybkość i skalę egzekwowania zasad, ale rodzi pytania o błędy AI, przejrzystość i odpowiedzialność w świetle nowych regulacji. Dla twórców i marek kluczowe będzie proaktywne zarządzanie ryzykiem, szybkie odwołania oraz bieżące dopasowanie strategii do zasad OSA i DSA.