TikTok jest najszybciej rosnącą platformą społecznościową wśród młodzieży na świecie i w Polsce. Musi mierzyć się z tymi samymi problemami, co "starsi bracia" jak Facebook, Instagram, itp. Rozmawiamy z Alexandrą Evans, która w europejskiej części TikToka pełni funkcję szefowej ds. polityki bezpieczeństwa publicznego, o tym, jak platforma chce chronić najmłodszych.
Podczas webinaru mówiliście dużo o samobójstwach, czy jest to istotny problem na TikToku? Ile średnio usuwacie treści dotyczących samobójstw?
Na TikToku absolutnie nie tolerujemy takich treści. Nawiasem mówiąc, badanie, które omawialiśmy, dotyczyło szerszego spektrum zjawisk, pojawiających się na wszystkich platformach społecznościowych, między innymi zjawisk określanych jako „toxic gamification”, czyli np. wyzwania „blue whale” czy „momo”. Nie tylko nie pokazujemy hashtagów związanych z nimi trendów, ale dodatkowo odsyłamy użytkowników, którzy ich szukają do stron ze specjalistyczną pomocą i bazami informacjami.
(„Blue whale” i „momo” to popularne niegdyś wyzwania, w ramach których osoba rzekomo były zmuszane do wykonywania różnych poleceń z okaleczeniem i samobójstwem włącznie. W praktyce nie ma dowodów, że ktokolwiek odebrał sobie życie na skutek tych wyzwań — przypis redakcji).
Czy jesteście w stanie przewidzieć nowe wyzwania lub nieprawdziwe treści, zanim się pojawią?
Jest prawie niemożliwe, żeby je przewidzieć, ale na pewno będziemy widzieć nowe wyzwania tego typu, gdy będą notować pierwsze wzrosty popularności.
Zauważenie ich wcześniej jest trudne, bo młodzi ludzie są niezwykle kreatywni w obchodzeniu przepisów.
Mamy strategię wczesnego wykrywania negatywnych i niebezpiecznych treści. Jest to system umiejący np. monitorować zwykłe, nieszkodliwe hashtagi, które zostają wykorzystane do promowania szkodliwych treściami.
Jak będziecie w stanie je odróżnić od zwykłych, bezpiecznych hashtagów, które będą zdobywały popularność?
Możemy zbudować algorytmy, które są w stanie je rozróżnić. Już teraz usuwamy 93 proc. szkodliwych treści w ciągu 24 godzin od momentu ich dodania, nawet zostaną nam zgłoszone przez użytkowników. Często także, zanim zanotują jakiekolwiek wyświetlenia. W połączeniu z ludzkimi moderatorami jesteśmy w stanie bardzo szybko je wychwytywać.
Mamy tysiące moderatorów w trzech centrach na świcie, w San Francisco, w Dublinie i w Singapurze więc jesteśmy w stanie monitorować, co się dzieje w naszej aplikacji przez 24 godziny na dobę.
A ilu z nich mówi po polsku?
Nie możemy podać niestety konkretnej liczby, choćby dlatego, że te zespoły ciągle się rozrastają, ale mogę powiedzieć, że na całym świecie mamy tysiące pracowników odpowiadających za bezpieczeństwo, i bardzo dobrym pokryciem w kontekście językowym.
Mówiliście o samobójstwach, a ile innych niebezpiecznych materiałów takich jak samookaleczenie, wykorzystywanie seksualne, pornografia dziecięca, przemoc, mowy nienawiści usuwacie?
Stosujemy politykę absolutnego zera tolerancji dla treści pornografii dziecięcej. Oprócz usuwania ich, zapobiegamy pojawianiu się na naszej platformie, żeby uczynić ją wrogim środowiskiem dla wszystkich, którzy chcieliby wykorzystać młodych ludzi. Dla przykładu: wiemy, że jednym ze sposobów kolportowania pornografii dziecięcej są wiadomości prywatne w mediach społecznościowych.
Dlatego zdecydowaliśmy się, że w TikToku nie można za ich pomocą wysłać wideo i zdjęć. Dodatkowo użytkownicy nie mogą wysyłać wiadomości do osób, z którymi nie obserwują się nawzajem. Użytkownicy poniżej 16 lat w ogóle nie mogą korzystać z wiadomości prywatnych. Takich kroków jest znacznie więcej.
Ile czasu średnio spędzają na TikToku nastoletni użytkownicy?
Z tym tematem wiąże się kilka kwestii: ile czasu spędzamy na platformie, czy jest to czas wartościowy, który sprawia np. że czujesz się w efekcie lepiej lub się rozwijasz? Wreszcie: ile czasu to za dużo czasu. Jestem zdania, że niezależnie od tego, ile czasu nastolatkowie spędzają na TikToku, to jest dla nich pozytywnie spędzony czas. Tak jak na innych platformach z treściami video (choćby serialami), TikTok jest miejscem oferującym rozrywkę.
Czy ktoś mówi o czasie straconym na oglądaniu seriali? Wierzę, że każdy powinien wyznaczać granice tego, ile czasu poświęca na rozrywkę.
Ale odnosząc się precyzyjnie do tego pytania, warto powiedzieć, że dajemy rodzicom możliwość sparowania aplikacji dziecka i kontrolowania czasu używania i rodzaju oglądanych treści. Dodatkowo po określonych godzinach nie wysyłamy powiadomień na kontach nastolatków, by nie skłaniać ich do powrotu na platformę. Po jakimś czasie spędzonym w aplikacji wyświetlamy też wideo jednego z naszych twórców, w którym sugerujemy zmianę aktywności.
Osobiście jestem przeciwnego zdania i uważam, że TikTok bazuje na tzw. niekończącym się przewijaniu i przez to może przyciągać na godziny. Planujecie jakoś walczyć z tym, co może prowadzić do uzależnienia od internetu, FOMO, nierealnymi standardami piękna i innymi negatywnymi skutkami mediów społecznościowych?
Powtórzę się i powiem, że czas spędzony na TikToku jest pozytywny, niezależnie od tego, ile tego czasu było.
Np. moja córka poznaje wiele treści, których inaczej by nie poznała, jak choćby związanych z podróżami lub z drugiej strony kwestie praw mniejszości.
Musimy dać dzieciom narzędzia do nauki samokontroli i podejmowania decyzji. Musimy ich wspierać i pomagać. Nie powiem każdej rodzinie, ile czasu ich dzieci mogą spędzać na TikToku, to jest indywidualna decyzja.
W kwestii nierealanych standardów piękna pamiętam, jak będąc nastolatką w latach 90. jedyny wzór idealnej kobiety, jaki miałam, to były modelki z okładek czasopism. TikTok daje możliwości, jakich nie było do tej pory, pokazania różnych typów urody i piękna. Żałuje, że nie było go, gdy ja dorastałam.
Czytaj też:
Cyberprzemoc niewiele różni się od... agresji fizycznej! Jak dbać o bezpieczeństwo dzieci w sieci?
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Wprost.
Regulamin i warunki licencjonowania materiałów prasowych.