Firma OpenAI zapowiedziała, że ChatGPT wsparty modelem językowym GPT-4 może służyć jako moderator treści w globalnej sieci. Obecnie tę ciężką pracę wykonują przeważająco ludzie, którzy muszą zmagać się z najczarniejszymi elementami kultury internetu.
ChatGPT jako moderator treści w internecie?
Facebook, Twitter czy inne social media ustanawiają zasady na swoich platformach, ale ich przestrzeganiem najczęściej zajmują się firmy outsourcingowe. Tamtejsi pracownicy spędzają cały dzień pracy na przeglądaniu zgłaszanych treści i eliminacji tych, które są niezgodne z regulaminem danej strony.
To żmudne zajęcie, które jest nie tylko powtarzalne i mało stymulujące, ale często zmusza też moderatorów do regularnego oglądania drastycznych i zakazanych treści, co może mieć na nich niemały wpływ. Pracownicy są narażeni na problemy ze zdrowiem psychicznym, takie jak zaburzenia lękowe, a nawet PTSD.
OpenAI pragnie choć po części zaradzić tego typu problemom, zlecając moderacje najgorszych treści maszynie. „Wierzymy, że możemy zaoferować bardziej pozytywną wizję przyszłości platform internetowych. W niej to sztuczna inteligencja pomoże w moderacji ruchu w internecie z zachowaniem polityki danych serwisów. Jednocześnie zapewni to dużą mentalną ulgę dla ogromnej liczby pracujących obecnie ludzkich moderatorów” – zaznacza ją we wpisie przedstawiciele OpenAI.
AI moderuje posty w sieci – czy jest skuteczne?
Z badań spółki wynika, że ChatGPT w czwartej edycji już teraz całkiem nieźle radzi sobie z wykrywaniem niedozwolonej treści. Obecnie osiągi maszyny w niektórych aspektach przewyższają już uśrednione wyniki początkujących ludzkich moderatorów. AI daleko jest jednak do poziomu sprawdzonych moderatorów z długim doświadczeniem.
Twórcy sztucznej inteligencji zaznaczają jednak, że ChatGPT może z powodzeniem dalej uczyć się wykonywania tego zadania i z czasem poprawiać swoje wyniki. Proces dalszej nauki wymaga jednak twardo określonych warunków polityki firmy i „złotego zestawu danych”, który został perfekcyjnie zmoderowany przez doświadczonych pracowników.
Narzędzie AI nie przejmie też moderacji w pełni, a ma być jedynie pomocą dla ludzi. Pracownik za każdym razem będzie mógł zapytać AI o powody takiej, a nie innej decyzji i będzie mógł cofnąć kroki wykonane przez maszynę.
Czytaj też:
Uniwersytety uczą korzystania z ChatGPT. Tak wygląda przyszłość edukacji?Czytaj też:
Sztuczna inteligencja jak mikroskop. Prof. Przegalińska: Naukowcy chętnie sięgają po to narzędzie