Facebook: sztuczna inteligencja coraz lepiej zwalcza mowę nienawiści

Facebook: sztuczna inteligencja coraz lepiej zwalcza mowę nienawiści

Facebook
FacebookŹródło:Shutterstock / Chinnapong
Facebook spędził lata na budowaniu i wdrażaniu sztucznej inteligencji, aby stłumić mowę nienawiści w swojej ogromnej sieci społecznościowej. Firma twierdzi, że teraz używa tej technologii do aktywnego wykrywania prawie 95 proc. takich treści, które są potem usuwane. Jednak te pozostałe 5 proc. może być trudne do zwalczenia.

Facebook poinformował, że jego systemy sztucznej inteligencji wykryły 94,7 proc. z 22,1 miliona fragmentów treści szerzących nienawiść, które usunął już z serwisu społecznościowego w trzecim kwartale 2020 r. Jest to wzrost w porównaniu z wykryciem przez AI 80,5 proc. z 6,9 miliona treści, które firma usunęła w tym samym kwartale rok temu.

W 2017 roku firma była w stanie wykorzystać sztuczną inteligencję do proaktywnego wykrywania o wiele mniej mowy nienawiści - 24 proc. wszystkich treści związanych z nienawiścią, które usunęła w tym czasie. Dane pochodzą z najnowszej edycji raportu Community Standards Enforcement Report, który firma zaczęła publikować kwartalnie od sierpnia.

Coraz lepiej, ale nie najlepiej

Aktualizacja pojawiła się zaledwie kilka dni po tym, jak dyrektor generalny Facebooka, Mark Zuckerberg, mówił Kongresowi o regulacjach internetowych, podczas których wielokrotnie zwracał uwagę na to, że firma polega na algorytmach w celu wykrycia treści terrorystycznych i zmierzających do wykorzystywania dzieci, zanim ktokolwiek je zobaczy.

Podobnie jak wiele innych sieci społecznościowych, Facebook polega na sztucznej inteligencji, aby pomóc załodze ludzi moderować stale rosnącą górę treści na swojej platformie o tej samej nazwie i na Instagramie, którego również jest właścicielem. Usuwanie niechcianych postów i reklam użytkowników jest trudnym, niekończącym się zadaniem, po części dlatego, że ludzie są wyjątkowo dobrzy w zrozumieniu tego, co odróżnia, powiedzmy, artystyczny akt od zdjęcia wykorzystującego, lub w tym jak słowa i obrazy, które pojedynczo wydają się niewinne, mogą stać się bolesne, gdy są sparowane.

Sztuczna inteligencja nie wyręczy człowieka

Podczas rozmowy wideo z reporterami, dyrektor ds. technologii Facebooka, Mike Schroepfer, wyjaśnił niektóre z najnowszych narzędzi sztucznej inteligencji, których Facebook używa do znajdowania szkodliwych treści, zanim staną się wiralami. Na przykład takie, które wykorzystują dane online z systemów Facebooka.

Powiedział, że jego celem jest dalsze rozwijanie technologii, aż jak najmniej osób zobaczy nieodpowiednie treści w sieci społecznościowej. W przeszłości Facebook był krytykowany za nadmierne poleganie na ludzkich wykonawcach, których praca ze swej natury naraża ich na treści, których widok może być przerażający, a także za to, że jego sztuczna inteligencja nie przechwytuje brutalnych transmisji na żywo, takich jak strzelanina w meczecie w Nowej Zelandii w marcu 2019 r.

Praca wre. I nigdy nie przestanie

– Oczywiście, nie jestem usatysfakcjonowany, dopóki nie skończymy pracy – powiedział Schroepfer. – Jeszcze nie skończyliśmy – dodał.

Jednak najtrudniejszą do uchwycenia treścią dla sztucznej inteligencji pozostaje ta, która opiera się na subtelności i kontekście – wskazówkach, których komputery nie opanowały. Schroepfer powiedział, że Facebook pracuje teraz nad wykrywaniem nienawistnych memów. Firma udostępniła publicznie zbiór danych związanych z takimi treściami wiosną w nadziei, że pomoże badaczom ulepszyć możliwości wykrywania. Jako przykład treści, które mogą być bolesne, ale mogą być szerowane mimo ingerencji sztucznej inteligencji, pokazał obraz cmentarza z tekstem „twoje miejsce jest tutaj”.

– Gdybym nałożył tekst, który brzmi: „twoje miejsce jest tutaj”, na obraz w tle, którym byłby plac zabaw, byłoby w porządku. Jeśli to cmentarz, może to zostać zinterpretowane jako nienawiść – wyjaśnił Schroepfer.

Czytaj też:
Facebook i Twitter pod ostrzałem. Temat: wybory prezydenckie w USA

Źródło: CNN