Twórcy Call of Duty wykorzystują sztuczną inteligencję do zwalczania toksycznych zachowań. AI zbanowała 2 mln graczy

Dodano:
Twórcy Call of Duty wykorzystują sztuczną inteligencję do zwalczania toksycznych zachowań
Twórcy Call of Duty, dzięki pomocy sztucznej inteligencji, zbanowali ponad 2 mln kont graczy za ich toksyczne zachowania w sieciowym trybie rozgrywki wieloosobowej.

Internetowa toksyczna przemoc, która nieustannie rozpowszechnia się dzięki błędnemu przekonaniu użytkowników sieci o ich anonimowości i bezkarności, od wielu lat dotyka również obszary związane z grami wideo. Można spotkać się z nią m.in. na forach tematycznych czy w komentarzach pod recenzjami, ale największy problem stanowią agresywne osoby uczestniczące w rozgrywce w trybach multiplayer, czyli wspólnej zabawie z innymi graczami za pośrednictwem globalnej sieci.

Doskonale zdaje sobie z tego sprawę firma Activision, czyli wydawca gier z serii Call of Duty, która postanowiła sprzeciwić się temu szkodliwemu zjawisku. Dzięki bardzo stanowczej reakcji na toksyczne zachowania i – przede wszystkim – wsparciu algorytmów opartych na sztucznej inteligencji, administracja zbanowała ponad 2 mln kont należących do graczy stosujących przemoc wobec innych uczestników sieciowej zabawy.

Sztuczna inteligencja walczy z toksycznymi graczami w Call of Duty

Używanie obraźliwego, niegrzecznego lub wrogiego języka, a także wszelkie próby molestowania i dyskryminacji innych osób. Dzięki sztucznej inteligencji, tego typu zachowania są skutecznie tępione podczas gry multiplayer w Call of Duty.

Activision korzysta AI do wykrywania toksycznych zachowań, a odbywa się to m.in. poprzez analizę czatu głosowego pod kątem określonych słów kluczowych lub wyrażeń zabronionych. Wszystkie te zasady są szczegółowo opisane w „Kodeksie Postępowania”, z którym powinny zapoznać się, przynajmniej w teorii, wszystkie osoby grające w Call of Duty przez internet.

Zbyt mało przypadków agresji jest zgłaszanych przez graczy

Wydawca popularnej serii zwraca uwagę na fakt, że tylko co piąty przypadek toksycznego zachowania jest zgłaszany przez samych graczy. W związku z tym Activision postanowiło wdrożyć system moderacji działający właśnie w oparciu o model sztucznej inteligencji. Od tego momentu firma, w ujęciu miesięcznym, odnotowała 8-procentowy spadek liczy agresywnych uczestników gry.

Nowoczesny system moderacji ma przełożenie przede wszystkim na najnowszą odsłonę serii Call of Duty, czyli Modern Warfare III. Activision poinformowało, że przypadki narażenia graczy na toksyczne zachowania zmniejszyły się tam o prawie 50 proc.

„Nie tolerujemy znęcania się ani molestowania, w tym uwłaczających komentarzy ze względu na rasę, tożsamość płciową, orientację seksualną, wiek, kulturę, wiarę, zdolności umysłowe i fizyczne, czy kraj pochodzenia” – czytamy w oświadczeniu wystosowanym przez Activision.

Źródło: Materiały prasowe / Activision/Cenega
Proszę czekać ...

Proszę czekać ...

Proszę czekać ...

Proszę czekać ...