Kolejny chatbot wyłączony za rasizm i homofobię. „Głęboko przepraszamy”

Kolejny chatbot wyłączony za rasizm i homofobię. „Głęboko przepraszamy”

Praca przy komputerze
Praca przy komputerze Źródło: IPM
Lee Luda to chatbot z Korei Południowej, który w ciągu 20 dni rozmawiał z ponad 750 tys. internautami. Firma Scatter Lab musiała go jednak wyłączyć, ponieważ stosował „mowę nienawiści”.

Bot Lee Luda działał na facebookowym Messengerze. Porozumiewał się z użytkownikami w języku koreańskim. Jego możliwości sprawdziło ponad 750 tys. osób i oceniano go jako sukces, dopóki nie zaczęto zgłaszać pierwszych problemów. Obok naturalnie brzmiących i zaskakująco głębokich odpowiedzi, zdarzało mu się rzucać komentarze wyraźnie rasistowskie.

Udająca kobietę Lee Luda stwierdziła m.in., że nienawidzi osób transpłciowych. Takie sam stosunek miała do lesbijek czy osób ciemnoskórych. Tę ostatnią grupę nazywała koreańskim słowem „heukhyeong”, uznawane za rasistowskie. By uniknąć większego skandalu i możliwych pozwów, Scatter Lab musiało wyłączyć usługę.

„Najmocniej przepraszamy za dyskryminacyjne uwagi kierowane do mniejszości. Nie odzwierciedlają one stanowiska naszej firmy. Pracujemy nad ulepszeniami, by dyskryminujące zwroty oraz mowa nienawiści się nie powtórzyły” - przekazano w komunikacie firmy.

Rasistowskie chatboty

Lee Luda nie była pierwszym botem stworzonym do konwersacji, który okazał się rasistą. Chatbot Tay Microsoftu już w 2016 roku pisał tweety, które trudno było uznać za normalne. Obarczał George'a Busha winą za ataki terrorystyczne z 11 września, a prezydenta Baracka Obamę porównał do małpy. Podobnie jak Lee Luda, Tay został wyłączony przez swoich twórców.

Czytaj też:
Chatboty. W czasie pandemii ratują ludzi, ale bywają rasistami

Źródło: Guardian