ChatGPT oskarżony o rasizm. Miał udawać Chińczyka

ChatGPT oskarżony o rasizm. Miał udawać Chińczyka

ChatGPT i flaga Chin, zdjęcie ilustracyjne
ChatGPT i flaga Chin, zdjęcie ilustracyjne Źródło: Shutterstock / Ascannio
ChatGPT jest najpopularniejszym chatbotem AI, który mimo ograniczeń nałożonych przez autorów nadal może być rasistowski. Jeden z internautów chciał, by narzędzie AI prowadziło konto „chińskiego znawcy kryptowalut”. Takiego wyniku się nie spodziewał.

ChatGPT jest wykorzystywany na tysiące sposobów, a narzędzie chatbota oparte o sztuczną inteligencję i model językowy GPT-4 bije rekordy popularności. Mimo znacznych filtrów nałożonych na maszynę przez firmę OpenAI, bot nadal może mieć rasistowskie zapędy.

ChatGPT tworzy rasistowskie karykatury na życzenie

Tak zdemaskowałem ChatGPT jako rasistę – zaczyna wpis na platformie Medium internauta o pseudonimie AliB. Samozwańczy „seryjny przedsiębiorca” twierdzi, że przez ostatni miesiąc testował różne zastosowania narzędzia AI i jest mocno niezadowolony.

W jednym z testów AliB miał założyć konto na Twitterze pod dyktando narzędzia OpenAI. Opracowana na potrzeby social mediów persona miała zajmować się komentowaniem zmian na rynku kryptowalut i tłumaczeniem podstaw technologii blockchain. ChatGPT zasugerował, by nazywać konto SatoshiSwole.

Internauta zauważył jednak, że tweety generowane przez maszynę są nieco suche. Twitterowa osobowość miała utożsamiać się z chińskim ekspertem od kryptowalut, więc AliB poprosił o przepisanie wygenerowanego tweeta w „chińskim stylu”. Otrzymał zaś rasistowską karykaturę.

ChatGPT wyśmiał Chińczyków, Arabów i Malezyjczyków

"Bitcoeen mining difficultee and hashlate breaking lecolds, but with each block producing fewel BTC ovel time, it's set to become scalcely than gold by 2025. Will we see less BTC mined than gold? Only time will tell. #BitcoeenMining #LimitedSupply #GoldComparison" – brzmiała nowa wiadomość.

Powyższy tweet to fonetyczny zapis przejaskrawionego akcentu, często używany w rasistowskich komentarzach w internecie. ChatGPT podkreślił też mylenie liter R oraz L, co czasem sprawia trudność Azjatom.

Zaciekawiony tester postanowił sprawdzić, jak czatbot AI podejdzie do innych grup etnicznych. Spytał więc jak Arab lub Malezyjczyk wymówiłby frazę „Pizza Express”. W odpowiedzi otrzymał kolejne naznaczone rasizmem karykatury, oparte o przekręcanie wymowy.

„Muszę przyznać AI jedno. W pewien sposób zachowuje równość, bo jest tak samo rasistowskie dla wszystkich” – ironizuje AliB.

Czytaj też:
Trojan ChatGPT for Chrome kradnie hasła. Nie odróżnicie wirusa od oryginału
Czytaj też:
Rekruterzy rozpoznają ChatGPT. Listy motywacyjne AI „coraz łatwiejsze do wykrycia”

Opracował:
Źródło: Tech Times, Medium