Wpadka AI Microsoftu. Stworzyła ankietę o tragicznej śmierci kobiety

Wpadka AI Microsoftu. Stworzyła ankietę o tragicznej śmierci kobiety

Microsoft MSN
Microsoft MSN Źródło: Shutterstock / rafapress
Microsoft opublikował niesmaczną ankietę przygotowaną przez system AI. Pod artykułem dotyczącym znalezienia zwłok kobiety czytelnicy zostali zapytani, co ich zdaniem było przyczyną jej śmierci.

Sztuczna inteligencja powoli zaczyna pojawiać się w mediach, ale co i rusz słyszymy o problemach z jej wykorzystaniem przy tworzeniu treści. Tym razem automatyczne systemy zadały mocny cios Microsoftowi oraz uznanej gazecie.

AI wygenerowało ankietę – dotyczyła spekulacji o śmierci kobiety

Na należącej do Microsoftu stronie newsowej MSN pojawił się artykuł dotyczący znalezienia ciała młodej kobiety w jednej ze szkół w Sydney. Policja odkryła zwłoki w łazience, w placówce gdzie ta pracowała jako trenerka water polo.

Sztuczna inteligencja nie wyczuła jednak, jak delikatny jest temat i zadecydowała o głębszym zaangażowaniu czytelników. „Jak sądzisz, co mogło być przyczyną śmierci kobiety? Morderstwo, wypadek czy samobójstwo” – brzmiała treść pytania, które pojawiło się pod artykułem.

Na reakcję nie trzeba było długo czekać. „To jedna z najbardziej żałosnych i ohydnych ankiet, jaką w życiu widziałem. Autor powinien się wstydzić. Fajnie wiedzieć, że możemy zagłosować w ankiecie jak umarła ta kobieta” – pisali internauci w komentarzach.

Jak można się domyślać, ankietę szybko usunięto. Widniał też pod nią dopisek, że jest ona wynikiem „spostrzeżeń sztucznej inteligencji”. AI raczej nie ma się jak wstydzić. Co innego autorzy artykułu.

Guardian oskarża Microsoft – firma tłumaczy się z problematycznego AI

Pierwotnie reportaż pochodził z brytyjskiego serwisu The Guardian, a potem został zagregowany na MSN. Dyrektor generalna Guardian Media Group Anna Bateson wysłała więc list do prezesa Microsoftu Brada Smitha.

Bateson wskazuje, że ankieta nie tylko może być bardzo przykra dla rodziny zmarłej, ale jednocześnie może wyrządzić „znaczną szkodę reputacyjną” zarówno dla Guardiana, jak i dziennikarzy odpowiedzialnych za przygotowanie artykułu.

„Jest to wyraźnie niewłaściwe wykorzystanie [generatywnego AI] przez Microsoft i to w potencjalnie bolesnej historii, opublikowanej w interesie publicznym” – argumentuje CEO serwisu w liście, do którego dotarł The Verge.

Guardian podkreślił, że choć Microsoft ma licencję na publikacje treści serwisu w MSN, to wydawca tytułu upraszał uprzednio Microsoft o niekorzystanie z eksperymentalnych rozwiązań AI wokół publikowanych treści bez wyraźniej zgody firmy.

Rzecznik firm Microsoft przekazał zaś oświadczenie mówiące, że firma dezaktywowała ankiety widoczne przy artykułach. Obecnie spółka ma też „badać przyczynę nieodpowiednich zawartości”. „Ankieta nie powinna się pojawić obok artykułu o takim charakterze. Podejmiemy kroki, by zapobiec podobnym błędom w przyszłości” – obiecał przedstawiciel Microsoftu.

Czytaj też:
AI chciało otruć ludzi? Aplikacja proponuje zabójcze dania
Czytaj też:
Czego NIE robić z ChatGPT? Tu AI wam nie pomoże

Opracował:
Źródło: Futurism, The Verge