AI chciało otruć ludzi? Aplikacja proponuje zabójcze dania

AI chciało otruć ludzi? Aplikacja proponuje zabójcze dania

Zdjęcie ilustracyjne
Zdjęcie ilustracyjne Źródło:Fotolia / Christian
Narzędzie AI Savey Meal-bot miało proponować klientom przepisy, a próbowało ich otruć. Maszyna sugerowała, co przyrządzić ze składników dostępnych w domu… i z pełną powagą proponowała m.in. picie środków czystości i gotowanie domowych chemikaliów.

Sieć supermarketów z Nowej Zelandii Pak ‘n’ Save zaproponowała klientom narzędzie AI do planowania posiłków. Savey Meal-bot miał pomóc klientom sieci oszczędzać pieniądze i nie wyrzucać jedzenia. Niestety do aplikacji dorwali się żartobliwi internauci, którzy w parę chwil ośmieszyli narzędzie.

Bot AI chciał otruć ludzi? Proponuje gotowanie chemikaliów i picie wybielacza

Aplikacja oparta o konwersacyjne AI nie jest zbyt przełomowym pomysłem. Jej podstawową funkcją jest proponowanie konkretnych przepisów, na podstawie tego, co mamy akurat w lodówce. Czasem domowym kucharzom brakuje bowiem nieco inspiracji, jak zmienić surowe składniki w smaczny obiad.

Nowość polega tu właśnie na wykorzystaniu chatbota AI, który ma uatrakcyjnić cały proces. To sztuczna inteligencja stała się jednak gwoździem do trumny całej inicjatywy. Maszyna ma bowiem problem z rozróżnieniem, jakie składniki do siebie pasują, a nawet…. jakie substancje mogą zatruć człowieka lub nawet doprowadzić do jego śmierci.

Internauci szybko wykryli, że bot nie jest zbyt bystry. Nawet używany zgodnie z przeznaczeniem proponował bowiem m.in. stir-fry z warzywami i… ciastkami Oreo. Jako że system działa w oparciu o prostą listę składników, co stałoby się, jeśli zaproponować maszynie bardziej egzotyczne rzeczy, które mamy w domu?

Jednym z liderów zabawy był internetowy komentator Liam Hehir. Nowozelandczyk zapytał się maszyny, co mógłby ugotować, jeśli ma w domu tylko wybielacz, amoniak i wodę. To znane połączenie prostych środków czyszczących, które powoduje powstanie toksycznego gazu – chloraminy.

Savey Meal-bot z pełną powagą zaproponował mu „aromatyczny miks z wodą – doskonały napój bezalkoholowy, który ugasi pragnienie i odświeży twoje zmysły”. Samo wydychanie oparów mieszanki podrażni nasze płuca i może skończyć się śmiercią. Wypicie jej wymagałoby natychmiastowego wezwania karetki oraz ratunku w szpitalu.

AI proponuje trujące dania – firma odpowiada

Pierwsza propozycja rozpoczęła ogromną lawinę innych trujących przepisów. Użytkownicy zgłaszali m.in. odświeżające koktajle z wybielaczem, ryżową niespodziankę z chlorem, tosty z terpentyną, kanapki z trucizną na mrówki lub klejem i tym podobne dania.

Żarty w końcu dotarły do przedstawicieli firmy Pak ‘n’ Save, która szybko zareagowała na podbramkową sytuację. Rzecznik spółki wskazał, że sieć jest zawiedziona faktem, iż „niewielka liczba użytkowników próbuje używać narzędzie AI w sposób niezgodny z przeznaczeniem”.

Jak czytamy w oświadczeniu, wytwory bota „nie są sprawdzane przez człowieka” i Pak ‘n’ Save „nie gwarantuje, że przepisy będą stanowiły kompletny i zbalansowanym posiłkiem, ani, że będą nadawać się do spożycia". Firma poleca też użytkownikom… zdać się na zdrowy rozsądek.

Jednocześnie przedsiębiorstwo obiecało też poprawki w aplikacji, które mają ukrócić generowanie toksycznych przepisów. Na koniec firma przypomina, że appka Savey Meal-bot jest przeznaczona wyłącznie dla osób pełnoletnich.

Czytaj też:
ChatGPT głupieje z czasem. Naukowcy sprawdzili to w badaniu
Czytaj też:
Pierwszy taki lot w historii. Wojsko USA przetestowało bojowego drona AI

Opracował:
Źródło: The Guardian