Takim przestępcą może być każdy. Ekspert przyznaje: Staliśmy się bezradni

Takim przestępcą może być każdy. Ekspert przyznaje: Staliśmy się bezradni

Cyberprzestępcy doskonalą metody oszustw
Cyberprzestępcy doskonalą metody oszustw Źródło: Shutterstock / Tero Vesalainen
– Dzisiaj cyberprzestępcom wystarczy od kilku do kilkunastu sekund nagrania czyjegoś głosu, aby wygenerować dowolną wypowiedź i to – co gorsza – razem z synchronizowaną twarzą, ruchem ust i dopasowaną mimiką (...). Pieniądze cyberprzestępców pozwoliły w taki sposób udoskonalić technologie, że staliśmy się wobec niej bezradni – tłumaczy w rozmowie z „Wprost” dr inż. Karol Jędrasiak z Centrum Transferu Technologii Akademii WSB w Dąbrowie Górniczej.

Krystyna Romanowska, „Wprost”: Redakcja „Wprost” padła ofiarą deepfake. Cyberprzestępcy wygenerowali film, w którym dziennikarka Paulina Socha-Jakubowska razem z gwiazdą Silver TV – Beatą Borucką, znaną w sieci jako Mądra Babcia – w podcaście „Wprost Przeciwnie” zachwalają specyfik na nadciśnienie dla seniorów. Mimo że takie zdarzenie nigdy nie miało miejsca, film i głosy robiły wrażenie autentycznych. Jak mógł wyglądać proces powstawania takiego filmu?

Dr inż. Karol Jędrasiak: Dzisiaj cyberprzestępcom wystarczy od kilku do kilkunastu sekund nagrania czyjegoś głosu, aby wygenerować dowolną wypowiedź i to – co gorsza – razem z synchronizowaną twarzą, ruchem ust i dopasowaną mimiką. Najlepiej nadają się do tego nagrania bez szumów, dobrej jakości, właśnie podcastowe, studyjne. Są też narzędzia pozwalające dołożyć dowolne ruchy ciała.

Taki deepfake powstał prawdopodobnie w kilka minut na podstawie oryginalnego materiału, czyli podcastu, plus szybkiego przeglądu zdjęć w internecie. Zdjęcia mogły też zostać wycięte bezpośrednio z materiału. Do tego doszła ścieżka dźwiękowa, będąca sklonowaniem głosu przy użyciu odpowiedniego algorytmu.

Deepfake nie musi się ograniczać tylko do tzw. gadającej twarzy, można w tym filmiku tańczyć, śpiewać, walczyć. Niestety, możliwości są w zasadzie niemalże nieograniczone.

Trend produkowania deepfake'ów przez ostatnie kilka, kilkanaście lat intensywnie się rozwija a liczba cyberataków co roku wzrasta o tysiąc czy dwa tysiące procent. Estymacje są takie, że ataków będzie przybywać. Wystarczy podać algorytmowi zdjęcie, a on – nauczony na milionach twarzy – jest w stanie stworzyć dowolnego wirtualnego awatara.

Kto jest najbardziej zagrożony tego typu atakami?

Na waszym przykładzie widać, że dziennikarze i celebryci, ale oczywiście i politycy, wszyscy zarządzający dużymi pieniędzmi: prezesi, dyrektorzy firm, samorządowcy, wojskowi, przedstawiciele służb mundurowych, osoby zaufania publicznego.

Co ciekawe, deepfake w oryginale był techniką stworzoną w dobrej wierze. Miał służyć do realistycznego generowania obrazów, głosu i konstruowania filmów użytecznych dla ludzi, np. wirtualnych awatarów służących pomocą w codziennych kontaktach z komputerem. Niestety, ewolucja tej techniki stanęła po ciemnej stronie mocy.

Od kiedy zaczęła raczkować, jej ofiarami padają wielcy tego świata; pierwszy głośny deepake dotyczył prezydenta Baracka Obamy. Atakowany był też Mark Zuckerberg i inni. Bardzo głośny przypadek dotyczył premiera Belgii Alexandra De Croo – na podstawie jednej z jego wypowiedzi wygenerowano fałszywe oświadczenie, w którym łączył COVID-19 z kryzysem klimatycznym. Oczywiście znane są także przypadki polityków z Wielkiej Brytanii, Ukrainy czy Polski, którym wydawało się, że rozmawiali ze sztabem Aleksieja Nawalnego, a tak naprawdę rozmawiali z rosyjskimi pranksterami, korzystającymi z tej technologii.

Jednym z głośniejszych przypadków wyłudzenia przy pomocy deepfake'a było pozwolenie na kredyt w wysokości 243 tysięcy dolarów z jednej firmy.

Artykuł został opublikowany w 49/2024 wydaniu tygodnika Wprost.

Archiwalne wydania tygodnika Wprost dostępne są w specjalnej ofercie WPROST PREMIUM oraz we wszystkich e-kioskach i w aplikacjach mobilnych App StoreGoogle Play.