Czy to na pewno Scarlet Johansson? Przez nową technologię nie możemy być pewni tego, co widzimy

Czy to na pewno Scarlet Johansson? Przez nową technologię nie możemy być pewni tego, co widzimy

Scarlet Johansson jest jedyną kobietą wyróżnioną dwukrotnie oprzez "Esquire"
Wyciekł film pornograficzny z udziałem gwiazdy Hollywood, a ważny polityk został przyłapany z kochanką? Rozwój technologiczny powoduje, że nie możemy być pewni, czy to, co widzimy, jest prawdą. Technologia obróbki obrazu, która pozwala na takie manipulacje, to deepfake i jest bardzo groźnym narzędziem w rękach przestępców.

Deepfake to sposób obróbki obrazu wykorzystujący sztuczną inteligencję i uczenie maszynowe do nakładania obrazów ruchomych i nieruchomych na obrazy lub filmy źródłowe. W efekcie mogą powstać na przykład filmy z udziałem dowolnej osoby, która z jego nagraniem nie miała nic wspólnego, a widzowie nie będą w stanie odróżnić oryginalnego nagrania od fałszywego.

Nie da się powiedzieć jednoznacznie, że to coś wyłącznie złego. Z jednej strony materiały stworzone z użyciem tej technologii mogą mieć walor rozrywkowy czy edukacyjny – na przykład muzeum będzie mogło wyprodukować film „z udziałem” nieżyjącego artysty, który będzie opowiadał zwiedzającym o tajnikach sztuki.

To jednak również, a może przede wszystkim, świetne narzędzie dla wszelkiej maści cyberprzestępców, którzy chcą tworzyć fakenewsy oraz szkalujące innych ludzi filmy i zdjęcia. Nagrania takie mogą służyć do szantażowania kogoś lub zniszczenia jego reputacji.

Gdy bot może wypowiedzieć wojnę

W ostatnich latach technologia deepfake rozwinęła się do tego stopnia, że obecnie coraz trudniej stwierdzić, czy ma się do czynienia ze sfabrykowanym filmem czy z faktycznym nagraniem przedstawiającym prawdziwe osoby. Przykładami są film z orędziem Elżbiety II czy materiał przedstawiający przemówienie Baracka Obamy, które w krótkim czasie ukazało się na wielu różnych portalach internetowych.

Film z wypowiedzą byłego prezydenta Stanów Zjednoczonych dotyczył nomen omen kwestii zagrożeń, jakie mogą spowodować dezinformacja i fałszywe wiadomości publikowane w Internecie. W materiale opublikowanym przez kanał BuzzFeedVideos głosem 44. Prezydenta USA był amerykański reżyser i aktor Jordan Peele. Obecnie jednak sztuczna inteligencja jest w stanie wygenerować głos na podstawie archiwalnych wypowiedzi osoby, która ma pojawić się w sfałszowanym filmie.

Tak zaawansowana technologia może stać się w przyszłości niebezpiecznym narzędziem w rękach cyberprzestępców i oszustów internetowych. Publikowanie filmów z rzekomych wystąpień ważnych polityków może wywołać realne szkody na szczeblu polityki międzynarodowej. Tego rodzaju filmy bazujące na technologii deepfake mogą przyczynić się do powstawania konfliktów i skandali dyplomatycznych, a przez to wpływać na opinie i zachowania społeczne. Filmy z wykorzystaniem deepfake publikowane w czasie trwania kampanii wyborczych mogą z kolei przełożyć się na wyniki wyborów – ocenia Kamil Sadkowski, Starszy specjalista ds. cyberbezpieczeństwa ESET.

Deepfake źródłem fałszywych filmów pornograficznych z udziałem celebrytów

Materiały pornograficzne od zawsze generowały największy ruch w przestrzeni wirtualnej. Nic dziwnego, że technologia deepfake tak szybko odnalazła się w tej sferze działalności Internetu. Według raportu holenderskiej firmy Deeptrace, zajmującej się cyberbezpieczeństwem, aż 96% sfabrykowanych filmów stworzonych z wykorzystaniem technologii deepfake to właśnie treści pornograficzne. Najczęściej do produkcji tego rodzaju materiału wykorzystuje się wizerunek gwiazd kina, sportsmenek a nawet przedstawicielek rządów.

Wśród ofiar sfabrykowanych filmów pornograficznych znalazły się w ostatnich latach popularne amerykańskie aktorki, jak np. Scarlet Johansson, Gal Gadot, Natalie Dormer czy Jennifer Lawrence. Chociaż wiele stron, jak np. Reddit, stara się wyeliminować tego rodzaju treści i od 2018 roku serwis usuwa wszelkie nowe filmy i zdjęcia, to wciąż pojawiają się sfałszowane obrazy, których usunięcie ze strefy wirtualnej jest bardzo trudne.

Mimo, że tego rodzaju zdjęcia są sfałszowane i dalekie od rzeczywistości, to w dalszym ciągu mogą zostać wykorzystane na przykład do szantażu lub agresji wobec drugiej osoby – dodaje Kamil Sadkowski.

Technologia deepfake w arsenale cyberprzestępców

Technologia, która umożliwia stworzenie złośliwego obrazu, nagrania audio czy filmu, którego bohaterowie są łudząco podobni do innych osób to szansa na nowy poziom zagrożeń ze strony cyberprzestępców. Szczególnie wobec faktu, że w mediach społecznościowych mogą oni czerpać praktycznie nieograniczone zasoby materiałów źródłowych do tworzenia deepfakes. Oprogramowanie wykorzystujące uczenie maszynowe może przeczesywać np. Facebooka czy Instagram i wyłapywać interesujące zdjęcia czy filmy potencjalnych „aktorów”.

Na tej podstawie może stworzyć bardzo wyraźny głos, obraz i film z udziałem danej osoby, ale ze specjalnie spreparowaną fałszywą komunikacją imitującą na przykład znalezienie się w poważnych tarapatach – jako ofiary porwania czy wypadku. W kolejnym kroku wygenerowana zostaje fałszywa prośba o pomoc, na przykład finansową, skierowaną do jej bliskich, czyli ofiar ataku.

W przypadku ataków na firmy technologia deepfake umożliwia stworzenie bardzo realistycznych, fałszywych rozmów telefonicznych, w których przełożony prosi na przykład o zrealizowanie przelewu. W ten sposób w 2019 roku przestępcy wyłudzili 243 tys. dolarów od jednej z brytyjskich firm energetycznych. Innym rodzajem jest atak specjalnych botów wykorzystujący karty podarunkowe. W praktyce wygląda to tak, że bot podszywający się pod szefa instruuje pracownika by zamówił określone karty podarunkowe.

Podczas konferencji Black Hat USA 2021, dr Matthew Canham, profesor ds. cyberbezpieczeństwa Institute of Simulation and Training, University of Central Florida, przedstawił badanie, w którym stwierdził, że od czasu pandemii Covid-19 nastąpił wzrost tego procederu o 820 proc.

Czytaj też:
Już nie narkotyki i handel ludźmi. W czasie pandemii przestępcy mają nowe sposoby działania