Równo tydzień temu media społecznościowe wybuchły po publikacji nietypowego materiału przez oficjalne konto Platformy Obywatelskiej. W dość standardowym spocie uwagę przykuł jednak jeden szczegół – autorzy wykorzystali algorytmy AI do wygenerowania głosu premiera Mateusza Morawieckiego.
Niedługo potem poseł Solidarnej Polski Piotr Sak ponownie wykorzystał sztuczną inteligencję, tym razem generując głos lidera PO Donalda Tuska. Oba incydenty wywołały ogromną burzę komentarzy i podstawowe pytanie – czy „wkładanie w usta” polityków słów, których nigdy nie powiedzieli na głos, nie jest krokiem za daleko?
Na to i inne pytania dotyczące rosnącego problemu deepfake'ów w próbujemy odpowiedzieć w rozmowie z doktorem Leonem Ciechanowskim – programistą i ekspertem w obszarze nowych technologii z Akademii Leona Koźmińskiego oraz Massachusetts Institute of Technology.
Krzysztof Sobiepan, „Wprost”: Koncepcja deepfake'ów nie jest nowa, prawda?
Dr Leon Ciechanowski, ALK: Nie jest. Deepfake'i powstawały już parę dobrych lat temu. Co ciekawe, gdy zaczęły się pojawiać, także wywołały ogromny niepokój. One miały oczywiście dużo gorszą jakość, ale wielu komentatorów w mediach społecznościowych i mainstreamowych mówiło wtedy, że już lada moment fake'i nas zaleją i nie będzie można odróżnić prawdy od fałszu. Tak się jednak nie stało.
Także teraz, zamiast ponownie bić na alarm „na ślepo”, ja polecałbym poczekać i się zastanowić. Jak się okazuje, mechanizmy społeczne i reakcje internautów dość dobrze dopasowały się do nowego wyzwania, jakim jest wykrywanie fałszywych treści w sieci.
Archiwalne wydania tygodnika Wprost dostępne są w specjalnej ofercie WPROST PREMIUM oraz we wszystkich e-kioskach i w aplikacjach mobilnych App Store i Google Play.