Według Shelby Grossman, badaczki ze Stanford Internet Observatory, tekst generowany przez AI może być idealnym narzędziem dla propagandystów. W Stanach Zjednoczonych już obserwujemy przypadki użycia AI do tworzenia fałszywych obrazów i tekstów, które wpływają na opinię publiczną.
Sztab kampanijny Rona De Santisa wykorzystał sztuczną inteligencję do stworzenia fałszywych obrazów m.in. Anthony'ego Fauciego, odpowiadającego za program szczepień na COVID. Te obrazy, choć technicznie imponujące, były używane w celu manipulowania opinią publiczną.
Nieco wcześniej, prawdopodobnie generowany przez AI obraz Pentagonu podczas eksplozji, spowodował krótkotrwałe spadki na giełdzie i wymusił oficjalne oświadczenie ze strony Departamentu Obrony. To pokazuje, że wpływ AI na dezinformację nie ogranicza się tylko do sfery politycznej, ale ma również realne konsekwencje ekonomiczne.
W Polsce również możemy spodziewać się podobnych działań, z których pierwszym był klon głosu premiera Morawieckiego w bieżącej kampanii KO, choć trzeba przyznać, że został on oznaczony.
Coraz doskonalsze teksty
Chociaż wciąż można rozpoznać, że dany obraz został stworzony przez komputer, teksty generowane przez chatboty są trudne do wykrycia. Są one coraz bardziej zaawansowane i nie noszą oczywistych znaków manipulacji. To sprawia, że tradycyjne metody wykrywania fake newsów stają się niewystarczające.
W Polsce, gdzie polaryzacja polityczna jest na wysokim poziomie, wpływ AI na kampanie wyborcze może być szczególnie znaczący.
Możliwość generowania wiarygodnie wyglądających fałszywych informacji przez boty stanowi realne zagrożenie dla integralności procesu demokratycznego.
Polskie media społecznościowe, będące głównym kanałem komunikacji dla wielu kandydatów, są niewątpliwie podatne na tego typu manipulacje.
Czytaj też:
Deepfake Morawieckiego i Tuska z AI. Ekspert o tym, czy musimy bać się fałszywek
Dobra strona AI w polityce
Z drugiej strony, można sobie wyobrazić dobra stronę AI w wyborach: boty mogą pomóc w personalizacji komunikacji z wyborcami.
Dzięki analizie danych i interakcji, boty mogą dostarczać informacji dostosowanych do indywidualnych potrzeb i zainteresowań, co może zwiększyć zaangażowanie i zrozumienie kluczowych kwestii wyborczych.
Boty są dostępne 24/7, co oznacza, że wyborcy mogą uzyskać odpowiedzi na swoje pytania i wątpliwości w dowolnym momencie. Mogą być też wykorzystane do celów edukacyjnych, dostarczając rzetelnych informacji na temat programów wyborczych, procedur głosowania i innych aspektów procesu wyborczego.
Mogą wreszcie pomagać w rozpowszechnianiu informacji o ważnych terminach i wydarzeniach związanych z wyborami.
Oczywiście, korzystanie z botów w kampaniach wyborczych musi być zgodne z etyką, a przede wszystkim twardymi w tym zakresie regulacjami prawnymi. Odpowiedzialne wykorzystanie AI w polityce wymaga transparentności i jasnych zasad, aby zapobiec dezinformacji i manipulacjom.
Czytaj też:
Schyłek muzyki? Baasch: AI ujawnia swoje możliwości tylko w dłoniach doświadczonego człowiekaCzytaj też:
Groźny termin „median human”. Przegalińska dla „Wprost”: Musimy zachować ostrożność
Archiwalne wydania tygodnika Wprost dostępne są w specjalnej ofercie WPROST PREMIUM oraz we wszystkich e-kioskach i w aplikacjach mobilnych App Store i Google Play.
Dalsze rozpowszechnianie artykułu tylko za zgodą wydawcy tygodnika Wprost.
Regulamin i warunki licencjonowania materiałów prasowych.