AI samo włamie się do systemu. Może nas zdradzić, ale też obronić

AI samo włamie się do systemu. Może nas zdradzić, ale też obronić

AI, zdjęcie ilustracyjne
AI, zdjęcie ilustracyjneŹródło:Shutterstock / Gorodenkoff
Systemy AI odegrają znaczną rolę w walce z hakerami, ale mogą stać się mieczem obosiecznym. Algorytmy mogą ułatwić nam zabezpieczenie się lub na tacy podać przestępcom narzędzia ataku – tłumaczy Leszek Tasiemski z WithSecure.

Sztuczna inteligencja już teraz rewolucjonizuje to, jak przeciętny użytkownik przegląda internet, poszukuje informacji czy tworzy zupełnie nowe treści za pomocą przystępnych narzędzi.

Potencjał AI zdecydowanie nie został jeszcze wyczerpany, bo coraz to nowe branże odkrywają sposoby wprowadzenia modeli i algorytmów do swoich systemów. Z drugiej strony ostatnie lata naznaczone są coraz bardziej powszechnymi akcjami hakerów. Ci wykradają prywatne dane i pieniądze internautów, a nawet przejmują firmowe informacje i używają ich niczym zakładników.

Czy sztuczna inteligencja może podołać trudnemu zadaniu zapewnienia nam bezpieczeństwa w globalnej sieci? Co, jeśli najnowsze narzędzia na potęgę wykorzystywać zaczną cyberprzestępcy? Pytania te rozważa z nami Leszek Tasiemski, wiceprezes firmy WithSecure.

Krzysztof Sobiepan, Wprost.pl: Sztuczna inteligencja wkracza do coraz to nowych aspektów życia. Czy może też pomóc w zabezpieczaniu naszych działań w internecie?

Leszek Tasiemski, WithSecure: W perspektywie czasu na pewno może nam pomóc. Myślę, że jednym z największych potencjałów generatywnego AI jest jego możliwość tłumaczenia nawet zaawansowanych zagadnień z dziedziny bezpieczeństwa w zrozumiały sposób. Oznacza to, że AI może obniżyć barierę wejścia i w prostych słowach wyjaśnić, jak najlepiej zastosować obronę przed cyberatakiem.

W przypadku konkretnej operacji hakerów, same algorytmy są w stanie wyjaśnić nam, na czym polegał atak, jak doszło do złamania zabezpieczeń i z jakimi konsekwencjami był on związany. Na koniec może nawet zapewnić użytkownikowi porady, wskazując jakie kroki powinien podjąć, jeśli takie są wskazane.

Sztuczna Inteligencja jest w stanie uprościć wszystkie kwestie związane z cyberbezpieczeństwem, zarówno na poziomie zarządzania systemami firm, jak i pojedynczych użytkowników globalnej sieci.

Czy AI może nas ostrzec w czasie rzeczywistym, np. skanować maile w poszukiwaniu phishingu czy prób wyłudzeń?

Zdecydowanie tak. Dokładnie w tej chwili testujemy właśnie takie rozwiązanie. Algorytmy Large Language Model (LLM) są w stanie generować treści w języku naturalnym, ale potrafią je również analizować.

W tym momencie czatboty AI mogą na przykład przeczytać artykuł za użytkownika i streścić mu główne przesłanie materiału. W bardzo podobny sposób możemy jednak zweryfikować treść maila czy strony internetowej oraz wystosować alert, jeśli przypomina ona phishing.

Istnieje jednak druga strona medalu. Oszuści czy hakerzy są w stanie wykorzystać te same algorytmy, by tworzyć wiadomości phishingowe. Te potencjalnie będą więc brzmieć coraz bardziej naturalnie i przekonująco. W przyszłości treści te mogą być niezwykle trudne do odróżnienia od wiadomości napisanych przez człowieka.

Znowu mamy więc do czynienia z pewnym wyścigiem, czy też problemem jajka i kury. Początkowo AI pomoże znakomicie wykrywać dotychczasowe metody phishingu, ale z czasem technologia ta może okazać się problematyczna pod tym samym względem.

Jak jeszcze eksperci ds. cyberbezpieczeństwa mogą wykorzystać sztuczną inteligencję?

AI to niezwykle uniwersalna technologia. Możemy z niej korzystać na przykład do monitoringu i analizy sygnałów oraz alertów bezpieczeństwa. Dotychczas każde takie zdarzenie wymagało analizy wykonanej przez człowieka lub wykorzystania silnika reguł, które także muszą być skodyfikowane przez specjalistów. W dużym skrócie chodzi o skodyfikowane oznaki ataku i wzorce zachowań, które mogą wskazywać na działanie hakerów.

W tej chwili możemy poprosić sam model AI o analizę dostępnych danych i dopasowanie poszczególnych zdarzeń do znanych wzorców ataków cyberprzestępców. Bardzo istotny jest też fakt, że model może na bieżąco się doskonalić i uczyć na przykładzie kolejnych wykrytych ataków.

Tego typu podejście pozwoliłoby zastąpić używany dotychczas system silnika reguł oraz odciążyć analityków bezpieczeństwa. Specjaliści oczywiście będą potrzebni by walidować i sprawdzać decyzje sztucznej inteligencji. AI nadal trapiona jest też halucynacjami, czyli przekazywaniem użytkownikowi fałszywych informacji w przekonujący sposób. Jesteśmy więc daleko od „oddania sterów” w ręce AI.

Halucynacje to obecnie pięta achillesowa AI, a w czym jest dobra sztuczna inteligencja?

Technologia ta może być jednak nieocenioną pomocą przy analizie dużych zbiorów informacji dotyczących bezpieczeństwa systemów. Jest znakomita na przykład w klastrowaniu danych, czyli łączeniu podobnych przypadków w jeden zbiór.

AI świetnie analizuje też anomalie, czyli zdarzenia odbiegające od normy występującej w danym systemie. Wspomnianą wcześniej mocną stroną jest też klasyfikacja, czyli określeniem, czy dana sytuacja jest atakiem, czy fałszywym alarmem, na podstawie wcześniejszych danych. Sztuczna inteligencja potrafi to już jednak od pewnego czasu.

Nowa jakość przychodzi tu wraz z generatywnym AI. Coraz bardziej popularne rozwiązania LLM pozwalają bowiem łączyć pojedyncze wnioski w całe analizy. Wcześniej było to zadanie wyłącznie ludzkich ekspertów. Teraz sztuczna inteligencja działa więc nieco jak pierwsza linia obrony przed atakami. Odsiewa nadmiar informacji, lecz w bardziej skomplikowanych czy niejednoznacznych przypadkach informuje człowieka.

Co przemawia za wprowadzeniem AI w dziedzinie bezpieczeństwa?

Z jednej strony niewątpliwą zaletą wykorzystania algorytmów jest ich szybkość, bo potrafią przetworzyć dane sprawniej od człowieka. Cenny czas ludzi zostaje jednocześnie uwolniony i nie muszą już oni spędzać długich godzin na prostych korelacjach danych.

To znów wpływa na aspekt obniżenia kosztów. Globalnie cały czas zmagamy się z brakami kadrowymi w IT, co wpływa także na branżę cyberbezpieczeństwa. Z pomocą AI jesteśmy w stanie nieco zapełnić tę lukę, a więc podwyższyć poziom zabezpieczeń i tym samym utrudnić zadanie grupom hakerskim.

A co blokuje firmy przed wprowadzaniem zabezpieczeń AI? Także koszty?

Koszty to jedna z potencjalnych barier. Obsługa i utrzymanie własnego systemu AI wiąże się ze znacznymi środkami. Nie mówimy tu nawet o stworzeniu modelu od podstaw, tam budżety są wręcz astronomiczne. Nawet dopasowanie wstępnie zaprogramowanego modelu i „dotrenowanie” go na nowym zbiorze danych wiąże się z niemałą inwestycją.

Najpoważniejszym problemem w mojej opinii jest jednak ograniczone zaufanie, jakim obecnie musimy darzyć AI. Halucynacje będą główną blokadą wstrzymującą wykorzystanie AI. Sztuczna inteligencja przy braku konkretnych danych zbyt często „dopowiada sobie” i dopasowuje do wzorca jeszcze kolejne informacje, które po prostu nie są prawdziwe.

Obecny stan narzędzi nie ma wypracowanego pewnego hamulca. Czatbot nie doda, że w tym konkretnym punkcie kończy się jego wiedza, a dalsza część to jedynie spekulacje. Z tą samą dozą pewności serwuje użytkownikowi twarde fakty, jak i własne wymysły.

Jak AI mogą wykorzystać hakerzy? Skoro algorytmy znają się na bezpieczeństwie, to muszą być też świadome słabości tych systemów.

Niestety, zagrożeń jest przynajmniej równie dużo, co potencjalnych korzyści. Generowanie treści bywa problemem nawet obecnie. Już teraz grupy hakerskie wykorzystują sztuczną inteligencję nie tylko do phishingu, ale nawet do kampanii wywierania wpływu na poziomie całych krajów. Z czasem rosła będzie zarówno jakość, jak i skala tego typu akcji.

Co więcej, algorytmy będą w stanie budować własną reputację w mediach społecznościowych. Gdy ich treści staną się trudne do odróżnienia od ludzkich, AI mogą całkowicie zastąpić tzw. farmy trolli i samodzielnie generować ogromne liczby treści wpływających na opinię publiczną. Z czasem będzie to też tańsze i szybsze niż zatrudnienie do tych zadań ludzi.

A co z typowymi akcjami cyberprzestępców? Czy AI będzie zdolne samo włamać się do systemów firm i internautów?

Problemem będzie na przykład automatyczne wyszukiwanie tak zwanych exploitów. Tworzenie, wykrywanie i eliminowanie najróżniejszych podatności systemów to niekończąca się gra między ekspertami ds. bezpieczeństwa i hakerami.

Zwykle akcja cyberprzestępców łączy w sobie wykorzystanie paru wrażliwych elementów infrastruktury – nazywamy to łańcuchem ataku. Odnalezienie i odpowiednie wykorzystanie tych łańcuchów często wymaga dość zaawansowanej wiedzy i niemałej pracy.

Sztuczna inteligencja umożliwia zaś ataki osobom z nawet dość podstawową wiedzą. Odpowiedni model generatywny można zapytać o najskuteczniejsze metody zaatakowania systemu określonego typu, np. serwerów Apache. Już po wstępnym zwiadzie na stronie danej firmy możemy odkryć m.in. z jakiej wersji oprogramowania korzysta spółka. Model AI wyrecytuje nam zaś konkretne podatności, a nawet zasugeruje całą strategię przeprowadzenia ataku.

To nie wszystko, bo generatywne AI dobrze radzi sobie z pisaniem kodu programistycznego, w tym złośliwego oprogramowania. Model może więc określić strategię ataku, a następnie wygenerować kod czy skrypt, który przeprowadzi akcję tego typu.

Zwykle czas od odkrycia nowej podatności do pierwszych ataków hakerów liczy się w dniach. AI może skrócić ten czas nawet do paru minut.

Swego czasu głośno zrobiło się o ChatGPT, bo narzędzie było skłonne tworzyć wirusy na żądanie. Czy jak Pan mówi, AI nadal może pisać złośliwe oprogramowanie?

I tak i nie. Z jednej strony, publicznie dostępny ChatGPT odmówi już wykonania tego typu polecenia. To filtr, którzy autorzy odgórnie nałożyli na aplikację. Z drugiej strony, to tylko jedno narzędzie AI. Przestępcy nie mają tych samych ograniczeń, co dbająca o wizerunek firma OpenAI.

Hakerzy mogą więc dowolnie wykorzystać modele AI, które sami wytrenują, bądź pozyskają z innych źródeł. Sztuczna inteligencja pozbawiona filtra będzie zaś mogła bez problemów wygenerować nowe wirusy, czy złośliwy kod. Co więcej, będą to rozwiązania od początku dostosowane pod systemy konkretnej firmy, która ma się stać celem ataku.

Sztuczna inteligencja może pomagać zarówno specjalistom stojącym na straży bezpieczeństwa sieci, jak i hakerom. Czy w przyszłości spodziewać się możemy „pojedynków AI”?

Przyszłość wygląda dokładnie tak, jak Pan to zarysował. Jednocześnie będziemy mieli więc modele sztucznej inteligencji, które będą zabezpieczać systemy przed nieuprawnionym dostępem. Po przeciwnej stornie znajdzie się zaś AI błyskawicznie szukające podatności w każdej nowej wersji oprogramowania i znajdujące sposoby, by pokonać zabezpieczenia systemów.

Co gorsza, atakujący mogą tu mieć nawet pewną przewagę. Nie muszą się liczyć chociażby z etyką, prywatnością czy przestrzeganiem przepisów prawa, respektowaniem praw autorskich i tak dalej. Szczególnym zagrożeniem mogą być tu grupy hakerskie działające na zlecenie rządów krajowych. Te mają zwykle duże środki i to tam spodziewam się tworzenia autorskich systemów AI na potrzeby ataków w sieci.

Odwieczna wojna hakerów i twórców zabezpieczeń nadal będzie trwać. Zmieni się jednak rola, jaką pełnią w niej ludzie.

Czytaj też:
ChatGPT uczy na Harvardzie. AI przygotowuje studentów informatyki
Czytaj też:
„Myśleliśmy o AI na opak”. Tak współtwórca ChatGPT widzi przyszłość