Wybrane aspekty cyberbezpieczeństwa

Wybrane aspekty cyberbezpieczeństwa

Fotografia ilustracyjna
Fotografia ilustracyjna / Źródło: Fotolia / Maksim Pasko
„Cyberbezpieczeństwo” jest terminem, który coraz częściej występuje w przestrzeni publicznej zarówno w Polsce, jak i na świecie. Skalę problemów związanych z zapewnieniem bezpieczeństwa w sieciach komputerowych najlepiej obrazuje wzrost liczby konferencji naukowych poświęconych temu obszarowi i ewolucja ich tematyki.

Przekazy na temat pojęcia bezpieczeństwa teleinformatycznego, obecnie określanego powszechnie jako cyberbezpieczeństwo, koncentrują się głównie na doniesieniach o atakach wykorzystujących błędy ludzkie i proceduralne oraz podatności (vulnerabilities) występujące w powszechnie wykorzystywanym oprogramowaniu komputerowym. Niniejsze opracowanie ma na celu uzupełnienie obrazu cyberzagrożeń o kwestie związane ze sprzętową implementacją określonych rozwiązań. Jest to temat na tyle nowy, że nawet Stany Zjednoczone dopiero kilka lat temu podjęło działania wskazujące, iż uświadomiono tam sobie wagę problemu. Korzystając z okazji, autorzy chcieliby również w przystępnej formie przybliżyć pewne pojęcia z zakresu kryptologii, a także sprostować kilka powszechnie spotykanych mitów.

Problemy bezpieczeństwa wynikające z trzeciej rewolucji technologicznej

Gdyby nie trzecia rewolucja przemysłowa, której efektem jest powszechna komputeryzacja naszego otoczenia, nie tylko nie byłoby problemu z cyberbezpieczeństwem, ale nawet samego tego pojęcia. Obecnie prawie każde urządzenie jest systemem komputerowym sterowanym przez oprogramowanie wbudowane w ten system. Co więcej, wiele z nich jest zdalnie zarządzanych i serwisowanych, często bez wiedzy użytkownika. Nowe trendy technologiczne, jak np. Internet Przedmiotów (ang. IoT) łączący elektroniczne systemy cyberfizyczne CPS (ang. Cyber-Physical Systems) czy czwarta rewolucja przemysłowa (ang. Industry 4.0) prowadzą do wykładniczego wzrostu ilości przetwarzanych danych, uzależniając wszystkie państwa rozwinięte od teleinformatyki.

Komputerami są więc nie tylko PC czy Mac, ale również zegarek, telefon komórkowy, pralka, lodówka, celownik karabinu, radiostacja, mina. Całymi, złożonymi z wielu komputerów systemami, są samochód, samolot, rakieta, pociąg, elektrownia itd. Jeżeli uświadomimy sobie, że każdy system komputerowy może być jawnie bądź niejawnie przyłączony do sieci teleinformatycznej, a na dodatek wiele z nich nie może bez sieci prawidłowo funkcjonować, zrozumiałe jest (stanie się?), dlaczego bezpieczeństwo cybernetyczne jest takie ważne.

Nietrudno sobie wyobrazić atak cybernetyczny na polskie elektrownie prowadzący do zupełnego zniszczenia systemu energetycznego naszego kraju. Na totalną destrukcję podatna jest również cała polska infrastruktura teleinformatyczna. Z drugiej strony istnieje możliwość niekontrolowanego wykorzystania polskich systemów teleinformatycznych do zaatakowania np. USA, Rosji czy Chin. Wiele wskazuje na to, że ich systemy są równie podatne na atak co polskie. O możliwym odwecie – klasycznym lub cybernetycznym – czy tylko skutkach przeciwdziałania takiemu atakowi lepiej nawet nie myśleć.

Uprawnione jest więc stwierdzenie, że zapewnienie cyberbezpieczeństwa jest sprawą podstawową dla bezpieczeństwa Państwa. Jednak żeby to było możliwe, konieczne jest najpierw zrozumienie wagi problemu, a z tym nie jest najlepiej.

Wykrywanie tzw. backdoorów w sprzęcie jest obecnie bardzo trudne. O ile jeszcze 20 lat temu urządzenia były konstruowane ze względnie nieskomplikowanych podzespołów elektronicznych zwanych układami scalonymi, zawierających co najwyżej kilkaset tysięcy tranzystorów, to obecnie mamy do czynienia z układami zawierającymi ich miliardy. Na dodatek, poprzednio stosowane technologie były względnie podatne na tzw. reverse engineering, czyli odtwarzanie ich projektu na podstawie pozyskanych egzemplarzy urządzenia. Wystarczyło zrobić kilka–kilkanaście trawień i kilka–kilkadziesiąt tysięcy zdjęć sklejanych następnie w arkusze o powierzchni sumarycznej kilkuset metrów kwadratowych, by po ich analizie uzyskać schemat logiczny całego układu scalonego. Sprawny inżynier był bowiem w stanie przeanalizować obwody złożone z kilkuset do kilku tysięcy tranzystorów w tydzień. W chwili obecnej, mimo powstania narzędzi wspomagających reverse engineering, skomplikowanie technologii, wielkość układów, a zatem i skala problemu oraz nakładów są takie, że praktycznie nikt, przynajmniej dla celów komercyjnych, nie realizuje reverse engineeringu całych układów scalonych.

Co więcej, rozpowszechnienie układów typu SoC (ang. System on Chip) wykonywanych na zamówienie, zawierających w jednym układzie procesory, pamięci i układy wejścia–wyjścia, znacząco utrudniło możliwość śledzenia przepływu sygnałów pomiędzy poszczególnymi modułami urządzenia, podnosząc koszt i czas trwania analizy rozwiązania jako całości. Podstawowe przyczyny są dwie: specyfikacje modułów nie są publikowane, a do śledzenia sygnałów na szynach wewnętrznych układu scalonego niezbędne jest specjalne, bardzo drogie oprzyrządowanie. Jego skuteczność może być jeszcze zmniejszona przez specjalne pokrycia maskujące strukturę układu scalonego.

Jedynym rozwiązaniem dającym akceptowalny w długiej perspektywie poziom ryzyka w zakresie cyberbezpieczeństwa sprzętowego są więc układy scalone własnej konstrukcji.

Na zakończenie tego podrozdziału – małe odniesienie do polskich, niestety już historycznych, osiągnięć w dziedzinie układów scalonych. O ile pierwszy na świecie układ scalony powstał w USA, o tyle autorem pierwszego zrealizowanego poza USA był prof. Cezary Andrzej Ambroziak, późniejszy wieloletni dyrektor Instytutu Technologii Elektronowej w Warszawie (ITE). Z kolei opracowany w ITE w 1999 r. szyfrujący układ scalony był w owym czasie najszybszy na świecie i pozwolił zrealizować pierwszy w historii szyfrator dysków w czasie rzeczywistym (powstała ich cała rodzina certyfikowana do przetwarzania informacji, do klauzuli „tajne” włącznie).

Podstawowe atrybuty informacji z punktu widzenia cyberbezpieczeństwa

Bezpieczeństwo informacji jest pojęciem wielowymiarowym. Opiszemy tu trzy najistotniejsze jego atrybuty.

  1. Poufność – zapewnienie, że informacja jest dostępna tylko dla upoważnionych podmiotów. Poufność informacji może być zapewniona różnymi środkami – od fizycznej dyskryminacji dostępu (np. sejf) po zabezpieczanie informacji metodami kryptograficznymi. Atrybut ten jest zazwyczaj dobrze rozumiany.
  2. Integralność – zapewnienie, że informacja nie została zmieniona lub użyta w niewłaściwym kontekście. Integralność informacji może być zabezpieczana na wiele sposobów, np. w przypadku informacji na papierze przez parafowanie stron dokumentów, w przypadku informacji elektronicznej przez sumy kontrolne lub za pomocą metod kryptograficznych. Atrybut najistotniejszy w sterowaniu, systemach dowodzenia itd. Nie może on być skutecznie zastąpiony poufnością, jak się mylnie sądzi.
  3. Dostępność – możliwość wykorzystania informacji. Jest to parametr najistotniejszy, choć oczywiście musi występować w parze z integralnością. Informacja niedostępna nie ma żadnej wartości. Jednocześnie jest to atrybut najtrudniejszy do zapewnienia – konieczne jest spełnienie wielu warunków, często niezależnych od woli człowieka.

Analizując lub projektując system teleinformatyczny pod kątem bezpieczeństwa, musimy pamiętać o tych trzech atrybutach. Bez właściwego użycia stosownych metod kryptograficznych nie jest możliwe zapewnienie odpowiedniego poziomu żadnego z nich.

Kryptografia i kryptologia

Kryptografia (z gr. cryptos – ukryty i grapho – piszę) powstała już tysiące lat temu. Nie znano wtedy jeszcze szyfrów, dlatego najwcześniejsze techniki ukrywania informacji zaliczane są raczej do steganografii (z gr. steganos – sekretny). Pomimo zbliżonego znaczenia w przeszłości, oba pojęcia są obecnie rozróżniane. W steganografii sam fakt występowania informacji wrażliwej jest ukrywany. Obecnie steganografia odgrywa raczej rolę pomocniczą, choć w niektórych zastosowaniach istotną.

We współczesnej kryptografii informacja jest przekształcana przy użyciu algorytmu szyfrującego, którego działanie uzależnione jest od parametru zwanego kluczem kryptograficznym. Zazwyczaj algorytm szyfrujący jest jawny, choć rządy i służby państw dążą do używania również algorytmów niejawnych. Informacja po zaszyfrowaniu traci swoje uporządkowanie i staje się pozornie chaotyczna.

Klucz, którym – w odniesieniu do informacji elektronicznej – powinna być przypadkowo wybrana bardzo duża liczba, w klasycznej kryptografii musi być zawsze niejawny i pilnie strzeżony, bo z jego pomocą, używając algorytmu deszyfrującego, można przywrócić informacji pierwotne uporządkowanie, czyli ją odszyfrować. Reguła ta nie do końca dotyczy tzw. algorytmów asymetrycznych, o których z braku miejsca nie będziemy tu pisać.

Pierwszy prawdziwy, choć prymitywny, algorytm kryptograficzny stosowany do tekstów pisanych, tzw. szyfr Cezara, jest przypisywany Juliuszowi Cezarowi. Klucz tego algorytmu nie był jednak dużą liczbą, bo mieścił się w zakresie 1–22. Tak więc przeszukanie przestrzeni klucza było bardzo proste.

Metody kryptograficzne dostarczają najważniejszych mechanizmów zapewniających bezpieczeństwo informacji w postaci elektronicznej. Wbrew powszechnemu mniemaniu zapewniają nie tylko poufność informacji, ale również jej integralność, pewność i niezaprzeczalność autorstwa, pewność czasu utworzenia i rozliczalność działań związanych z przetwarzaniem informacji, a także są niezbędne do zrealizowania dostępności.

Kryptologia, czyli nauka o metodach szyfrowania i kryptoanalizy (łamania szyfrów), rozwinęła się znacząco dzięki pracy trzech polskich kryptologów: Mariana Rejewskiego, Jerzego Różyckiego i Henryka Zygalskiego, uwieńczonej we wczesnych latach 30. XX wieku przełamaniem systemu niemieckiej maszyny szyfrującej Enigma. Jako pierwsi zastosowali oni konsekwentnie metody naukowe do kryptoanalizy. Na dodatek zrobili to skutecznie.

Chociaż obecnie powszechnie stosuje metody naukowe, kryptologia, poza jednym przypadkiem, nie potrafi udowodnić bezwarunkowego bezpieczeństwa algorytmów kryptograficznych. Ten jedyny przypadek to algorytm Vernama, w którym długość klucza jest równa długości szyfrowanej informacji. Mimo pewnych trudności praktycznych algorytm ten jest szeroko stosowany do ochrony najcenniejszych informacji.

Kryptologia zajmuje się głównie badaniem odporności algorytmów na znane metody kryptoanalizy, poszukuje nowych metod oraz w oparciu o zdobytą wiedzę tworzy nowe i ulepsza stare algorytmy. Brak formalnych dowodów jakości algorytmów nie przeszkadza jednak ufać obecnie stosowanym algorytmom. Dziesięciolecia doświadczeń spowodowały, że do wyników badań prowadzonych przez międzynarodową społeczność kryptologów można podchodzić z dużym zaufaniem. Najpopularniejszy współcześnie algorytm kryptograficzny AES można uznać za pozbawiony istotnych słabości pozwalających znacząco skrócić czas ataku w stosunku do tzw. ataku siłowego, czyli przeszukiwania całej przestrzeni klucza.

Zgodnie z aktualnym stanem wiedzy odporność na kryptoanalizę algorytmu AES, nawet z najkrótszym, 128-bitowym kluczem, można mierzyć miliardami lat jego łamania za pomocą czysto teoretycznej maszyny kryptoanalitycznej o wartości biliona (1000 miliardów) USD. W przypadku AES z kluczem 256-bitowym czas jego łamania jest niewyobrażalny. Tak mający się do wieku wszechświata jak wiek wszechświata do jednej trylionowej chrononu (kwant czasu).

Nie są znane skuteczne, w sensie praktycznym, ataki na współczesne algorytmy kryptograficzne o ugruntowanej pozycji np. AES. Paradoksalnie znane są za to uwieńczone powodzeniem ataki na algorytmy niejawne. Widać więc, że utajnianie algorytmów kryptograficznych w wielu przypadkach stwarza względnie niewielkie utrudnienia dla kryptoanalityków.

W prasie można oczywiście znaleźć wiele doniesień o skutecznych atakach na algorytmy kryptograficzne, zarówno jawne, jak i (rzadziej) niejawne. Wiele z tych doniesień jest po prostu nieprawdziwych, gdyż opierają się one na niezrozumieniu wyników badań kryptoanalitycznych, które – owszem – ukazują pewne słabości algorytmów, np. skracają czas ataku o 40%, ale gdy przyłożymy do tego czasu właściwą skalę, uzyskujemy zamiast np. 100 „jedynie” 60 bilionów lat niezbędnych do skutecznego ataku. Z drugiej strony proponowane metody skracające czas ataku np. o miliardy trylionów razy (to wciąż niewiele!) wymagają często tak wielkich pamięci, że nie ma na Ziemi takiej ilości krzemu, by można było je wyprodukować.

Praktyczne ataki najczęściej nie mają nic wspólnego ze złamaniem algorytmu. Wykorzystują one bowiem podatności (słabości) występujące w implementacjach algorytmów lub w otoczeniu, w którym algorytmy te są wykonywane. Przykładem ataku na implementację algorytmu jest możliwość ujawnienia klucza algorytmu, a tym samym informacji szyfrowanej za jego pomocą, poprzez pomiar czasu szyfrowania lub pobór prądu w trakcie szyfrowania. Przykładem ataku na otoczenie może być przechwycenie informacji przed jej zaszyfrowaniem lub też przeszukanie pamięci w celu znalezienia samego klucza kryptograficznego. W wielu wypadkach są to ataki możliwe do wykonania nawet przy względnie niewielkich zasobach, nie mówiąc już o możliwościach doświadczonych służb niektórych państw.

Klucz szyfrujący można też łatwo odgadnąć, gdy nie jest tworzony w sposób prawdziwie losowy. Np. złożoność obliczeniowa przeglądu wszystkich kluczy porządnego algorytmu symetrycznego z losowymi 256-bitowymi kluczami wynosi ok. 1077, podczas gdy dla kluczy tworzonych z hasła alfanumerycznego o długości 16 znaków – zaledwie ok. 1025. Oznacza to skrócenie czasu ataku wyżej wymienioną teoretyczną maszyną kryptoanalityczną z ok. 1,8 x 1048 lat w przypadku klucza losowego do ok. 1,5 godziny w przypadku klucza tworzonego z hasła. Jeżeli dodatkowo hasło to jest tworzone w sposób nieprzypadkowy (np. jest złożone ze słów), czas łamania ogranicza się do tysięcznych części sekundy.

Na zakończenie należy wspomnieć, że mimo powszechnego zainteresowania i prowadzenia licznych prac badawczych nie można rozsądnie przewidzieć, na ile komputery kwantowe są w stanie wspomóc praktyczną kryptoanalizę. Na razie ich – ciągle potencjalna – przyszła rola wydaje się mocno przeceniana.

Obecnie profesjonalnie zaimplementowana kryptografia dostarcza najlepszych znanych metod zapewnienia bezpieczeństwa w cyberprzestrzeni. W szczególności dotyczy to poufności i integralności informacji, a także, choć w mniejszym stopniu, jej dostępności.

Jak już wyżej wspomniano, Polacy stworzyli naukowe podstawy kryptologii. Co więcej, wpływ ich osiągnięcia na historię świata był olbrzymi.

W Polsce powstała również wyżej wspomniana cała rodzina pierwszych w świecie szyfratorów dysków w czasie rzeczywistym oraz HSM-ów (ang. Hardware Security Module) do zastosowań w PKI (ang. Public Key Infrastructure). Niestety, były to tylko lokalne i krótkotrwałe osiągnięcia techniczne, nie mające widocznego wpływu na technikę i gospodarkę światową.

Przykładowe podatności w sprzęcie

Podstawowe podatności sprzętu (czyli luki w zabezpieczeniach lub niepożądane funkcjonalności, z ang. backdoory – intencjonalne lub powodowane błędami bądź niewiedzą) związane są z funkcjami serwisowymi, w tym aktualizacją oprogramowania. Ułatwiają one życie zarówno producentom sprzętu, jak i atakującym. Tym ostatnim dlatego, że zazwyczaj są bardzo źle zabezpieczone. W większości wypadków wystarczy trochę cierpliwości w sniffingu (podglądaniu transmisji) lub małe przekupstwo (wiele ujawnionych przypadków) i serwisowe wrota do atakowanych systemów stają otworem. Nie mówiąc już o wielce prawdopodobnym dostępie do tych mechanizmów dla służb kraju producenta.

Bardziej zaawansowane podatności sprzętowe związane są z układami scalonymi, z których składa się obecnie każde urządzenie, jeśli zawiera choć trochę elektroniki (o czym wspomnieliśmy już wcześniej). Konstrukcja i użycie takich backdoorów są zazwyczaj trudniejsze, ale za to mogą one trafić do wielu nieświadomych ich istnienia producentów urządzeń końcowych i zostać w nich zaimplementowane. Znany jest co prawda wyjątek opisany dalej – firma Intel, która publicznie przyznała się do wprowadzenia backdoora „serwisowego” o nazwie Active Management Technology do swoich procesorów. Trudno stwierdzić, czy konkurenci nie poszli w jej ślady.

Poniżej przedstawimy kilka z życia wziętych przykładów backdoorów sprzętowych. Pokazują one, że życie jest często bogatsze od scenariuszy filmowych.

Należy zastrzec, że stopień ich udokumentowania jest różny. Nie wszystkie informacje (nawet ze specjalistycznych źródeł) są bowiem weryfikowalne. Również wielość źródeł nie daje całkowitej pewności. W tej dziedzinie informacja goni bowiem dezinformację i odwrotnie. Każdy z opisanych przypadków został jednak przefiltrowany przez wieloletnie doświadczenie autorów, którzy mają pewność, że są one realizowalne i prawdopodobne.

Drukarki naprowadzające bombowce

W latach 80. XX w. Amerykanie wbudowali w chip drukarki moduł radiowy nadający kodowany sygnał. Podczas bombardowania Libii w 1986 r. namierzali skupiska drukarek, identyfikując je jako centra zarządcze tego kraju, i naprowadzali na nie bomby. Prawdopodobnie ten lub podobny backdoor był wykorzystywany również w Iraku.

Procesory i chipsety Intel

W 2005 r. Intel wprowadził w swoich chipsetach Active Management Technology (AMT) – zdalne zarządzanie komputerem bez konieczności jego włączenia i faktycznie poza kontrolą użytkownika. W 2007 r. firma wdrożyła Intel vPro technology, w której zaimplementowała AMT i dodatkowe rozwiązania pozwalające na kontrolowanie wielu aspektów bezpieczeństwa. W 2011 r. zrealizowano projekt procesorów o nazwie Sandy Bridge, które, co oficjalnie przyznano, umożliwiają zdalne unieruchomienie i namierzenie z użyciem sieci 3G utraconych lub ukradzionych procesorów (potrzebne jest oczywiście ich zasilanie). Współczesne architektury procesorów Intel są znacznie bardziej zaawansowane i należy się spodziewać, że technologia ta jest nadal rozwijana, choć może przy mniejszym nagłośnieniu.

Fałszywe paszporty biometryczne

W sierpniu 2008 r. holenderski badacz z Uniwersytetu w Amsterdamie, Jeroen van Beek, sklonował chipy biometryczne w dwóch paszportach brytyjskich, a następnie podmienił ich zawartość. W styczniu 2010 r. izraelskie komando użyło 27 sfałszowanych paszportów (12 brytyjskich, 4 australijskich, 6 irlandzkich, 4 francuskich, 1 niemiecki) do przygotowania i wykonania zamachu na Mahmouda Al-Mabhouha – jednego z przywódców organizacji Hamas. Przy tej okazji pokonano również, bez użycia siły, teoretycznie bezpieczny zamek elektroniczny w drzwiach pokoju hotelowego.

Stuxnet

Sieć sterująca irańskimi wirówkami do wzbogacania uranu jest odseparowana od Internetu. Robak komputerowy Stuxnet został do niej wprowadzony przy użyciu odpowiednio spreparowanych podzespołów USB. Były to nośniki pamięciowe lub „zwykłe” kable. Umożliwiły one wprowadzenie robaka do sieci wydzielonych w trybie off-line lub przez radio.

Stuxnet rozmnaża się we wszystkich komputerach, ale pozostaje nieaktywny do czasu natrafienia na urządzenie przemysłowe, w które jest wycelowany. W przypadku Iranu były to sterowniki wirówek w instalacjach wzbogacania uranu. W godzinach nocnych, gdy uwaga personelu była osłabiona, Stuxnet przestawiał parametry sterowania wirówek w taki sposób, aby urządzenia uległy szybszemu uszkodzeniu. Znaczna ich część została w ten sposób zniszczona w sierpniu 2010 r.

BMW

We współczesne samochody coraz częściej wbudowywane są modemy przekazujące bezpośrednio do producenta dane o stanie auta. Umożliwiają one zdalną rekonfigurację systemów samochodu i aktualizację zainstalowanego oprogramowania. Oznacza to możliwość zmiany funkcjonalności samochodu, w tym konfiguracji i funkcjonalności jego systemów elektronicznych, bez wiedzy lub nawet wbrew woli właściciela. W lutym 2015 r. w niemieckim magazynie komputerowym ukazał się artykuł wyjaśniający, w jaki sposób złamano zabezpieczenia funkcji serwisowych w samochodach BMW. Opisano tam również mechanizmy ułatwiające kradzieże tych samochodów. Okazało się, że ten renomowany producent popełnił kilka fundamentalnych błędów w implementacji funkcji zabezpieczeń. Zgodnie z oświadczeniem firmy BMW wspomniane podatności wykryto w 2,2 mln samochodów BMW, Mini i Rolls Royce.

Generatory liczb losowych

Generatory liczb losowych są urządzeniami przekształcającymi fizyczny proces stochastyczny na ciąg liczb losowych używanych jako klucze algorytmów kryptograficznych. Jak już wyżej wspomniano, ściśle losowe klucze kryptograficzne są niezbędne do zapewnienia pełnego bezpieczeństwa szyfrowanej informacji. Oba przykłady z niniejszego punktu dotyczą sprzętu oferowanego polskiemu rządowi, w którym zbadano m.in. generatory liczb losowych.

Jeden z czołowych producentów smartfonów zaoferował dostarczenie karty szyfrującej rozmowy telefoniczne w jego aparatach i zgodził się na audyt rozwiązania, w tym przekazanie niezbędnej dokumentacji. Niestety, ostatecznie nie wywiązał się z obietnicy, co oznaczało dla niego poważne straty finansowe, gdyż kontrakt nie został zrealizowany. Jedyne, co faktycznie można było zbadać bez reverse engineering i/lub odpowiedniej dokumentacji producenta, czyli generator liczb losowych okazał się kompletnie niewiarygodny – nie przeszedł podstawowych testów.

Z kolei inny badany w Polsce zagraniczny generator liczb losowych tak idealnie spełniał kryteria losowości, że został uznany za deterministyczny (wtajemniczeni mogą przewidzieć generowane liczby).

Karta miejska – Mifare

Firma Philips w 1994 r. rozpoczęła produkcję chipów Mifare Classic do kart bezkontaktowych przeznaczonych głównie do zastosowań w transporcie miejskim. Stosują je do dziś m.in. Warszawa, Gdynia, Białystok i Kraków. Przed podjęciem decyzji o zakupie rozwiązania do Warszawy zgłoszono ofertę wykonania audytu, która została odrzucona, co argumentowano faktem, że firma Philips jest wystarczająco wiarygodna. W listopadzie 2007 r. okazało się, iż niejawny algorytm kryptograficzny realizowany przez Mifare został złamany. Podobnie w kolejnych latach przedstawiano skuteczne ataki na późniejsze wersje Mifare. Wystarczyło kilka minut pracy PC, aby sklonować bilet miejski (stan wiedzy sprzed kilku lat). Podobnie jak w przypadku zabezpieczeń BMW, ujawniono tu również fundamentalne błędy w implementacji zabezpieczeń.

Izraelskie drony

W lipcu 2013 r. prezydent Gruzji Micheil Saakaszwili stwierdził oficjalnie, że kody do izraelskich dronów Hermes 450 zostały przekazane Rosjanom w zamian za kody do rosyjskich rakiet Tor-M1 sprzedanych do Iranu. Inne źródło podaje, że chodziło o rakiety S-300. W wyniku przekazania kodów Rosjanie przejęli w 2008 r. wszystkie izraelskie drony w służbie gruzińskiej.

Dla równowagi – dosyć wiarygodne doniesienia ze stycznia 2016 r. mówią o trwającym stale od 1998 r. przejmowaniu zaszyfrowanego strumienia wideo z izraelskich dronów przez służby amerykańskie i brytyjskie. Trudno jednak stwierdzić, czy dokonywane jest to za zgodą Izraela, czy też bez niej.

Światowa firma

Firma ta dostarczyła w ciągu wielu lat swojej działalności urządzenia szyfrujące dla rządów ponad 100 krajów, w tym również rządu RP. Niestety, już w latach 50. XX w. nawiązała ona współpracę ze służbami amerykańskimi, a później również z niemieckimi. W wyniku tej współpracy wielu odbiorców pozyskało urządzenia z intencjonalnym backdoorem umożliwiającym podsłuchiwanie co najmniej przez wyżej wymienione służby.

Podsumowanie

Dla specjalistów z dziedziny bezpieczeństwa teleinformatycznego jest absolutnie oczywiste, że nie można mieć zaufania do żadnych rozwiązań pochodzących spoza Polski. Technologie zagraniczne nie dają pewności ze względu na intencjonalne i nieintencjonalne backdoory, w tym również jawne i niejawne funkcje serwisowe. Wykrycie ukrytych backdoorów jest bardzo kosztowne. Nakłady na badania są porównywalne z kosztami wykonania własnego projektu. Z kolei zabezpieczenie backdoorów jawnych w wielu przypadkach wymaga wymuszenia na dostawcy przekonstruowania urządzenia.

Oczywiście nie jest możliwe zastąpienie całego dorobku światowej elektroniki własnymi rozwiązaniami. Należy jednak wytypować kluczowe obszary, które docelowo powinny pozostawać pod całkowitą kontrolą państwa polskiego. I to już jest możliwe, choć wymaga długoletniej, wytrwałej pracy. Z drugiej strony, wstępne efekty mogą być osiągnięte już w perspektywie 2–3 lat, jeżeli skorzysta się z istniejącego know-how i rozsądnie podzieli pracę na etapy.

Dla uważnych czytelników nie jest tajemnicą, że konieczne jest skonstruowanie własnych układów scalonych i od nich, czyli od samej bazy, należy rozpocząć budowę naszego cyberbezpieczeństwa w zakresie sprzętu. Nie oznacza to jednak od razu konieczności budowy wielkiej i kosztownej fabryki półprzewodników. Podstawą bezpieczeństwa w tej dziedzinie są bowiem własne projekty układów scalonych, które dzięki wbudowanym w nie mechanizmom mogą być bezpiecznie produkowane na komercyjnych liniach zagranicznych.

Szczęśliwie w Polsce od lat rozwijany jest rodzimy, ukierunkowany na bezpieczeństwo system operacyjny przeznaczony dla względnie małych platform sprzętowych. Jego przeniesienie na własne procesory, już istniejące lub zaprojektowane w przyszłości, nie stanowi problemu.

Jednocześnie należy rozpocząć równoległe konstruowanie urządzeń z wykorzystaniem projektowanych w kraju układów scalonych do zapewnienia kluczowych funkcji bezpieczeństwa, w tym oczywiście odpowiednio implementowanej kryptografii. Podejście takie niesie, co prawda, ze sobą pewne ryzyka, ale są one znacznie mniejsze niż nieużywanie zabezpieczeń lub używanie urządzeń zagranicznych nawet, jeżeli są one dostarczane przez sojuszników. Działania w zakresie konstrukcji sprzętu należy wesprzeć poprzez istotne wzmocnienie istniejących laboratoriów w celu zapewnienia efektywnej certyfikacji zaprojektowanych konstrukcji.

Mamy jeszcze w Polsce unikatową wiedzę w dziedzinie cyberbezpieczeństwa sprzętu umożliwiającą szybkie i efektywne przejście od słów do czynów. Niestety, ten prosty przekaz jest zakłócany przez różnego rodzaju „ekspertów” i lobbystów liczących na łatwe pieniądze lub realizujących zlecenia zagraniczne.


Tekst pochodzi z 44 numeru kwartalnika wydawanego przez PWPW S.A. pt. „Człowiek i Dokumenty” Jego autorami są: Wiktor Kuncewicz – WB Electronics S.A., Ożarów Mazowiecki oraz Grzegorz Janczyk – Instytut Technologii Elektronowej, Warszawa.

Źródło: Człowiek i Dokumenty
 0

Czytaj także