Kosma Złotowski: musimy uważnie obserwować rozwój technologii sztucznej inteligencji

Kosma Złotowski: musimy uważnie obserwować rozwój technologii sztucznej inteligencji

Kosma Złotowski
Kosma Złotowski Źródło: Materiały prasowe
– Uważam, że w przypadku instytucji publicznych korzystających ze sztucznej inteligencji nawet w drobnych sprawach powinniśmy wymagać pełnej transparentności – podkreśla w wywiadzie dla tygodnika „Wprost” europoseł Kosma Złotowski, który specjalizuje się w zagadnieniach związanych ze sztuczną inteligencją.

Kiedy zaczął się pan interesować sztuczną inteligencją?

Rewolucja cyfrowa wpływa na nasze życie we wszystkich obszarach, także na politykę i to jak działa państwo. Od początku mojej aktywności publicznej starałem się zwracać uwagę na potrzebę patrzenia na nowe technologie także z tej perspektywy. Byłem inicjatorom i twórcą pierwszego w Sejmie zespołu parlamentarnego na rzecz społeczeństwa informacyjnego. Sztuczna inteligencja to technologia, której rozwój trzeba obserwować bardzo uważnie, a tam gdzie to konieczne regulować. W komisjach Parlamentu Europejskiego, w których pracuję, między innymi tym się zajmuję.

Rynek cyfrowy przez lata funkcjonował w pewnej próżni legislacyjnej i dzisiaj widzimy tego skutki. W przypadku SI nie chcemy popełnić podobnego błędu, dlatego przewidujemy możliwe zagrożenia i tworzymy normy i kryteria, które pozwolą im zapobiegać.

Jakie są pana obawy związane z dynamicznym rozwojem sztucznej inteligencji? Czy można skutecznie zachować obecną dynamikę jej rozwoju przy równoczesnym zapewnieniu bezpieczeństwa i poszanowaniu praw obywateli?

Zagrożenia związane z rozwojem sztucznej inteligencji pobudzają wyobraźnię i nie można ich ignorować. To, co wydaje mi się najbardziej niebezpieczne, to nie ryzyko przejęcia władzy nad światem przez myślące maszyny, ale raczej kwestie prawne, np. kto ponosi odpowiedzialność za skutki awarii lub wypadku systemu SI.

Kolejna sprawa to cyberbezpieczeństwo i możliowść wykorzystania inteligentnych urządzeń z obszaru IoT do działań hakerskich albo terrorystycznych. Jestem pewien, że właściwie skonstruowane środowisko testowe i badawcze, takie jak proponowane w AI Act piaskownice regulacyjne, pozwoli znaleźć złoty środek. Potrzebna jest jednak lepsza współpraca odpowiednich organów państwa i sektora prywatnego w identyfikowaniu potencjalnych luk i problemów.

Przykładem budzącym niepokój może być chociażby Social Credit System, czyli krajowy system służący do oceniania obywateli w Chińskiej Republice Ludowej. Czy widzi pan potencjalnie podobne zagrożenia również w Europie?

Chiny są państwem totalitarnym, które zbiera informacje o swoich obywatelach już od dziesięcioleci. System kredytu społecznego to nowa, cyfrowa odsłona metod, które były już stosowane. Państwa demokratyczne nie mogą sięgać po takie rozwiązania, bo są one sprzeczne z prawami człowieka.

Komisja Europejska wprost sformułowała bezwzględny zakaz prac nad tego rodzaju systemami. Uważam, że w przypadku instytucji publicznych korzystających ze sztucznej inteligencji nawet w drobnych sprawach powinniśmy wymagać pełnej transparentności i oczekiwać informacji jaki algorytm został użyty, jakie były kryteria podjęcia decyzji i czy była ona zweryfikowana przez człowieka.

Wykorzystywanie sztucznej inteligencji sprawia, że ogromną władzę zyskują prywatne korporacje technologiczne. Tym samym zdobywają one realny wpływ na światową gospodarkę i politykę. Czy da się rozwiązać ten problem?

Cały rynek cyfrowy, nie tylko europejski, ale globalny jest zdominowany przez kilka największych firm. Nic więc dziwnego, że także jeśli chodzi o rozwój SI, mają one przewagę wypracowaną przez lata – w zbieraniu danych i w inwestowaniu w badania i rozwój. Odpowiedzią na wynikające z tego problemy są działania antymonopolowe i przepisy, które UE już uchwaliła, takie jak DMA czy DSA. Zasada jest prosta – im silniejsza pozycja na rynku i większe z niej korzyści, tym większa odpowiedzialność za negatywne skutki zjawisk, które się przy okazji kreuje.

Czytaj też:
Sztuczna inteligencja: czy biurokracja zatrzyma innowacje

Nie oznacza to jednak, że korporacje technologiczne to zawsze czarne charaktery. Dialog między sektorem prywatnym i publicznym powinien być zawsze pierwszym wyborem, bo obie strony mogą i powinny się od siebie uczyć. Państwo, jako działające w interesie społecznym, powinno mieć jednak zawsze ostanie słowo i narzędzia do egzekwowania prawa w internecie.

Unia Europejska wprowadziła szereg regulacji, które mają chronić obywateli na rynku cyfrowym. Czy całokształt tych działań przekłada się na realne bezpieczeństwo w sieci? Jakie działania pana zdaniem należałoby wdrożyć dodatkowo?

Wiele z tych przepisów zostało przyjętych niedawno, więc trudno ocenić, jak będą działać w praktyce. Część z nich wymaga jeszcze przeniesienia do krajowego porządku prawnego, co rodzi pewne wyzwania. Podobnie jak z RODO, intencje są jak najbardziej słuszne, ale to praktyka ich stosowania zdecyduje czy użytkownicy mediów społecznosciowych czy klienci platform internetowych odniosą realne korzyści.

W kontekście rozwoju sztucznej inteligencji kluczowe będzie przyjęcie AI Act oraz dyrektywy w sprawie odpowiedzialności cywilnej w przypadku błędów i wypadków systemów sztucznej inteligencji. Stworzenie jasnego schematu wskazywania winnego i dochodzenia odszkodowań to warunek zbudowania zaufania konsumentów do produktów i usług opartych na tej technologii.

Spójrzmy teraz na problem z drugiej strony. Czy biurokracja może być barierą hamującą rozwój sztucznej inteligencji?

Biurokracja, która jest wroga technologii i sama nie jest cyfrowa, może być taką barierą. Nawet najlepsze i najbardziej przyjazne przepisy nie pomogą jeśli proces decyzyjny czy obieg dokumentów są analogowe. Polska przechodzi w tym zakresie szybką transformację i szereg usług publicznych, także oferowanych przedsiębiorcom, już jest w pełni dostępny on-line, ale nie cała UE tak działa. Jeśli chcemy być przyjaźni innowacjom to musi się zmienić.

Skupiliśmy się głównie na zagrożeniach. A czy dzięki działaniom, jakie wdraża UE, w najbliżej przyszłości Europa ma szansę stać się światowym liderem w rozwoju sztucznej inteligencji?

Wsiadamy do tego pociągu najpóźniej ze wszystkich rozwiniętych gospodarek świata, więc trudno mówić o tym, że w krótkim czasie wyprzedzimy USA czy Chiny. Jednak położenie ogromnego nacisku na cyfryzację w obszarze regulacji czy inwestycji w Unii Europejskiej to pierwszy krok niezbędny, żeby na poważnie do tego wyścigu dołączyć.

Mamy europejskie firmy, które w wielu obszarach nadal liczą się na świecie, na przykład w branży motoryzacyjnej, energetycznej czy medycznej, które inwestują w sztuczną inteligencję. Polska jest ważnym producentem dronów, które także wykorzystują sztuczną inteligencję. W tych poszczególnych obszarach mamy szanse wygrywać z globalną konkurencją.

Źródło: Wprost