Kluczowe aspekty prawne związane z rozwojem sztucznej inteligencji

Kluczowe aspekty prawne związane z rozwojem sztucznej inteligencji

Mężczyzna korzystający z ChatGPT
Mężczyzna korzystający z ChatGPT Źródło: Pexels
Czy dostępne są już rozwiązania prawne pozwalające na minimalizację negatywnych aspektów związanych z dynamicznym rozwojem sztucznej inteligencji?

Sztuczna inteligencja to technologia, która już dzisiaj daje ludzkości niesamowite możliwości. Coraz częściej można usłyszeć jednak także głosy wprost mówiące o negatywnych aspektach z nią związanych. Ciągły rozwój AI rodzi liczne dylematy etyczne oraz prawne, na które musi zostać odnaleziona odpowiedź. Mając jednak na względzie, że prawdopodobnie zawsze prawo będzie w tyle za postępującym nieprzerwanie rozwojem technologii, pojawia się wniosek, aby istniejące normy dopasować do zmieniającego się dynamicznie świata. W jakim miejscu, jeżeli chodzi o regulacje prawne związane ze sztuczną inteligencją, jesteśmy dzisiaj i czy jest to stan, który jest dopasowany do takich warunków?

W Polsce wciąż brak regulacji związanych ze sztuczną inteligencją

W Polsce cały czas nie doczekaliśmy się żadnych aktów prawnych poświęcających większą uwagę tematyce sztucznej inteligencji. Wydaje się jednak, że problemy, które mogą wystąpić w związku z rozwojem tej technologii, zostały zauważone i poruszone w debacie publicznej.

W styczniu br. poseł Paweł Szramka zgłosił do Ministerstwa Sprawiedliwości interpelację nr 38607, w której wyraził on obawę dotyczącą algorytmów AI, które tworzyć mogą bardzo realistycznie wyglądające obrazy, w tym również takie o charakterze pedofilskim. Poseł zauważył rosnący problem związany z tym, że tego typu dzieła nie zawsze są usuwane przez administratorów internetowych portali, którzy tłumaczą, że zaliczają się one do takich samych kategorii, jak np. japońskie hentai (a więc rysunkowe obrazy i filmy o tematyce pornograficznej).

Pomimo że obrazy wytwarzane przez AI, tak samo, jak hentai, nie przedstawiają prawdziwych osób i wydarzeń, to w przeciwieństwie do dzieł azjatyckich rysowników są dużo bardziej realistyczne i mogą tworzyć wizerunki o dowolnie wybranym charakterze, w tym także pedofilskim. To z kolei rodzi obawę o to, czy treści tego typu nie będą szeroko i bezkarnie rozpowszechniane.

Poseł zaznacza przy tym słusznie konieczność dopasowania obowiązującego prawa do nowych wyzwań związanych z postępem technologii, w tym w szczególności algorytmów mogących tworzyć tak bardzo realistyczne obrazy.

Odpowiedź Ministerstwa Sprawiedliwości

W odpowiedzi na tak postawiony problem, Ministerstwo Sprawiedliwości wskazało, że kwestia regulacji związanych ze sztuczną inteligencją poruszana jest obecnie na poziomie unijnym i dlatego polski ustawodawca czekać będzie na rezultaty tych prac.

Ministerstwo zdaje sobie jednak sprawę z zagrożeń, jakie niesie za sobą rozwój AI i podkreśla konieczność uregulowania kwestii z tym związanych.

W wystosowanej odpowiedzi zauważono także, że systemy informatyczne wykorzystujące sztuczną inteligencję mogą w dużym stopniu usprawnić funkcjonowanie instytucji publicznych, takich jak np. sądy. Dlatego właśnie zagadnienie to jest przez polskie władze cały czas analizowane, również z takiej perspektywy.

Sztuczna inteligencja w prawie unijnym

Tak jak zauważyło polskie Ministerstwo Sprawiedliwości, Unia Europejska jest obecnie na etapie tworzenia zharmonizowanych zasad dotyczących AI. Jest to konsekwencja ciągłego rozwoju w tej dziedzinie życia i stanowi przedłużenie wypuszczonego w 2019 roku komunikatu Komisji Europejskiej w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka oraz wcześniejszej, opublikowanej w kwietniu 2018 r. Strategii Europejskiej na rzecz sztucznej inteligencji.

W komunikacie oraz strategii zauważono przede wszystkim potencjał sztucznej inteligencji, w tym możliwości wykorzystania jej do zwiększenia bezpieczeństwa samochodów, zmniejszenia zużycia energii, bardziej wydajnego użytkowania wody, poprawy opieki zdrowotnej, jak również przewidywania zmian środowiska.

Mając to na względzie, Komisja Europejska podjęła decyzję o rozpoczęciu działań, mających na celu rozwój sztucznej inteligencji (m.in. poprzez stworzenie sieci ośrodków badań naukowych oraz ośrodków innowacji cyfrowych) oraz wypracowaniu zharmonizowanych, unijnych zasad, które dopasują istniejące normy prawne do nowych realiów.

Trwają prace nad projektem dyrektywy o AI

Zasady te na ten moment przybierają formę projektu Dyrektywy Parlamentu Europejskiego i Rady UE z dnia 28 września 2022 r. w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji.

Powstanie projektu dyrektywy podyktowane było przede wszystkim chęcią wdrożenia w całej Unii Europejskiej sztucznej inteligencji, która będzie bezpieczna i godna zaufania. Cel ten ma zostać zapewniony poprzez poprawienie sposobu wdrażania i rozwoju tej technologii w krajach członkowskich, a także zapewnienie odpowiedniej ochrony osobom, które poniosły jakąkolwiek szkodę związaną z działaniem sztucznej inteligencji.

Zauważono bowiem, że obecnie funkcjonujące, różniące się między sobą, krajowe przepisy dotyczące odpowiedzialności, nie są w większości dostosowane do roszczeń z tytułu odpowiedzialności za szkody spowodowane przez produkty i usługi, które wykorzystują AI.

Przy tego typu technologiach pojawia się, niewystępująca jeszcze dotychczas na taką skalę, złożoność, nieprzejrzystość i autonomia tego rodzaju produktów i usług, która ze strony ofiar rodzić może zagubienie oraz problem ze zidentyfikowaniem osoby odpowiedzialnej za popełnioną szkodę. To z kolei godzi w podstawowe prawa jednostki do skutecznego dochodzenia swoich roszczeń z tytułu odpowiedzialności cywilnej.

Unia poprzez wspomnianą dyrektywę ma więc wprowadzić możliwość uzyskania przez osoby dochodzące swoich praw szerokich informacji na temat systemów sztucznej inteligencji wysokiego ryzyka, które zgodnie z projektowanymi przepisami mają być odpowiednio rejestrowane. Ciężar dowodu spoczywający na osobach dochodzących odszkodowania za szkody spowodowane przez systemy AI ma też być zmniejszony i rozłożony bardziej racjonalnie (do czego zastosowana zostanie instytucja domniemania wzruszalnego).

Czytaj też:
Czym jest „czarna skrzynka AI”? Tak działa ChatGPT
Czytaj też:
ChatGPT to idealny pracownik. Nie chodzi na papierosa, nie trzeba płacić za jego urlopy

Źródło: WPROST.pl