UE szykuje pierwsze prawo AI. Chodzi o ChatGPT
Jedna z kluczowych komisji Parlamentu Europejskiego zaakceptowała niedawno treść AI Act – pierwszego tego typu prawa dotyczącego wykorzystywania sztucznej inteligencji. Jest to ogromny krok ustalenia statusu prawnego i ograniczeń narzędzi takich jak ChatGPT.
AI Act w Unii Europejskiej – te AI będą zabronione
Europejski Akt o sztucznej inteligencji (AI Act) ma się skupiać w swoich regulacjach na ograniczeniu ryzyka związanego z dynamicznym rozwojem AI. Poziom zobowiązań prawnych dotyczących danego systemu AI będzie większy, jeśli ryzyko związane z jego wykorzystywaniem jest znaczne.
AI Act dzieli systemy sztucznej inteligencji na cztery poziomy. Są to: Brak lub minimalne ryzyko, ograniczone ryzyko, wysokie ryzyko i ryzyko nie do zaakceptowania. W tym układzie systemy z najwyższym poziomem zagrożenia są automatycznie blokowane na terytorium Unii Europejskiej. Do nieakceptowalnych zagrożeń zalicza się:
- AI używające manipulacji i technik podprogowych w celu zmiany zachowania ludzi;
- AI wykorzystujące słabości indywidualnych osób czy grup;
- AI biometrycznie kategoryzujące ludzi na podstawie ich wrażliwych cech czy charakterystyk;
- AI tworzące i przyznające punkty w ramach systemu zaufania społecznego lub innych systemów mierzących zaufanie;
- AI przewidujące ryzyko popełnienia przestępstwa przez dane osoby;
- AI tworzące lub rozszerzające bazy danych do celów rozpoznawania twarzy poprzez niecelowane wyciąganie danych z internetu;
- AI wnioskujące o emocjach osób do użytku w służbach porządkowych, straży granicznej, w miejscu pracy czy placówkach edukacyjnych.
UE – ChatGPT nie może łamać praw autorskich
Prawodawcy Unii Europejskiej domagali się także dodatkowych zapisów ujmujących w ściślejsze normy prawne rozwiązania czatbotów AI, m.in. ChatGPT.
W obecnym projekcie AI Act wymagana prawne obejmują więc już także „fundamentalne modele AI”. Przykładem jest tu duży model językowy (LLM) GPT-4, będący podstawą działania narzędzia ChatGPT. Podobny model PaLM 2 wspomaga zaś Bard AI od Google.
Twórcy modeli językowych i innych tego typu baz informacji będą musieli wprowadzić do swoich systemów dodatkowe zabezpieczenia czy systemy zarządzania danymi zawartymi w modelu. Deweloperzy nie będą też mogli używać w modelach danych pozyskanych z naruszeniem praw autorskich.
To ostatnie wymaganie może być huraganową zmianą na rynku AI. Modele generatywnej sztucznej inteligencji często wykorzystują bowiem obrazy stworzone przez konkretnych artystów czy utwory napisane przez pisarzy.