UE szykuje pierwsze prawo AI. Chodzi o ChatGPT

UE szykuje pierwsze prawo AI. Chodzi o ChatGPT

Flaga UE, zdjęcie ilustracyjne
Flaga UE, zdjęcie ilustracyjne Źródło: Fotolia / fot. Gina Sanders
Unia Europejska pracuje nad przełomowym AI Act, prawem dotyczącym sztucznej inteligencji. Dokument zakazuje tworzenia niebezpiecznych AI i dzieli systemy na cztery poziomy ryzyka. Ograniczone będą też czatboty jak ChatGPT.

Jedna z kluczowych komisji Parlamentu Europejskiego zaakceptowała niedawno treść AI Act – pierwszego tego typu prawa dotyczącego wykorzystywania sztucznej inteligencji. Jest to ogromny krok ustalenia statusu prawnego i ograniczeń narzędzi takich jak ChatGPT.

AI Act w Unii Europejskiej – te AI będą zabronione

Europejski Akt o sztucznej inteligencji (AI Act) ma się skupiać w swoich regulacjach na ograniczeniu ryzyka związanego z dynamicznym rozwojem AI. Poziom zobowiązań prawnych dotyczących danego systemu AI będzie większy, jeśli ryzyko związane z jego wykorzystywaniem jest znaczne.

AI Act dzieli systemy sztucznej inteligencji na cztery poziomy. Są to: Brak lub minimalne ryzyko, ograniczone ryzyko, wysokie ryzyko i ryzyko nie do zaakceptowania. W tym układzie systemy z najwyższym poziomem zagrożenia są automatycznie blokowane na terytorium . Do nieakceptowalnych zagrożeń zalicza się:

  • AI używające manipulacji i technik podprogowych w celu zmiany zachowania ludzi;
  • AI wykorzystujące słabości indywidualnych osób czy grup;
  • AI biometrycznie kategoryzujące ludzi na podstawie ich wrażliwych cech czy charakterystyk;
  • AI tworzące i przyznające punkty w ramach systemu zaufania społecznego lub innych systemów mierzących zaufanie;
  • AI przewidujące ryzyko popełnienia przestępstwa przez dane osoby;
  • AI tworzące lub rozszerzające bazy danych do celów rozpoznawania twarzy poprzez niecelowane wyciąganie danych z internetu;
  • AI wnioskujące o emocjach osób do użytku w służbach porządkowych, straży granicznej, w miejscu pracy czy placówkach edukacyjnych.

UE – ChatGPT nie może łamać praw autorskich

Prawodawcy Unii Europejskiej domagali się także dodatkowych zapisów ujmujących w ściślejsze normy prawne rozwiązania czatbotów AI, m.in. ChatGPT.

W obecnym projekcie AI Act wymagana prawne obejmują więc już także „fundamentalne modele AI”. Przykładem jest tu duży model językowy (LLM) GPT-4, będący podstawą działania narzędzia ChatGPT. Podobny model PaLM 2 wspomaga zaś Bard AI od .

Twórcy modeli językowych i innych tego typu baz informacji będą musieli wprowadzić do swoich systemów dodatkowe zabezpieczenia czy systemy zarządzania danymi zawartymi w modelu. Deweloperzy nie będą też mogli używać w modelach danych pozyskanych z naruszeniem praw autorskich.

To ostatnie wymaganie może być huraganową zmianą na rynku AI. Modele generatywnej sztucznej inteligencji często wykorzystują bowiem obrazy stworzone przez konkretnych artystów czy utwory napisane przez pisarzy.

Czytaj też:
ChatGPT zbanowany w pierwszym kraju UE. Powód jest prosty
Czytaj też:
Ciemna strona sztucznej inteligencji. „W niektórych kwestiach trzeba bić na alarm”