Ten program „zatruwa” AI. Nightshade ma zatrzymać kopiowanie od artystów

Ten program „zatruwa” AI. Nightshade ma zatrzymać kopiowanie od artystów

Zdjęcie ilustracyjne
Zdjęcie ilustracyjne Źródło:Fotolia / Christian
Naukowcy opracowali nowe narzędzie, które ma być trucizną dla generatywnego AI. Nightshade pozwala artystom zmienić swoje obrazy tak, że modele AI nie mogą ich wykorzystać. Człowiek nie zauważy zaś różnicy.

W ostatnim czasie narzędzia AI niezwykle się rozpowszechniły, co nie dla wszystkich jest dobrą wiadomością. Co prawda każdy jest teraz w stanie przygotować obrazy i grafiki na zadany temat w zaledwie parę chwil, ale dzieje się to kosztem artystów, z których sztuczna inteligencja kopiuje pasjami.

Nightshade zatruje obrazy artystów, by AI nie mogło ich ukraść

Wydaje się, że twórcy cyfrowej sztuki w końcu zyskali potężną odpowiedź w problematycznej kwestii AI. Zespół z Uniwersytetu w Chicago zaprezentował bowiem Nightshade – narzędzie, które uniemożliwia wykorzystywanie danych przez sztuczną inteligencję.

Psianka czarna, zwana też czarcią jagodą, to bardzo adekwatna nazwa dla tego rozwiązania. System „zatruwa” bowiem informacje wizualne, co czyni dany obraz bezużytecznym dla trenowania modeli AI.

Dowodzący zespołem naukowym profesor Ben Zhao liczy, że przygotowywane narzędzie zwróci kontrolę w ręce artystów. Obecnie narzędzia generatywne takie jak DALL-E, Midjourney czy Stable Diffusion do woli pobierają bowiem dane z internetu, za nic mając sobie prawa autorskie, opłaty za wykorzystanie dzieł czy zgody grafików. Ci obawiają się zaś, że po okresie uczenia ogromnych modeli AI mogą wręcz zniknąć jako zawód i zostać zastąpieni przez maszyny.

Jak działa Nightshade?

System zatruwający obrazy wykorzystuje podatność bezpieczeństwa w modelach generatywnego AI. Nightshade wprowadza niewidoczne ludzkim okiem zmiany do każdego piksela obrazu. Nauczony na tych próbkach model zaczyna zaś halucynować. Sprawia to, że sztuczna inteligencja zaczyna na przykład interpretować obraz kota jako psa, kapelusz jako ciasto lub zmienia damskie torebki w tostery.

Jako że proces zbierania danych jest zwykle zautomatyzowany, do modelu dostawać się będzie z czasem więcej i więcej bezużytecznych, a raczej wprowadzających maszynę w błąd danych. Ich usunięcie będzie ogromnym problemem, bo twórcy muszą robić to ręcznie.

Nightshade jest projektem open source, co pozwala innym programistom i badaczom na wprowadzanie własnych wersji i ulepszeń tej metody. Naukowcy nie boją się o to, że całkowicie zniweczą prace nad obecnymi modelami AI. Te są trenowane na miliardach obrazów, więc punktowe „zatrucia” nie powinny być problemem dla ogólnego działania AI. Utrudni to jednak kopiowanie zabezpieczających się systemem artystów.

Co ciekawe, wcześniej zespół Zao przygotował też narzędzie Glaze. To podobne narzędzie, skupione jednak na ukrywaniu „kreski” grafika, a więc personalnego stylu indywidualnie tworzonego przez artystę przez wiele lat. Bardzo popularne staje się też bowiem proszenie AI o wykonanie obrazu „w stylu X”. Ofiarą tej mody padł już m.in. polski grafik koncepcyjny Greg Rutkowski.

Czytaj też:
Jak stworzyć plakat w stylu Pixar? Nowy trend ma rzesze fanów
Czytaj też:
Świat bierze się za regulowanie AI. Przegalińska dla „Wprost”: Wyzwaniem jest znalezienie równowagi

Opracował:
Źródło: MIT Technology Review