Czym jest „czarna skrzynka AI”? Tak działa ChatGPT

Czym jest „czarna skrzynka AI”? Tak działa ChatGPT

ChatGPT i Microsoft vs Bard AI i Google
ChatGPT i Microsoft vs Bard AI i Google Źródło: Shutterstock / Tada Images
Rozwiązania sztucznej inteligencji są coraz popularniejsze, ale czy naprawdę wiemy jak działają narzędzia takie jak ChatGPT? Tworzenie AI jest skomplikowanym procesem, a  twórcy używają tajemniczej „czarnej skrzynki”.

Czarna skrzynka to termin rozpowszechniony m.in. w lotnictwie. To właśnie danie z tego urządzenia pozwalają często na zdiagnozowanie przyczyny usterki czy poważnego wypadku. Termin ten jest jednak niezwykle kluczowy także w badaniach i rozwoju sztucznej inteligencji. Jest podstawą działania narzędzi AI takich jak ChatGPT czy DALL-E 2.

AI Black Box – jak „myśli” sztuczna inteligencja

Obrazowo proces tworzenia AI można prosto przedstawić w następujący sposób. Tworzymy algorytm, który ma wykonywać określone zadanie. Algorytmowi zapewnić trzeba szereg danych treningowych – po nauce na nich wytwarzany jest model AI. Dopiero on jest wykorzystywany w usługach używanych przez ludzi.

Czarna skrzynka to zaś termin określający system AI, który działa w sposób niezrozumiały dla samego twórcy. Mówiąc najprościej – wkładamy znane nam dane do rzeczonej skrzynki, w środku odbywa się określony szereg działań, a następnie wysuwa się z niej wynik, który możemy zweryfikować jako prawidłowy.

Pokażmy to na przykładzie. Stworzyliśmy właśnie model AI, który wykrywa zdjęcia psów i odróżnia je od kotów. Wrzucamy więc do czarnej skrzynki tysiące zdjęć domowych pupili. W parę chwil. AI z wysoką dokładnością sortuje obrazy na dwie grupy.

Mamy pewność, że system sztucznej inteligencji zadziałał, szybciej, a czasem również skuteczniej od człowieka. Po czym jednak rozpoznawał zwierzęta? Po kolorze, uszach, łapach, pyskach, wysokości w kłębie, zębach, ogonach, futrze, ułożeniu ciała? Po prostu nie wiemy.

Logika czy dokładne rozumowanie algorytmów podczas działania (zwłaszcza tych typu deep learning) znacząco różni się od rozumowania człowieka. AI nie działa według „zdrowego rozsądku”, a rozumowanie maszyny wyzbyte jest wszystkich naleciałości związanych z… byciem człowiekiem. Dzięki temu AI może rozwiązywać problemy w sposób, na który my nigdy nie wpadniemy.

AI – Black Box vs Glass Box

Najczęściej to model AI umieszczany jest w czarnej skrzynce. Twórców sztucznej inteligencji interesuje bowiem wynik, a nie to, jak działa maszyna w środku. Dodatkowo może w ten sposób chronić model jako swoją własność intelektualną – konkurencja nie skopiuje tego, czego w pełni nie zna sam twórca. Ukryty przed światem może być także jednak algorytm, lub zbiór danych treningowych.

Odwrotnym popularyzującym się trendem jest zaś „szklana skrzynka” – Glass Box. To podejście do AI bazuje na jak największej transparentności procesu tworzenia sztucznej inteligencji. Firmy tworzące AI w modelu szklanym często udostępniają publicznie zarówno swój algorytm, dane użyte do jego treningu, jak i sam gotowy model.

Powoli buduje się też zupełnie nowa odnoga badań nad AI. Chodzi tu o sztuczną inteligencję możliwą do wytłumaczenia (przez człowieka). Badania nad tzw. explainable AI starają się rozjaśnić i zrozumieć jak dokładnie działają zaawansowane algorytmy oraz na jakiej podstawie podejmują właściwe decyzje.

Szklane pudełka będą niezwykle ważne w miarę rozwoju AI. W wielu przypadkach sztuczna inteligencja pomagać będzie bowiem przy wrażliwych tematach, gdzie nie może dojść do pomyłek. Dobrym przykładem transparentnego AI powinien być m.in. system, który stawia diagnozę pacjentom czy sugeruje konkretną terapię na ich dolegliwości.

Czytaj też:
Współtwórca ChatGPT zachwycony Polakami. „Nie wiem, jak to robicie”
Czytaj też:
Premier rozmawiał z twórcami ChatGPT. Porównał sztuczną inteligencję do noża