Czego NIE robić z ChatGPT? Tu AI wam nie pomoże

Czego NIE robić z ChatGPT? Tu AI wam nie pomoże

ChatGPT, zdjęcie ilustracyjne
ChatGPT, zdjęcie ilustracyjne Źródło: Unsplash
ChatGPT jest narzędziem AI używanym już praktycznie do wszystkiego. Nadal są jednak zadania, z którymi system sztucznej inteligencji radzi sobie dość słabo. Do czego nie powinniśmy używać modelu OpenAI?

Po tym jak firma OpenAI udostępniła internautom wspieranego AI czatbota ChatGPT pod koniec 2022 roku narzędzie z miejsca stało się hitem. W bardzo krótkim czasie w internecie pojawiły się nowe sposoby wykorzystania maszyny i kolejne triki usprawniające prace narzędzia.

Użytkownicy próbują zachęcić czatbota do wielu zaskakujących i intrygujących inicjatyw, które mogą pomóc ludziom w codziennym życiu, a nawet trudnych zadaniach. Trzeba jednak uważać – sztuczna inteligencja nie radzi sobie ze wszystkim. Do czego nie powinno się używać ChatGPT?

1. Nie piszcie z ChatGPT prac naukowych czy artykułów

Choć chatbot jest całkiem niezły w generowaniu tekstu, nie jest nieomylny. Co gorsza, biedaczek cierpi na zjawisko zwane „halucynacjami”. Oznacza to sytuacje, gdy maszyna z przekonaniem i autorytetem mówi o rzeczach, które nigdy nie miały miejsca.

Halucynacje mogą dotyczyć również faktów, bo ChatGPT potrafi je naginać, a nawet kłamać w żywe oczy. Lepiej więc nie używać czatbota do szkolnych rozprawek, a tym bardziej do ułatwienia sobie pisania pracy naukowej.

ChatGPT może być niezły w odrobieniu pracy domowej za licealistę (tak, uczniowie szeroko już tego próbują). W szkole najgorszym wypadku dostaniemy jedynkę i trafimy na dywanik u dyrektora. Gorzej jeśli ChatGPT wykorzystaliśmy do napisania pracy licencjackiej, magisterskiej czy artykułu naukowego.

Z testów przeprowadzonych przez ekspertów wynika, że narzędzie AI całkiem często zmyśla przypisy, które powinny być podstawą każdej tego typu pracy. Bibliografia jest zaś dość łatwa do zweryfikowania. Tego typu oszustwo przy zdobywaniu stopnia naukowego może zaś skończyć się dla niedoszłego magistra bardzo poważnymi konsekwencjami. Jeszcze gorzej, gdy robi to naukowiec – wtedy w gruzach może legnąć nawet cała jego kariera.

Odciążyć się ChatGPT próbują też już niektórzy dziennikarze. Głośna była na przykład sprawa „wywiadu” z kierowcą rajdowym Michaelem Schumacherem. Problem w tym, że rajdowiec z nikim nie rozmawiał. Redaktor niemieckiego tabloida wygenerował artykuł z pomocą chatbota. Został za to zwolniony z pracy, a rodzina Schumachera pozwała publikację.

2. Nie pytajcie ChatGPT o najnowsze informacje

ChatGPT jeszcze długo nie stanie się waszym personalnym źródłem informacji o bieżących wydarzeniach. Nie jest to możliwe ze względu na samą metodę budowy narzędzia.

Chatbot czerpie swoją wiedzę z ogromnego zbioru danych z internetu. Punkt odcięcia informacji treningowych to jednak wrzesień 2021 roku. Oznacza to, że ChatGPT po prostu nie pomoże nam z zadaniami wymagającymi najświeższej wiedzy.

W wyniku tego ograniczenia narzędzie może nam podawać złe, nieaktualne już dane. Przykładem są tu nowe badania naukowców, ale też tysiące innych rzeczy. Załóżmy, że w niedalekiej przyszłości jeden ze startupów medycznych opracował nową terapię na groźną chorobę, wielka korporacja przeniosła swoją siedzibę, a konflikt w Ukrainie się zakończył. ChatGPT nadal będzie „żył w świecie” gdzie żadna z tych rzeczy się nie wydarzyła.

Twórcy narzędzia z firmy OpenAI mogą z czasem dodawać świeższe dane do swojego systemu AI. Problem w tym, że jeszcze przez długi czas system będzie zawsze „w tyle” za bieżącymi wydarzeniami. Jak na razie ChatGPT nie pochłania danych w czasie rzeczywistym.

3. Nie pytajcie ChatGPT o porady prawne, medyczne czy finansowe

Tak, zdarzały się już takie przypadki. Pisaliśmy o ChatGPT grożącym pozwem. Narzędzie pomogło też zdiagnozować chorobę u domowego pupila, a dość spora liczba osób jest zainteresowana poradami, jakich ChatGPT może udzielić w dziedzinie finansów.

Nieliczne jak na razie sukcesy nie powinny jednak dawać nam żadnej pewności, że porady systemu zadziałają również w naszym przypadku. ChatGPT może być narzędziem pomocniczym, ale nigdy nie powinniśmy ślepo wierzyć chatbotowi. Maszyna nigdy nie będzie certyfikowanym specjalistą, a dodatkowo może nam pokrzyżować plany czy źle poradzić.

Pamiętajmy, że system cały czas cierpi na halucynacje AI. Może to oznaczać, że wymyśli jakiś przepis, zaproponuje terapię, która pogorszy nasz stan zdrowia, zamiast go poprawić lub zaproponuje nam „okazję”, przez którą stracimy wszystkie oszczędności.

4. Tego unikajcie przy rozmowach z ChatGPT

Na koniec zebraliśmy parę ogólniejszych porad, przydatnych w obcowaniu z Chatbotem.

Konwersując ze sztuczną inteligencją nie powinniśmy prosić o prywatne dane innych osób i równocześnie powinniśmy pilnować się z podawaniem własnych. Chatbot nie powinien mieć dostępu do poufnych danych. jednocześnie OpenAI wykorzystuje nasze wpisy na czacie do dalszego uczenia narzędzia.

Podawanie imienia i nazwiska, maila, miejsca zamieszkania i innych identyfikujących danych może więc oznaczać, że ChatGPT użyje ich w jakieś innej odpowiedzi.

Nie warto też oczekiwać tego, że narzędzie zobaczy swój błąd, wykona fact checking czy poprawi się po wskazaniu mu błędnej wypowiedzi. Narzędzie nie ma bowiem mechanizmu korygowania odpowiedzi w oparciu o nowe dane. Jeśli ChatGPT „uprze się”, ze dwa razy dwa to sześć, z uporem będzie bronił swojej odpowiedzi.

W końcu – ChatGPT sam często wpada w sidła manipulacji. W internecie pełno jest poradników „hakowania” narzędzia, co pozwala m.in. ominąć liczne filtry nałożone na system przez jego twórców. Bazując na tym przykładzie, powinniśmy zawsze pamiętać, że ChatGPT jest jeszcze w swojej „dziecięcej fazie”. Wszystko, co napisze, powinno być więc brane w nawias.

Czytaj też:
Współtwórca ChatGPT zachwycony Polakami. „Nie wiem, jak to robicie”
Czytaj też:
ChatGPT to idealny pracownik. Nie chodzi na papierosa, nie trzeba płacić za jego urlopy
Czytaj też:
ChatGPT zbanowany w pierwszym kraju UE. Powód jest prosty