Dyrektor w Google nawołuje do spowolnienia prac nad SI. Dobre intencje czy hipokryzja?

Dyrektor w Google nawołuje do spowolnienia prac nad SI. Dobre intencje czy hipokryzja?

Google Chrome
Google Chrome Źródło:Pexels / PhotoMIX Ltd.
ChatGPT wymyślił cytat z „Lalki” Bolesława Prusa. Pewnie szefowie Googla czy Microsoftu nie mają o tym pojęcia, ale jest to jeden z kamyczków w dyskusji nad ograniczeniem rozwoju sztucznej inteligencji. Pytanie tylko, czy takie apele są szczere?

– Ruch jest zaskakujący, bo wyszedł ze strony giganta, który sam przecież od dawna pracuje nad rozwojem sztucznej inteligencji. Rynek może mieć problem z odczytaniem takiego komunikatu i jego właściwą interpretacją –  mówi Marcin Stypuła, prezes agencji Semcore.pl.

W taki właśnie sposób komentuje słowa Sundara Pichaiego, dyrektora generalnego Google, które padły w głośnym już wywiadzie udzielonym CBS. Pichai przyznał się w nim do „swoich kłopotów ze snem”, które są związane z rosnącą rolą sztucznej inteligencji.

– Zdajemy sobie sprawę z pilnej potrzeby pracy nad SI i wdrożenia jej w korzystny sposób dla ludzi. Jednocześnie może być jednak bardzo szkodliwa, jeśli zostanie zaadaptowana niewłaściwie – odrzekł jeden z szefów Googla, a za tymi słowami kryje się wezwanie do spowolnienia prac nad rozwojem SI. – Nie mamy jeszcze wszystkich odpowiedzi, a technologia rozwija się szybko – powiedział Pichai.

Sztuczna inteligencja. Potrzebny krok w tył

Dlaczego Pichai zaskoczył? Bo przeżywamy istny boom SI, a ostatnio jest to temat bardzo nośny za sprawą ChatuGPT.

– Ta popularność sprawiła, że o sztucznej inteligencji mówi się obecnie bardzo dużo. Coraz więcej firm prowadzących swój biznes w sieci zwraca uwagę na SI. Coraz więcej użytkowników internetu stara się dowiedzieć więcej o SI. Coraz więcej prezesów firm – klientów takich agencji jak nasza – pyta o zaangażowanie SI w cyfrowy marketing. Czasami są zaskoczeni, że przecież pracujący dla nich już z wielu narzędzi SI korzystamy –  przyznaje Marcin Stypuła z Semcore.

Jednak słowa szefa Google dziwią także dlatego, że amerykański gigant sam od lat już wykorzystuje sztuczną inteligencję i cały czas ją rozwija. Nie jest żadną tajemnicą, że rozwiązania znane z ChatGPT chce zaimplementować w swoim sztandarowym produkcie – wyszukiwarce Google. Prace nad Bardem, jak można domniemywać z informacji płynących od firmy, są już na ukończeniu. Tym bardziej, że wyzwanie Google rzucił Microsoft, który niedawno uczynił tak ze swoją wyszukiwarką, czyli Bingiem.

Stypuła wyjaśnia, że SI jest w produktach Google obecna powszechnie. Choćby oprogramowanie Google Photos używa SI do rozpoznawania obrazów. Do tego można doliczyć choćby Google Lens czy Asystent Google. – Dlatego może się wydać dziwne, że to akurat Google wzywa do spokojniejszego podejścia do rozwoju S I – mówi założyciel Semcore.pl.

Musk pisze list

Uczciwie trzeba powiedzieć, że Pichai nie jest pierwszym, który ostrzega przed sztuczną inteligencją. Wcześniej w podobnym tonie wypowiadał się Eric Schmidt, który był prezesem Google w latach 2011 – 2015. On z kolei wyzwał międzynarodowy biznes do wypracowania wspólnych standardów dotyczących rozwoju SI.

Schmidta jednak od Pichaiego różni to, że ten pierwszy nie chce słyszeć o spowolnieniu prac. Dobrze wie, że nigdy w tej kwestii nie będzie globalnej jedności i jeżeli nawet kraje Zachodu zaczną bardziej obserwować SI i wdrażać ją do swoich produktów w wolniejszym tempie, to nie zrobią tego Chiny. I to one wyjdą mocno do przodu w tym informatycznym wyścigu zbrojeń. Dodatkowo pod koniec marca tego roku setki biznesmenów i inwestorów we wspólnym liście wezwali, aby zrobić co najmniej sześć miesięcy przerwy w rozwoju systemów sztucznej inteligencji.

W liście jest mowa o niekontrolowanym wyścigu „by rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – w tym nawet ich twórcy – nie potrafi zrozumieć, przewidzieć, czy porządnie kontrolować” – i zauważono, że „sztuczna inteligencja może stanowić „głęboką zmianę w historii życia na Ziemi”, co może doprowadzić do powszechnej dezinformacji, masowa automatyzacji pracy czy zastąpienia ludzi przez maszyny co w konsekwencji doprowadzić może do „utraty kontroli nad cywilizacją”.

Tak się rodzi dezinformacja

Brzmi to jak streszczenie powieści s-fi, ale autorzy listu mają trochę racji. I nawet jeżeli sceptycy powiedzą, że nie ma się czego bać, to nawet teraz widać, że SI się myli, a błędy przyjmowane są jako pewnik. Tak rodzi się dezinformacja.

Popularny dziennikarz sportowy, Krzysztof Stanowski, zapytał ChatGPT o ostatnie wersy „Lalki” Bolesława Prusa. System bez problemu przytoczył fragment powieści, ale… było to słowa nie tylko błędne, ale nieprawdziwe. SI podsunęła cytat, którego nie ma w „Lalce”. Nie ma go, zapewne, w żadnej książce na świecie.

Celowy błąd

Czy niedoskonałość SI jest czymś tragicznym? Paradoksalnie nie. Microsoft już podjął decyzję, że takie produkty jak Word i Excel będą sprzedawane z technologią Copilot – podobną do ChatGPT. Tyle że ma być ona „pożytecznie błędna”. To oznacza, że podsuwane przez SI podpowiedzi, np. przy pisaniu tekstu, mają być czasami celowo błędne.

– Brzmi to niemal jak pomysł szaleńca, ale Microsoft ma plan. Rąbka tajemnicy uchyla sama nazw Copilot – czyli drugi pilot. Rozwiązanie Microsoftu ma ułatwić człowiekowi pracę, jednocześnie nie wyłączając myślenia i czujności. Narzędzie SI będzie musiało być ciągle pod kontrolą użytkownika, które celowe błędy ma wyłapać. I jednocześnie zwrócić też uwagę na te wpadki SI, które wynikać będą z niedoskonałości narzędzia – wyjaśnia Stupuła i dodaje: – To może być np. błędnie przez narzędzie napisana data, a człowiek ma na taką pomyłkę zareagować.

Czerwona lampka

Unia Europejska chce przepisów regulujących pracę sztucznej inteligencji. Władze Włoch tymczasowo zakazały w tym kraju korzystania z ChatuGPT. Tu jednak głównym argumentem było pytanie o gromadzenie przez narzędzie danych o użytkownikach. Prezydent USA Joe Biden także publicznie zakwestionował kwestie bezpieczeństwa bezpieczeństwo SI.

– Moim zdaniem firmy technologiczne mają obowiązek upewnić się, że ich produkty są bezpieczne przed ich upublicznieniem. Sztuczna inteligencja może pomóc w radzeniu sobie z niektórymi bardzo trudnymi wyzwaniami, takimi jak choroby i zmiany klimatyczne, ale ma również zająć się potencjalnymi zagrożeniami dla naszego społeczeństwa, naszej gospodarki, naszego bezpieczeństwa narodowego i musimy to kontrolować – powiedział Biden i nie da się tych słów nie łączyć z opisywanymi przez zachodnie media alertami ze strony inżynierów np. Google.

Microsoft rozwiązał cały dział etyki

Wróćmy jednak do Pichaiego czy Muska i ich apeli o spowolnienie prac nad SI. Ile w tym wszystkim jest prawdziwej troski, a ile biznesu? Przecież trudno uwierzyć, że firmy stale rozwijające SI teraz chcą spowolnienia prac nad nią. Przecież już kilka lat temu pracownicy informatycznych gigantów ostrzegali swoich szefów, że ich rozwiązania SI generują błędne odpowiedzi, ich działanie może być niekorzystne, a nawet krzywdzące. Liderzy korporacji wiedzieli o tym, a jednak praca nad SI była kontynuowana.

Czy nie jest hipokryzją, że Microsoft niedawno rozwiązał (w ramach zwolnienia 10 tys. osób) całego zespół etyki? Microsoft jednocześnie zapewnił, że nadal będzie troszczył się o bezpieczeństwo i odpowiedzialność swoich rozwiązań SI.

Z kolei jeszcze w 2021 r. Google zwolniło (oficjalna wersja wskazuje, że odeszła sama) Timnit Gebru. Była współprzewodniczącą zespołu zajmującego się etyką SI. – Mógłbym szczegółowo opisać własne doświadczenia, przebywając w pokojach, w których menedżerowie wyższego szczebla krzyczeli na moich kolegów i na mnie, kiedy wskazywaliśmy na bardzo bezpośrednie szkody, jakie ich produkty wyrządzają populacji – napisała w internetowym poście Gebru.

Stąd właśnie trudność w ocenie słów Pichaiego czy Muska.

– Zatrzymanie rozwoju SI, jakieś spowolnienie? Nie wierzę. Za duże pieniądze są inwestowane w ten wyścig zbrojeń. Jeżeli koncerny naprawdę chciałyby większej staranności w działaniu narzędzi, to rozbudowywałyby działy odpowiedzialne za kontrolę SI, a nie je rozwiązywały – komentuje Marcin Stypuła z Semcore.

Czytaj też:
ChatGPT zbanowany w pierwszym kraju UE. Powód jest prosty
Czytaj też:
Twórcy ChatGPT nie słuchają ostrzeżeń. AI już niebawem osiągnie przełomowy poziom

Źródło: WPROST.pl