„Myśleliśmy o AI na opak”. Tak współtwórca ChatGPT widzi przyszłość

„Myśleliśmy o AI na opak”. Tak współtwórca ChatGPT widzi przyszłość

Przedstawiciele Open AI: Sam Altman, Wojciech Zaremba i Szymon Sidor
Przedstawiciele Open AI: Sam Altman, Wojciech Zaremba i Szymon Sidor Źródło: YouTube / IDES NCBR
AI może być cudownym narzędziem przyszłości, lub być groźne jak broń atomowa. Współtwórca ChatGPT Sam Altman w ostatnim wystąpieniu ostrożnie waży ogromne zyski i znaczne zagorzenia, jakie niesie „najpotężniejsza technologia ludzkości”.

Szef firmy OpenAI i współtwórca ChatGPT Sam Altman wraz z dwoma polskimi specjalistami firmy – Wojciechem Zarembą i Szymonem Sidorem – byli we wtorek honorowymi gośćmi Uniwersytetu Warszawskiego i centrum IDEAS NCBR. W szeroko zakrojonej dyskusji eksperci podzielili się swoją wizją przyszłości AI i tym, jaką rolę może w niej pełnić ChatGPT

Jaka przyszłość czeka AI takie jak ChatGPT?

Dziennikarka Sylwia Czubkowska zadała specjalistom szereg pytań związanych z licznymi możliwościami i zagrożeniami wynikającymi ze sztucznej inteligencji. Jedno z pierwszych dotyczyło przewidywań związanych z rozwojem AI w przyszłości.

– Niegdyś ludzie myśleli, że rewolucja AI zacznie się od robotów. Tak przewidywali to twórcy sci-fi tacy jak Isaac Asimov. Okazało się, że prawdziwy postęp w dziedzinie sztucznej inteligencji jest dość odmienny i zaczął się od sfery cyfrowej. To tam najłatwiej można dotrzeć do dużej liczby użytkowników i skorzystać z ogromnej ilości danych – zaznaczył Wojciechem Zaremba, współzałożyciel OpenAI.

Ekspert wymienił wiele dziedzin, które mogą znacznie skorzystać na coraz bardziej rozbudowanych narzędziach AI. Chodzi tu m.in. o strefy edukacji, ochrony zdrowia, prawa, a nawet komunikacji międzyludzkiej. – Możliwości przełożenia tekstu na mowę czy mowy na tekst już niedługo staną się zaś wprost fantastyczne – ocenił.

– Myśleliśmy o AI na opak. Sądziliśmy, że AI wpierw będzie wykonywać pracę fizyczną. Z czasem przejdzie na pracę umysłową, może potem przejmie trudne zadania takie jak programowanie. Być może nigdy nie będzie w stanie wykonywać zadań kreatywnych. Stało się dokładnie odwrotnie – podkreśla Sam Altman, CEO Open AI.

Altman jest też zdania, że dziś bardzo ciężko jest jakkolwiek przewidzieć, w którą konkretnie stronę potoczy się rozwój związany ze sztuczną inteligencją. – Wierzymy, że gdy damy ludziom lepsze narzędzia, to ich kreatywność pozwoli na stworzenie rzeczy, których nie możemy sobie dziś nawet wyobrazić. OpenAI tworzy narzędzia, a to od was zależy, jak je wykorzystacie – zaznaczył.

Zagrożenia AI – musimy się obawiać systemów za 10 lat

Prawodawcy, zwykli użytkownicy, a nawet Elon Musk często zwracają uwagę na mnożące się wątpliwości związane z dynamicznym rozwojem sztucznej inteligencji. Jak więc korzystać z dobrodziejstw AI i nie doprowadzić jednocześnie do katastrofy?

– Założyliśmy OpenAI właśnie z powodu obaw o rozwój AI. Jak z każdą potężną technologią, AI ma ogromne możliwości, ale musimy zarządzać potencjalnym ryzykiem. Tak było między innymi z elektrowniami atomowymi czy biologią syntetyczną. AI będzie jedną z najpotężniejszych technologii ludzkości i musimy globalnie obmyślić jak się zabezpieczyć – mówił Altman.

Sylwia Czubkowska zapytała się szefa firmy, czy ten nadal uważa, że w przypadku sztucznej inteligencji powinna powstać organizacja reagująca na incydenty AI, podobna do organu reagującego obecnie na wypadki atomowe.

– Powinniśmy traktować AI tak samo [jak energię atomową]. Może sztuczna inteligencja nie będzie tak wielkim zagrożeniem, może nie będzie często wykorzystywana w nieprawidłowy sposób. Jednak póki nie dowiemy się więcej, powinniśmy traktować AI w ten sam sposób – podkreślił.

Jak dodał Wojciech Zaremba, nie chodzi tu o systemy AI dostępne tu i teraz. – Nasze obawy dotyczą AI z przyszłości. Chodzi o trajektorię i dalszy rozwój sztucznej inteligencji, która za dekadę może stać się tak samo potężna jak dzisiejsze globalne korporacje – podkreślił.

Nowe przepisy AI – czy systemy łamią prawo autorskie?

Wiele mówi się obecnie o braku ograniczeń związanych z AI, co wywołuje w społeczeństwie niemały niepokój. Unia Europejska pracuje obecnie nad AI Act, choć jest to dopiero początek właściwego ograniczenia sztucznej inteligencji prawem. Co na to Altman?

– Przy publicznym starcie ChatGPT kluczowe było dla nas wypuszczenie narzędzia AI, które nie jest jeszcze zbyt potężne. Dzięki temu społeczeństwo może się z nimi oswoić, poznać zalety i wady sztucznej inteligencji. Dzięki temu AI mogą również ocenić prawodawcy – tłumaczy.

Szef OpenAI przypomina, że opracowywany obecnie AI Act wyglądał zupełnie inaczej przed wejściem ChatGPT na rynek. Jak przekonuje, świat nie do końca rozumiał jeszcze wtedy, na czym polegają systemy generatywnego AI. – Robiliśmy bardzo wiele testów na ChatGPT jeszcze zanim pokazaliśmy czatbota światu. Jednak rozwój tego narzędzia musi się odbywać się małymi krokami, w dialogu ze społeczeństwem.

Jednocześnie coraz większa liczba artystów czy pisarzy protestuje przeciw sztucznej inteligencji, która za darmo przejmuje ich dzieła. Jak twórcy ChatGPT zamierzają podchodzić od prawa autorskiego?

– Ze względów moralnych chcemy zapewnić użytkownikom możliwość wyłączenia ich dzieł z naszych modeli AI. Jeśli nie chcesz – możesz się wypisać. Z drugiej strony jeśli twoja zawartość pomaga ulepszać nasz duży model językowy (LMM), to powinieneś czerpać z tego pewnego rodzaju zyski – podkreśla Altman.

CEO OpenAI potwierdził, że firma prowadzi rozmowy z wieloma artystami, dziennikarzami i innymi twórcami. Ich celem ma być znalezienie kompromisu, który mógłby być wprowadzony globalnie i w wielu branżach.

Czytaj też:
Współtwórca ChatGPT zachwycony Polakami. „Nie wiem, jak to robicie”
Czytaj też:
ChatGPT zainwestował w akcje. Radzi sobie lepiej niż maklerzy