Twórcy ChatGPT budują nowy zespół. Ma powstrzymać AI przed buntem maszyn
Czy sztuczna inteligencja może stać się zagrożeniem dla ludzkości? „Nie jest to wykluczone” – ocenił jakiś czas temu Geoffrey Hinton, pionier dziedziny nazywany nawet „ojcem chrzestnym AI”. Jego zdaniem sztuczna inteligencja uważająca się za lepszą od ludzi może doprowadzić nawet do końca naszej cywilizacji.
Podobnego zdania są specjaliści z OpenAI – firmy znanej z opracowania i ciągłego rozwoju czatbota ChatGPT. Przedsiębiorstw zamierza się jednak dokładnie przygotować.
OpenAI tworzy zespół, który ma walczyć z wrogim AI
CEO OpenAI Sam Altman parokrotnie przyznawał się już, że to nad czym pracuje „odrobinę go przeraża”. NA razie to jedynie przydatny internautom ChatGPT, ale potencjał ciągle rozwijającego się AI może dość szybko wkroczyć na niebezpieczną ścieżkę.
Właśnie dlatego przedsiębiorstwo postanowiło założyć specjalną komórkę do spraw prewencji. Zadaniem nowego zespołu Superalignment ma być nieustanne dbanie o to, by AI nie wywołała swoim działaniem chaosu… lub czegoś jeszcze gorszego.
„Superinteligencja będzie jedną z najbardziej wpływowych technologii, jaką kiedykolwiek opracowała ludzkość. Może nam ona pomóc rozwiązać wiele z najważniejszych problemów na świecie. Jednocześnie ogromna moc superinteligencji może być także niebezpieczna i doprowadzić do pozbawienia ludzkości mocy sprawczej, a nawet wyginięcia rasy ludzkiej” – wyjaśnia OpenAI w oficjalnym wpisie.
Przedsiębiorstwo jest zdania, że pierwsza superinteligencja – AI mądrzejsze od człowieka – może powstać nawet w 2030 roku. Obecnie nie ma zaś żadnych systemów, które mogłyby sterować i kontrolować tego typu system i zapobiec sytuacji, w której AI nabiera wrogich zamiarów.
Superinteligencji ma pilnować Superalignment
Nad tym właśnie ma pracować składający się z najlepszych specjalistów od AI i uczenia maszynowego zespół Superalignment. Mają oni stworzyć narzędzie do „wyrównywania” działania superinteligencji o tej samej nazwie.
Celem jest zbudowanie systemu sztucznej inteligencji, które stanie się „zautomatyzowanym badaczem sposobu zachowania AI, o inteligencji przeciętego człowieka”. Będzie ono wykonywać stałe testy działania superinteligencji w celu wczesnego wykrycia niepożądanych zachowań. Odpowiednio szybka reakcja i korekta zachowania ma spowodować, że AI nie zdąży obrócić się przeciwko ludzkości.
OpenAI samo określa ten cel jako niezwykle ambitny i „bez gwarancji sukcesu” całego przedsięwzięcia. Jednocześnie nowy zespół ma pozostawać dobrej myśli i skupia się na osiągnięciu pierwszych celów w tym zakresie.