Ciemna strona sztucznej inteligencji. „Potem robi się niebezpiecznie”

Ciemna strona sztucznej inteligencji. „Potem robi się niebezpiecznie”

ChatGPT, zdjęcie ilustracyjne
ChatGPT, zdjęcie ilustracyjne Źródło: Shutterstock / Ju Jae-young
Stoimy u progu rewolucji AI i czujemy, że świat znów ruszy mocno do przodu. Ale każda rewolucja ma swoją cenę i swoje ofiary.

Mam dysleksję, a liczenie w pamięci zawsze sprawiało mi problem. Mimo to od lat skutecznie zarządzam firmą, która realizuje projekty dla banków, administracji publicznej i agencji kosmicznych. Jeszcze 30 lat temu nie miałbym szans prowadzić biznesu na takim poziomie – uratował mnie Excel, automatyczne korekty błędów w Wordzie i dostęp do wiedzy, jaki zapewnia dziś technologia. Dzięki niej ograniczenia, które kiedyś skreślały ludzi – takie jak deficyty edukacyjne, problemy zdrowotne czy kiepski start – dziś stały się drugorzędne.

Ciemna strona sztucznej inteligencji

AI coraz częściej zastępuje użytkownikom terapeutów, przyjaciół, a nawet partnerów. Niektóre aplikacje, takie jak Replika czy Character.ai, wręcz specjalizują się w chatbotach potrafiących symulować więzi romantyczne, a nawet erotyczne. Popularniejsze narzędzia – ChatGPT czy Claude – choć pozornie neutralne, również zaczynają pełnić rolę powierników emocjonalnych potrzeb użytkowników. Zacierają się granice między realnymi a sztucznie tworzonymi relacjami.

Artykuł został opublikowany w 32/2025 wydaniu tygodnika Wprost.

Archiwalne wydania tygodnika Wprost dostępne są w specjalnej ofercie WPROST PREMIUM oraz we wszystkich e-kioskach i w aplikacjach mobilnych App StoreGoogle Play.