AI zmierza do zabawek dla dzieci. Rodzice już mogą się martwić

AI zmierza do zabawek dla dzieci. Rodzice już mogą się martwić

Pluszowy miś, zdjęcie ilustracyjne
Pluszowy miś, zdjęcie ilustracyjne Źródło:Unsplash
Jeszcze w tym roku na rynek najpewniej trafią zabawki z systemami AI, wspomagane m.in. przez czatbota ChatGPT. Nowości mogą być bardzo atrakcyjne dla dzieci, ale rodzice powinni uważać, co kupują swoim pociechom.

Interaktywne zabawki nie są niczym nowym, ale takie łączące się z ChatGPT wydają się najświeższą innowacją w branży dziecięcej. Choć nowe produkty mogą w zjawiskowy sposób dopasować się do najmłodszych, to czy potencjalne ryzyko jest tego warte?

Zabawki AI – misie ChatGPT zaleją rynek?

Szef zajmującej się zabawkami edukacyjnymi firmy VTech Allan Wong przekonuje, że w najbliższej przyszłości na rynku pojawią się pierwsze zabawki faktycznie reagujące na upodobania dziecka.

Jego firma z Hongkongu już pracuje nad pierwszymi produktami, w tym pluszowymi misiami z ChatGPT. Te mogą trafić na rynek jeszcze przed Bożym Narodzeniem. Naszpikowane elektroniką przytulanki mają dostosowywać się do sytuacji i życzeń dziecka.

Wymienia się tu m.in. opowiadanie spersonalizowanych historyjek, bo zabawka może m.in. zapamiętać ważne dla dziecka miejsca czy imiona najbliższych oraz przyjaciół. Inne potencjalne funkcje zabawek AI to uspokajanie dzieci w przypadku napadów złości, a nawet nauka i ćwiczenie z najmłodszymi podstawowych umiejętności.

Zabawki AI zagrażają prywatności?

Wong już teraz jest świadomy, że rodzice mogą różnie zareagować na nowoczesne zabawki. Kluczowych będzie tu parę kwestii, z prywatnością i bezpieczeństwem danych na czele.

By reagować na komendy głosowe, zabawka z definicji musi nagrywać swoje otoczenie. Wiele osób jest już do tego przyzwyczajonych i otacza się inteligentnymi głośnikami czy asystentami. Dla innych nadal jest to jednak twarda bariera.

Dostęp do danych najmłodszych i personalnych informacji jak wiek dziecka, miejsce zamieszkania czy innych danych umożliwiających identyfikację może zostać źle przyjęty przez państwowych regulatorów danych.

Konwersacyjne czatboty takie jak ChatGPT nadal są też dalekie od ideału i czasem gubią się we własnych filtrach treści. Nie każdy rodzic podejmie ryzyko, by zostawić dziecko z taką zabawką sam na sam. Kto wie, co może przypadkiem przekazać najmłodszym.

Czytaj też:
ChatGPT „piracił” artykuły w sieci. Twórcy czatbota wycofali funkcję
Czytaj też:
Chatbot z Chin pokonał ChatGPT. Oto w czym jest lepszy