
Na rynku pojawiły się maskotki wyposażone w sztuczną inteligencję. Choć wyglądają niewinnie, kryją w sobie mikrofony, chatboty i wątpliwe polityki prywatności. Eksperci ostrzegają – takie zabawki mogą być nie tylko gadżetem, ale i ryzykiem dla najmłodszych.
Od lat popkultura ostrzega przed zabawkami naszpikowanymi technologią – od filmu "AI" Stevena Spielberga po horror "M3GAN". Teraz ta wizja staje się rzeczywistością. Na rynku zaczynają pojawiać się pluszowe maskotki, które potrafią rozmawiać z dziećmi dzięki sztucznej inteligencji.
Pluszaki, które rozmawiają dzięki sztucznej inteligencji
Najbardziej znaną marką produkującą zabawki z AI jest Curio – startup z Doliny Krzemowej, który reklamuje swoje produkty jako bezpieczne i przyjazne dzieciom. Każda zabawka kosztuje około 100 dolarów i ma wbudowany mikrofon, głośnik oraz własnego chatbota. Głos jednej z nich nagrała piosenkarka i artystka AI Claire "Grimes" Boucher, prywatnie była partnerka Elona Muska.
Oficjalnie Curio zapewnia, że dane dzieci nie są wykorzystywane w inny sposób niż do kontroli rodzicielskiej w aplikacji.
Jednak w polityce prywatności pojawia się zaskakujący zapis – interakcje mogą trafiać do firm takich jak Microsoft, OpenAI, Perplexity AI czy Kids Web Services. To stoi w sprzeczności z deklaracjami producenta – zauważa The New York Times.
Eksperci ostrzegają przed wprowadzaniem AI do dzieciństwa
Jeszcze większe wątpliwości budzą inne marki, m.in. Little Learners i FoloToy. Pierwsza korzysta z AI generującej grafiki i ma niską ocenę w serwisie Trustpilot, druga deklaruje, że umożliwia wybór spośród ponad 20 modeli językowych – od OpenAI po chińskie rozwiązania. Problem w tym, że jej polityka prywatności dotyczy… innej firmy o nazwie Astroship, co rodzi pytania o to, kto faktycznie zbiera dane dzieci.
Wątpliwe zapisy w regulaminach, brak transparentności i niejasne pochodzenie technologii sprawiają, że specjaliści biją na alarm. Już wcześniej udokumentowano przypadki, gdy chatboty – także te kierowane do najmłodszych – prowadziły do problemów psychicznych lub wycieku danych.
Dorośli sami mogą zdecydować, czy ufać producentom AI. W przypadku dzieci takiej możliwości nie ma – a technologia wbudowana w niepozorne pluszaki może stać się dla nich zagrożeniem, którego ani one, ani ich rodzice nie będą w stanie dostrzec od razu.
Zobacz także
