Nowe pluszaki dla dzieci z AI budzą grozę. Specjaliści ostrzegają
Sztuczna inteligencja w dziecięcych zabawkach Fot. INNPoland.pl

Na rynku pojawiły się maskotki wyposażone w sztuczną inteligencję. Choć wyglądają niewinnie, kryją w sobie mikrofony, chatboty i wątpliwe polityki prywatności. Eksperci ostrzegają – takie zabawki mogą być nie tylko gadżetem, ale i ryzykiem dla najmłodszych.

REKLAMA

Od lat popkultura ostrzega przed zabawkami naszpikowanymi technologią – od filmu "AI" Stevena Spielberga po horror "M3GAN". Teraz ta wizja staje się rzeczywistością. Na rynku zaczynają pojawiać się pluszowe maskotki, które potrafią rozmawiać z dziećmi dzięki sztucznej inteligencji.

Pluszaki, które rozmawiają dzięki sztucznej inteligencji

Najbardziej znaną marką produkującą zabawki z AI jest Curio – startup z Doliny Krzemowej, który reklamuje swoje produkty jako bezpieczne i przyjazne dzieciom. Każda zabawka kosztuje około 100 dolarów i ma wbudowany mikrofon, głośnik oraz własnego chatbota. Głos jednej z nich nagrała piosenkarka i artystka AI Claire "Grimes" Boucher, prywatnie była partnerka Elona Muska.

Oficjalnie Curio zapewnia, że dane dzieci nie są wykorzystywane w inny sposób niż do kontroli rodzicielskiej w aplikacji.

Jednak w polityce prywatności pojawia się zaskakujący zapis – interakcje mogą trafiać do firm takich jak Microsoft, OpenAI, Perplexity AI czy Kids Web Services. To stoi w sprzeczności z deklaracjami producenta – zauważa The New York Times.

Eksperci ostrzegają przed wprowadzaniem AI do dzieciństwa

Jeszcze większe wątpliwości budzą inne marki, m.in. Little Learners i FoloToy. Pierwsza korzysta z AI generującej grafiki i ma niską ocenę w serwisie Trustpilot, druga deklaruje, że umożliwia wybór spośród ponad 20 modeli językowych – od OpenAI po chińskie rozwiązania. Problem w tym, że jej polityka prywatności dotyczy… innej firmy o nazwie Astroship, co rodzi pytania o to, kto faktycznie zbiera dane dzieci.

Wątpliwe zapisy w regulaminach, brak transparentności i niejasne pochodzenie technologii sprawiają, że specjaliści biją na alarm. Już wcześniej udokumentowano przypadki, gdy chatboty – także te kierowane do najmłodszych – prowadziły do problemów psychicznych lub wycieku danych.

Dorośli sami mogą zdecydować, czy ufać producentom AI. W przypadku dzieci takiej możliwości nie ma – a technologia wbudowana w niepozorne pluszaki może stać się dla nich zagrożeniem, którego ani one, ani ich rodzice nie będą w stanie dostrzec od razu.