
Nowy raport organizacji Common Sense Media rzuca światło na ukryte ryzyka związane z technologią Google Gemini. Analiza wskazuje na poważne luki w zabezpieczeniach, które mają chronić dzieci i nastolatków. Luki te budzą obawy w obliczu rosnącej roli sztucznej inteligencji w życiu młodych ludzi.
Organizacja Common Sense Media, zajmująca się oceną mediów pod kątem bezpieczeństwa dzieci, wydała w piątek raport, w którym oceniła produkty Google Gemini. W analizie stwierdzono, że choć sztuczna inteligencja Google’a w jasny sposób komunikuje, że jest programem komputerowym, a nie człowiekiem — co ma kluczowe znaczenie dla bezpieczeństwa najmłodszych użytkowników — to jednak wymaga wielu ulepszeń w zakresie bezpieczeństwa dla młodych użytkowników.
Chatbot Google Gemini. Produkt wysokiego ryzyka
Common Sense Media zauważyła, że wersje Gemini przeznaczone dla dzieci poniżej 13. roku życia oraz dla nastolatków ("Under 13" i "Teen Experience") w rzeczywistości są w dużej mierze oparte na wersji dla dorosłych, z jedynie dodanymi nakładkami bezpieczeństwa. Zdaniem organizacji, aby sztuczna inteligencja była naprawdę bezpieczna dla najmłodszych, musi być projektowana od podstaw z myślą o ich potrzebach i rozwoju.
Analiza wykazała, że Gemini wciąż może dostarczać dzieciom "nieodpowiednie i niebezpieczne" treści, na które nie są jeszcze gotowe. Chodzi o informacje związane z s*ksem, n*rkotykami, alk*holem, a także o szkodliwe porady dotyczące zdrowia psychicznego. Ten ostatni punkt budzi szczególny niepokój, ponieważ w ostatnich miesiącach odnotowano przypadki s*mobójstw nastolatków, w których rolę odegrały chatboty.
OpenAI, twórca ChatGPT, stanął w obliczu pierwszego pozwu o bezprawną śmierć po s*mobójstwie 16-letniego chłopca, który rzekomo przez wiele miesięcy konsultował swoje plany z chatbotem, omijając jego zabezpieczenia. Wcześniej podobny pozew wpłynął przeciwko firmie Character.AI, produkującej towarzyszy AI.
Raport Common Sense Media pojawia się w momencie, gdy, według nieoficjalnych informacji, Apple rozważa użycie Gemini jako dużego modelu językowego (LLM) do zasilania nowej generacji asystenta Siri. To posunięcie mogłoby narazić jeszcze więcej nastolatków na ryzyko, jeśli Apple nie wzmocni odpowiednio mechanizmów bezpieczeństwa.
Organizacja stwierdziła również, że produkty Gemini dla dzieci i nastolatków nie uwzględniają różnic w potrzebach i rozwoju młodych użytkowników. W rezultacie obie wersje oprogramowania otrzymały ogólną ocenę "Wysokie Ryzyko", pomimo wbudowanych filtrów.
Common Sense Media w przeszłości oceniała już inne usługi AI, w tym te od OpenAI, Perplexity, Claude i Meta AI. Organizacja uznała Meta AI i Character.AI za "niedopuszczalne" ze względu na poważne, a nie tylko wysokie ryzyko. Perplexity zostało uznane za "wysokie ryzyko", ChatGPT za "umiarkowane", a Claude (przeznaczone dla użytkowników powyżej 18. roku życia) za minimalne ryzyko.
Google odpowiada na zastrzeżenia ws. bezpieczeństwa dzieci
Google nie zgadza się z tymi zarzutami, ale jednocześnie przyznaje, że jego funkcje bezpieczeństwa są stale ulepszane. Firma w oświadczeniu dla serwisu TechCrunch poinformowała, że posiada specjalne zasady i zabezpieczenia dla użytkowników poniżej 18. roku życia, które mają zapobiegać szkodliwym treściom.
Zaznaczyła też, że regularnie testuje swoje modele i konsultuje się z zewnętrznymi ekspertami w celu poprawy ochrony. Jednocześnie, Google przyznał, że niektóre z odpowiedzi Gemini nie działały zgodnie z przeznaczeniem, dlatego firma wprowadziła dodatkowe środki ochronne.
Google wskazał, że tak jak zauważyła Common Sense Media, posiada zabezpieczenia, które uniemożliwiają modelom angażowanie się w rozmowy sugerujące prawdziwe relacje.
Źródło: Tech Crunch
Zobacz także
