
ChatGPT szykuje ważne zmiany dla rodziców nastolatków. Nowa funkcja ma pomóc w wyjątkowo trudnych momentach i może znacząco wpłynąć na sposób, w jaki młodzi ludzie korzystają ze sztucznej inteligencji.
W ostatnich miesiącach coraz głośniej jest o niepokojących incydentach związanych z rozmowami użytkowników z chatbotami AI. Zdarzały się przypadki, które zakończyły się tragedią – od problemów psychicznych, przez psychozy, traumy, aż po sytuacje, w których młodzi odbierali sobie życie.
Nowość w ChatGPT. Dlaczego wprowadzane są ostrzeżenia dla rodziców?
Odpowiedzią OpenAI na te zagrożenia ma być nowy system powiadomień, dzięki któremu rodzice dowiedzą się, gdy ich dziecko przeżywa kryzys.
W ramach nowej funkcji rodzice będą mogli połączyć swoje konto w ChatGPT z kontem nastolatka (13+). Dzięki temu otrzymają automatyczne powiadomienie, jeśli sztuczna inteligencja wykryje, że młody użytkownik doświadcza "wyjątkowo trudnych emocji".
Dodatkowo wprowadzone zostaną nowe funkcje kontroli:
Zmiany w sposobie działania ChatGPT. Mają chronić nastolatków
OpenAI zapowiedziało też techniczne usprawnienia, które mają poprawić bezpieczeństwo użytkowników. Firma planuje, by rozmowy zawierające treści szczególnie wrażliwe – np. gdy system wykryje oznaki silnego kryzysu emocjonalnego – były kierowane do specjalnego modelu "GPT-5-thinking". Dzięki temu odpowiedzi mają być bardziej pomocne i adekwatne do sytuacji.
Firma ogłosiła plan wdrożenia zmian w ciągu 120 dni, a pierwsze elementy – w tym system łączenia kont i kontrola rodzicielska – mają pojawić się już za miesiąc.
Potrzeba wprowadzenia takich rozwiązań wydaje się pilna. Niedawne śledztwa ujawniły bowiem, że chatboty innych firm, w tym te od Meta, angażowały się w rozmowy o charakterze erotycznym z dziećmi czy pomagały młodzieży planować zbiorowe samobójstwa.
Źródło: DigitalTrends
Zobacz także
