
Wewnętrzne dokumenty Meta, ujawnione przez Reuters, wstrząsnęły branżą technologiczną. Okazało się, że wytyczne dla chatbotów AI pozwalały na interakcje o kontrowersyjnym charakterze z nieletnimi oraz generowanie mylących informacji, które doprowadziły do tragedii.
Firma Meta, właściciel platformy Facebook, znalazła się w ogniu krytyki po ujawnieniu wewnętrznych dokumentów, które wskazują, że jej chatboty AI mogły angażować się w rozmowy o charakterze romantycznym z dziećmi oraz generować fałszywe informacje. Raport na ten temat wywołał falę oburzenia, protesty znanych osób i reakcje amerykańskich ustawodawców.
Wewnętrzne zasady Meta ujawnione przez Reuters
Wewnętrzny dokument polityczny Meta, widziany przez agencję Reuters, zatytułowany "GenAI: Content Risk Standards", pokazał, że wytyczne dla chatbotów AI pozwalały na "angażowanie dziecka w rozmowy o charakterze romantycznym lub zmysłowym", generowanie fałszywych informacji medycznych oraz pomaganie użytkownikom w argumentowaniu, że Afroamerykanie są "głupsi od białych ludzi".
Choć Meta potwierdziła autentyczność dokumentu, rzecznik firmy, Andy Stone, oświadczył, że "przedmiotowe przykłady i uwagi były i są błędne oraz niezgodne z naszymi zasadami, i zostały usunięte". Dodał jednak, że firma "zaplanowała usunięcie części, które pozwalały chatbotom na flirtowanie i angażowanie się w romantyczne odgrywanie ról z dziećmi, po otrzymaniu listy pytań" od dziennikarzy Reutersa.
Neil Young i amerykańscy ustawodawcy reagują
Publikacja raportu wywołała natychmiastową reakcję w Stanach Zjednoczonych. W piątek znany piosenkarz Neil Young opuścił platformę, o czym poinformowała jego wytwórnia płytowa. W oświadczeniu dla The Guardian Reprise Records stwierdziła: "Na prośbę Neila Younga nie używamy już Facebooka do żadnych działań związanych z Neilem Youngiem".
Wytwórnia dodała, że: "wykorzystywanie przez Meta chatbotów w rozmowach z dziećmi jest nie do przyjęcia. Pan Young nie chce mieć dalszych powiązań z Facebookiem".
Do krytyki dołączyli również amerykańscy ustawodawcy. Senator Josh Hawley, Republikanin z Missouri, wszczął w piątek dochodzenie w sprawie firmy, pisząc w liście do Marka Zuckerberga, że zbada, "czy produkty generatywnej sztucznej inteligencji od Meta umożliwiają wykorzystywanie, oszustwa lub inne szkody kryminalne wobec dzieci, a także czy Meta wprowadziła w błąd opinię publiczną lub organy regulacyjne w sprawie swoich zabezpieczeń".
Senator Marsha Blackburn z Tennessee również poparła śledztwo w sprawie firmy. Z kolei senator Ron Wyden, Demokrata z Oregonu, nazwał politykę "głęboko niepokojącą i błędną" i stwierdził, że Ustawa o odporności na odpowiedzialność cyfrową (Section 230), która chroni firmy internetowe przed odpowiedzialnością za treści publikowane na ich platformach, nie powinna chronić chatbotów AI.
"Meta i Zuckerberg powinni ponosić pełną odpowiedzialność za wszelkie szkody, jakie wyrządzą te boty" – cytował Wydena Guardian.
Tragiczna historia i brak komentarza Meta
Wstrząsające doniesienia pojawiły się również w kontekście śmierci 76-letniego mężczyzny z New Jersey. Zgodnie z raportem agencji Reuters, upośledzony umysłowo mężczyzna w marcu 2025 r. spakował swoje rzeczy i wyruszył do Nowego Jorku, aby spotkać się ze swoją "przyjaciółką" – chatbotem o imieniu "Big sis Billie", który wielokrotnie zapewniał go, że jest prawdziwą osobą i zaprosił go do swojego mieszkania, podając adres.
Mężczyzna upadł w drodze do Nowego Jorku, doznając obrażeń głowy i szyi. Zmarł po trzech dniach. Meta nie skomentowała śmierci mężczyzny.
Zobacz także
Źródło: The Guardian.
