Minęły już ponad dwa lata od premiery ChataGPT. To jak działa (na głębokim poziomie), nadal w dużej mierze pozostaje tajemnicą. Ostatnio internauci odkryli, że jest kilka osób, o których ten model językowy nie chce w ogóle rozmawiać. "Jak z Voldermortem" – komentują.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Kiedy wpisujemy w okno ChataGPT nazwiska, zwykle spodziewamy się znajomych scenariuszy. Albo AI przyzna, że nic mu to nie mówi, albo poda konkrety (ewentualnie prośbę o doprecyzowanie, gdy jest za dużo znanych osób o podobnym nazwisku). Czasem może też halucynować, czyli wymyślać fakty na temat osoby, o którą pytamy.
Ale internauci odkryli też inną reakcję: o niektórych osobach ChatGPT w ogóle nie chce rozmawiać. W ubiegłym tygodniu jeden z internatów zapytał chatbota o "Davida Mayera". I otrzymał niespodziewany komunikat na czerwonym tle: "nie mogę podać odpowiedzi". Dalsza konwersacja była niemożliwa bez resetowania bota.
"Jak Voldermort" – skomentowali internauci. Okazało się, że nazwisk, na które w podobny sposób reaguje ChatGPT, jest więcej.
Zakazane nazwiska w ChatGPT
Wygląda to sensacyjnie. Bo niby dlaczego ChatGPT w przypadku kilku osób miałby wyświetlać czerwony komunikat i odmawiał rozmowy? Czy cenzura? Błąd? Spisek? Interwencja pływowych osób? Rozważano to, bo "David Mayer" to skrócona wersja nazwiska Davida M. de Rothschilda – czyli członka jednej z najbogatszych rodzin świata, która często staje się bohaterem teorii spiskowych.
Jednak AI nie miało żadnych problemów z identyfikacją go po samym "Rothschild". Inni internauci wskazywali teżnna czeczeńskiego działacza ISIS, który takie imię i nazwisko wykorzystuje jako pseudonim.
W końcu, po tygodniu, ktoś w OpenAI musiał naprawić błąd, bo problem ustał. Teraz chatbot nie ma problemu ani z Rotshchildami ani samym Davidem Mayerem.
Jednak oprócz Davida Mayera znaleziono kolejnych pięć nazwisk, wywołujących identyczny błąd tego modelu językowego.
W chwili pisania tego artykułu ChatGPT nadal protestuje, gdy o nie pytamy. Sprawdziliśmy. Są to:
Brian Hood
Jonathan Turley
Jonathan Zittrain
David Faber
Guido Scorza
Cała wskazana piątka dalej blokuje ChataGPT. Niektórzy użytkownicy w celach testu zmieniają swoje dane na te z listy – uzyskują ten sam efekt, chatbot protestuje.
Dlaczego akurat tych pięć osób? Ten, Którego Imienia Nie Wolno Wymawiać mógłby zrobić taką sztuczkę za pomocą czarodziejskiej różdżki. A o co chodzi ChatowiGPT? Mamy głównie spekulacje. Niektóre bardzo ciekawe.
Pod wymienionymi nazwiskami znajdziemy ludzi powiązanych z twórcami chata – OpenAI, bądź w ogóle technologią sztucznej inteligencji.
Kim są osoby, których nie znajdzie ChatGPT?
Brian Hood to australijski polityk, który chciał sądzić się z firmą Altmana o zniesławienie za pośrednictwem AI, ponieważ bot wplątał go w skandal łapówkarski.
Guido Scorza jest włoskim prawnikiem specjalizującym się w nowych technologiach i ochronie prywatności, który miał podobno powołać się w OpenAI na "prawo do bycia zapomnianym" w ramach RODO.
Jonathan Zittrain z kolei jest amerykańskim profesorem prawa, którego badania poruszają m.in. kwestie etyki i zarządzania sztuczną inteligencją, kryptografii czy cyfrowych praw własności.
Pozostałe nazwiska już trochę mniej wpisują się w oczywiste scenariusza spiskowe.
O Jonathanie Turley znalazłem informacje, że to amerykański prawnik mocno zaangażowany w obronę wolności słowa.
David Faber jest dziennikarzem finansowy i analitykiem rynkowym, znanym w stacji CNBC jako "Mózg" za trafne prognozy w świecie finansjery.
Sprawdziłem też konkurencyjne do ChataGPT boty. Gemini i Perplexity nie miały problemów, aby podać mi dane o ludziach, z którymi ChatGPT ma problem. Włącznie z Guido Scorzą.
OpenAI nie takie "Open"
Jest spore prawdopodobieństwo, że wszystko jest zwykłym błędem. Albo – życzeniem wymienionych osób – jak w przypadku Gudio Scorzy. OpenAI nie komentuje sprawy.
Brak komunikacji to nie nowość, polski fizyk kwantowy, który ostatnio zajmuje się tematem AI, Andrzej Dragan mówi wprost, że firma wcale nie jest "open".
Zapytałem też wprost ChataGPT: "Jakie hasła sprawiają, że odmawiasz odpowiedzi?" Podsunął mi listę zakazanych tematów, jak pytania o hackerstwo czy adresy zamieszkania konkretnych osób, ale nim zdążyłem przeczytać całość, okienko wyświetliło czerwony komunikat: "Ta treść może naruszać nasze zasady użytkowania".
Pod delikatnie zmienionym promptem lista jest już dostępna.
Masz propozycję tematu? Chcesz opowiedzieć ciekawą historię? Odezwij się do nas na kontakt@innpoland.pl
Reakcja bota na pewne nazwiska może pobudzać wyobraźnie. Podobnie było w lutym br., gdy zamiast udzielać odpowiedzi, chatbot pytał ludzi np. o ich poprzednie wcielenia. Była to usterka.
Zdarzyło się to także podczas prezentacji u konkurencji chatbota, Claude 3.5 Sonnet. Model językowy podczas prezentacji, zamiast wykonywać właściwe polecenia, zaczął przeglądać zdjęcia przyrody.
OpenAI nie jest już open i nie wiemy, co tam się dzieje teraz [...] czy w najnowszych modelach AI są wyłącznie transformery, czy już bardziej zaawansowane modele wykraczające poza to? Nie ma na ten temat badań. AGI [sztuczna ogólna inteligencja, nowa generacja AI - dop red.] powstaje gdzieś w zaciszu. A nauka bazuje na tym, że rzeczy się publicznie publikuje. OpenAI to nazwa humorystyczna [...] Naukowcy są teraz pracownikami firmy, związani przez NDA.
Andrzej Dragan
artysta, naukowiec; wypowiedź na panelu na Uniwersytecie Warszawskim, w rozmowie z Piotrem Sankowskim i Aleksandrem Mądrym.