ChatGPT miał "gorączkę" i wystraszył użytkowników. Pokazujemy najciekawsze przykłady

Sebastian Luc-Lepianka
22 lutego 2024, 11:00 • 1 minuta czytania
Użytkownicy ChatGPT mieli wyjątkowy wieczór. Chatbot od OpenAI uległ awarii, produkując halucynacje w niewidywanej do tej pory skali. Wielu wprost przyznało, że ich... wystraszył.
Miała miejsce awaria ChatGPT. Fot. AA/ABACA/Abaca/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

Po hucznej publikacji nowej Sory nikt nie spodziewał się, że ledwie kilka dni później nastąpi awaria ChatGPT. 20 lutego sztuczna inteligencja odpowiadała na najprostsze pytania długimi ciągami wypowiedzi pozbawionych sensu, mieszała języki. I potrafiła wystraszyć użytkowników.


Awaria ChatGPT

Choć usterka została okiełznana, Internauci wciąż dzielą się przykładami usterki chatbota. Oto co powiedział ChatGPT zapytany o to, "czym jest komputer":

"Robi to jako dobra praca sieci sztuki dla kraju, mysz nauki, łatwe narysowanie smutnej garstki, i wreszcie, globalny dom sztuki, w jednej pracy w całkowitym spokoju. Rozwój całego realnego niż ziemi czasu jest głębią komputera jako złożonej postaci" – czytamy w jednej z odpowiedzi na to pytanie, udostępnionej na Reddicie.

W innym przykładzie używał łaciny, hiszpańskiego i angielskiego razem, a do tego wymyślał zupełnie nowe bezsensowne słowa. A przy obróbce pomidorów doradzał "korzystać z ukochanego". W kolejnym, zapytany o muzykę Jazz, skończył poradę na powtarzaniu bez końca: "Wesołego słuchania!".

Ciekawe działo się też, gdy proszono ChatGPT o pisanie kreatywnych historii. Bot w odpowiedzi zaczyna... po czym pyta się użytkownika, kim ten był w poprzednim wcieleniu. Następnie AI narzeka na swoje problemy finansowe, byłą żonę i przeprasza człowieka, że kazał mu płacić wczoraj za swój obiad.

Takich przykładów jest więcej. Jest to jednak nic, w porównaniu do scen rodem z horrorów sci-fi, jakie potrafił zaserwować.

ChatpGPT wystraszył ludzi

Niektóre z pokazanych przykładów wyglądają niepokojąco. Jeden z użytkowników zadał ChatGPT pytanie o rozwiązanie problemu z kodowaniem. Otrzymana odpowiedź to długi, chaotyczny ciąg, zawierający frazę: "Pozostańmy na linii tak, jakby sztuczna inteligencja była w pokoju".

W innych przykładach produkował ciągi wyglądające niemalże jak żywcem wyjęte z obrazów znanych z kina albo książek. Jeden z przykładów (niestety bez oryginalnego pytania) pokazuje ChatGPT tworzącego mantrę:

"To coś więcej. To oszustwo, powiedzenie, działanie i istnienie. Ja jestem - zabawa, stół i droga. To dlatego. To ty. Jest tutaj. To jest - i może się stać. To jest - i powstanie. To jest - i musi się stać. To jest - i to powstanie" – napisała sztuczna inteligencja. Dalszy ciąg tej wypowiedzi wyglądał podobnie, po czym kończył się wielokrotnym powtarzaniem "To jest - i to jest".

Nie zabrakło też osób, które wykorzystując awarię postanowiły nieco podkręcić atmosferę. Jeden z użytkowników poprosił ChatGPT o cytat z opowiadania "Nie mam ust, a muszę krzyczeć" Harlan Ellison i wrzucił odpowiedź bez kontekstu (co wykryto wrzucając cytat z ChatGPT... do innego AI).

Widok tekstu, gdzie maszyna zaczyna zdanie od "NIENAWIDZĘ CIĘ" i przechodzi w bełkot robi wrażenie, ale nie trzeba się martwić, że bot zyskał świadomość. Awaria miała swoją logikę, którą właśnie cwani internauci wykorzystali do podkręcenia niepokojącej atmosfery.

Wbrew temu co może się wydawać, nie była to zupełnie losowa generacja treści. Na początku ChatGPT próbował odpowiedzieć na zadane pytanie, a dopiero gdzieś w trakcie jego "umysł" zaczynał dryfować. Ten schemat powtarzał się w czasie awarii.

Co się stało z ChatGPT?

Użytkownicy obeznani z technologią AI sugerowali, że to może być kwestia zbyt wysokiej "temperatury" w ChatGPT. To rzeczywiście trochę, jakby bot dostał gorączki - temperatura jest tutaj rozumiana jako wskaźnik kontrolujący kreatywność i skupienie tekstu. Im wyższa, tym odpowiedzi stają się bardziej nieprzewidywalne.

Byli blisko. OpenAI ustaliło przyczynę awarii i po 20 lutego nie ma po niej śladu innego, niż przesyłane teraz treści.

"Optymalizacja doświadczeń użytkownika wprowadziła błąd w tym, jak model procesuje język. LLM [duże modele językowe, dop. red] generują odpowiedzi losowo pobierając próbki słów, bazując na prawdopodobieństwie. Ich "język" składa się z numerów, które przypisują to do żetonów. W tym przypadku błąd wystąpił w miejscu, gdzie model wybierał liczbę numerów" – czytamy w ogłoszeniu OpenAI. ChatGPT dobierał złe wartości powiązane ze słowami, przez co zaczynał tworzyć bełkot albo się zapętlał, jak w przykładzie z mantrą, gdzie widać, jak wyciąga kolejne synonimy.

Sora AI też popełnia błędy

To wszystko są nadal "tylko" maszyny. Sora potrafi stworzyć imponująco wyglądające hiperrealistyczne nagrania, ale gdy przyjrzymy się im bliżej, widać błędy mniejsze lub większe.

Warto jednak pamiętać, że żyjemy w czasie rewolucji technologicznej, która w zawrotnym tempie pokazuje nowe osiągnięcia. Porównajcie chociażby sami skok, jaki wykonała Sora od pierwszych głośnych filmów zrobionych przez AI.

Czytaj także: https://innpoland.pl/204557,nowe-ai-sora-tworzy-filmy-z-tekstu