ChatGPT to rewolucyjne narzędzie wykorzystujące sztuczną inteligencję, które szturmem podbiło internet. Za tym, co od kilku tygodni cieszy użytkowników sieci, może jednak stać cierpienie prawdziwych osób. Tygodnik "Time" przytacza świadectwa pracowników z Afryki, którzy mieli pracować dla OpenAI.
Reklama.
Reklama.
ChatGPT w ciągu tygodnia zyskał bazę wynoszącą ponad 1 mln użytkowników
Przy pracy nad GPT pracownicy z Kenii mieli dostawać maksymalnie 2 dol. za godzinę pracy (ok. 8,71 zł)
Poprzednia wersja chatbota okazała się podatna na tworzenie szkodliwych treści
Twórcy GPT wykorzystywali kenijskich pracowników
Stworzony przez spółkę ChatGPT pod względem technologicznym okazał się strzałek w dziesiątkę. Sztuczna inteligencja generująca teksty stała się niezwykle popularna i w ciągu pierwszego tygodnia działalności zyskała 1 mln użytkowników. Teraz zrobiło się o niej jeszcze głośniej, ale w bardzo negatywnym znaczeniu.
Jak podał tygodnik "Time", przedsiębiorstwo wykorzystywało pracowników z Kenii. Ci mieli zarabiać w ciągu godziny od 1,3 do maksymalnie 2 dol. za godzinę. Po przeliczeniu na złotówki będzie to od 5,66 do 8,71 zł.
Gdy powstawał rewolucyjny chatbot, dziś wyceniany na miliardy dolarów, firma zlecała pracę m.in. do Afryki, gdzie pracownicy dostawali od 1,3 do 2 dolarów za godzinę. Zlecano im sprawdzanie treści pisanych przez AI pod względem wyszukiwania treści rasistowskich i obraźliwych.
Pracownicy z Kenii w rozmowie z "Time" podkreślali, że nie mogli znieść czytania mowy nienawiści czy opisów okrucieństw i dewiacji.
ChatGPT – co to takiego?
ChatGPT jest sensacją ostatnich miesięcy, w ciągu tygodnia zbudował bazę ponad 1 mln użytkowników. Jego twórca, czyli spółka OpenAI, prowadzi obecnie rozmowy z inwestorami w celu pozyskania funduszy o wartości 29 mld dol., w tym Microsoft, który chce zaangażować nawet 10 mld dol.
Firma została jednak zbudowana na wyzysku i pracy opłacanej zdecydowanie poniżej standardów. Jak napisał tygodnik "Time", OpenAI korzystało z outsourcingu kenijskich pracowników zarabiających mniej niż 2 dolary za godzinę.
Marna płaca za oglądanie tortur
Poprzednia wersja ChatGPT potrafiła łączyć zdania, ale jednocześnie była również podatna na tworzenie brutalnych, seksistowskich i rasistowskich treści. Sztuczna inteligencja uczy się tworzyć zdania w oparciu o czytanie jak największej liczby treści z internetu, w których siłą rzeczy pełno jest najróżniejszych wulgaryzmów, obelg i gróźb.
Wcześniej Facebook pokazał, że możliwe jest zbudowanie sztucznej inteligencji, która może wykrywać mowę nienawiści, aby pomóc usunąć ją z platform społecznościowych. OpenAI również chciało stworzyć taki detektor, wysłało dziesiątki tysięcy fragmentów tekstu do firmy outsourcingowej w Kenii, aby ręcznie usuwać wątpliwe fragmenty.
"Time" podał, że niektóre z nich szczegółowo opisywały sytuacje, takie jak wykorzystywanie seksualne dzieci, morderstwo, samobójstwo, tortury, samookaleczenie i kazirodztwo. Niektórzy wprost mówili o traumie po czytaniu tak strasznych opisów całymi dniami, co zmusiło ich do zerwania umowy.
Osoby pracujące przy projekcie dostawały według dokumentów od 1,3 do 2 dol. za godzinę. Pośrednicząca w outsourcingu do Kenii firma Sama z San Francisco dostawała jednak ok. 12,50 dol. za godzinę pracy jednego pracownika, którą zlecała za ułamek tej kwoty.
Twórcy ChatGPT przyznali się, że faktycznie korzystali z usług firmy dostarczającej jej podwykonawców z Kenii. Wskazali również, że praca Kenijczyków polegała na udoskonalaniu ich produktu.
– Naszą misją jest zapewnienie korzyści ze sztucznej inteligencji dla całej ludzkości i ciężko pracujemy, aby budować stabilne, bezpieczne i użyteczne systemy AI, w których ograniczone są szkodliwe treści oraz stronniczość – powiedział cytowany przez tygodnik przedstawiciel OpenAI.
– Klasyfikacja i filtrowanie szkodliwych treści to konieczny krok na rzecz minimalizacji treści przemocowych i seksualnych, zawartych w danych służących do szkolenia, a także w tworzeniu narzędzi, które mają takie szkodliwe materiały wykrywać – dodał.
Przedstawiciel OpenAI nie potwierdził jednak, że pracownicy z Kenii mieli weryfikować materiały dotyczące wykorzystywania seksualnego dzieci.
Posłuchała AI i wzięła rozwód
Jak pisaliśmy w INNPoland, 37-letnia mieszkanka południowej części Londynu – "Sarah" – od pewnego czasu nie czuła się szczęśliwa w swoim małżeństwie. Ciągłe kłótnie i niemożliwość dojścia do porozumienia z mężem sprawiły, że Brytyjka zaczęła szukać szczęścia u boku kogoś innego. Jej romans z poznanym w internecie mężczyzną trwał od pół roku.
Relacja układała się na tyle pomyślnie, że "Sarah" zaczęła zastanawiać się, czy nie zostawić małżonka. Kobieta - swoją drogą pracowniczka branży technologicznej - postanowiła poradzić się w tej kwestii ChatGPT. Jak ujawnia Mirror.co.uk, Brytyjka poprosiła algorytmy o napisanie bajki o kimś w jej sytuacji - i dopisanie najlepszego zakończenia do tej historii.
Użytkowniczka ChatGPT przyznała, że była pozytywnie zaskoczona faktem, że system bardzo wczuł się w jej sytuację i wziął pod uwagę jej dobro. Bajka stworzona przez ChatGPT kończyła się następująco: bohaterka postawiła na pierwszym miejscu swoje szczęście i opuściła męża.
W INNPoland od września 2022 r. Przedtem pisała artykuły dla magazynów studenckich oraz wykonywała w nich redakcję i korektę. W czasie wolnym czyta o PRL-u oraz psychologii, gra w planszówki i głaszcze koty.