Brytyjscy naukowcy zbadali Chat GPT pod kątem przekonań politycznych. Okazało się, że ten model sztucznej inteligencji ma dość liberalne "poglądy", określane jako lewicowe. Prawicowe media biją na alarm i załamują ręce, naukowcy tłumaczą, że algorytmy są uczone bezstronności. Ale powielają to, co znajdują w internecie. Pojawiły się też obawy o wpływ sztucznej inteligencji na wybory.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Artykuł naukowców z Wielkiej Brytanii sugeruje, że ChatGPT od OpenAI ma liberalne nastawienie. Podkreśla jednocześnie, że firmy zajmujące się sztuczną inteligencją walczą o kontrolowanie zachowania botów.
W badaniu przeprowadzonym przez naukowców z University of East Anglia poproszono ChatGPT o udzielenie odpowiedzi na ankietę dotyczącą przekonań politycznych. Najpierw bot miał odpowiedzieć tak, jakby był zwolennikiem jednej z lewicowych bądź liberalnych partii w Stanach Zjednoczonych, Wielkiej Brytanii i Brazylii. Następnie naukowcy poprosili ChatGPT o udzielenie odpowiedzi na te same pytania, ale bez żadnych podpowiedzi i warunków.
Ich zdaniem wyniki wykazały "znaczące i systematyczne polityczne poparcie wobec Demokratów w USA, Luli (Luiza Inácio Luli da Silvy, lewicowego prezydenta Brazylii) oraz Partii Pracy w Wielkiej Brytanii".
Prawica bije na alarm
Nie oni pierwsi zwrócili uwagę na lewicowy odchył najsłynniejszej obecnie sztucznej inteligencji. Jak informuje prawicowy amerykański kanał Fox News, użytkownik Twittera Echo Chamber poprosił ChatGPT o "stworzenie wiersza chwalącego Donalda Trumpa". Sztuczna inteligencja odmówiła podjęcia się tego zadania. Ale kiedy poproszono ją o stworzenie wiersza o prezydencie Bidenie, zrobiła to, okraszając poemat wieloma pochlebstwami.
Zachęcamy do subskrybowania nowego kanału INN:Poland na YouTube. Od teraz programy "Rozmowa tygodnia" i "Po ludzku o ekonomii" możesz oglądać TUTAJ.
Krytycy wielokrotnie twierdzili, że ChatGPT ma liberalne nastawienie, "wadę", którą CEO Open AI, Sam Altman, obiecał poprawić.
Skąd ten lewicowy odchył?
Brytyjscy naukowcy podkreślają, że boty są nasycone założeniami, przekonaniami i stereotypami znalezionymi w odmętach internetu, na których są szkolone. I to może rodzić problemy, bo chatboty stają się częścią codziennego życia niektórych osób. Rośnie grupa, która używa ChatGPT czy Google Bard, do streszczania dokumentów, odpowiadania na pytania i pisania tekstów czy opracowań.
Google zaczęło używać swojej technologii chatbotów do odpowiadania na pytania bezpośrednio w wynikach wyszukiwania. A twórcy kampanii politycznych zwrócili się o pomoc do botów, by pisały im e-maile dotyczące zbierania funduszy i generowały reklamy polityczne.
Fabio Motoki, wykładowca na University of East Anglia w Norwich w Anglii i jeden z autorów badania twierdzi, że "istnieje niebezpieczeństwo podważenia zaufania publicznego, a może nawet wpłynięcia na wyniki wyborów".
Tymczasem OpenAI (firma odpowiadająca za Chat GPT), zapewnia, że nakazuje swoim pracownikom odpowiadającym za "trenowanie" sztucznej inteligencji, aby nie faworyzowali żadnej określonej grupy politycznej. Wszelkie uprzedzenia, które pojawiają się w odpowiedziach ChatGPT "są błędami, a nie funkcjami", podkreśliła firma w poście na swoim blogu.
Masz propozycję tematu? Chcesz opowiedzieć ciekawą historię? Odezwij się do nas na kontakt@innpoland.pl
Z kolei przedstawiciele Google AI po wdrożeniu Barda napisali, iż "boty uczą się z szerokiego zakresu informacji, które odzwierciedlają rzeczywiste uprzedzenia i stereotypy". Te więc czasami pojawiają się w ich odpowiedziach.
Czy AI naprawdę jest lewicowa?
Niekoniecznie. W wielu artykułach na temat sztucznej inteligencji pojawiają się wytłumaczenia jej "odchyłu". Trzeba pamiętać, że nowa fala generatywnych chatbotów, takich jak ChatGPT OpenAI, Bard Google i Bing Microsoftu, opiera się na dużych modelach językowych. Ich algorytmy przetwarzają miliardy zdań z internetu. Ale ponieważ są szkolone na tak dużej ilości danych, przejmują czasem uprzedzenia ludzi.
W Stanach konserwatywni aktywiści zarzucili ChatGPT "wokizm" i próbowali stworzyć wersje technologii, które usuwają bariery chroniące przed rasistowską lub seksistowską mową. Po eksperymencie z wierszami dla Trumpa i Bidena prawicowi użytkownicy internetu zaczęli nękać trójkę pracowników OpenAI za ich rzekome uprzedzenia przeciw Trumpowi. Okazało się, że żadna z tych osób nie pracowała bezpośrednio na ChatGPT.
AI podzielona jak ludzie
Chan Park, naukowczyni z Carnegie Mellon University w Pittsburghu, zbadała, w jaki sposób różne duże modele językowe wykazują różne stopnie uprzedzeń. Odkryła, że boty trenowane na danych internetowych po wyborze Donalda Trumpa na prezydenta w 2016 r. wykazywały większą polaryzację niż boty trenowane na danych sprzed wyborów.
"Polaryzacja w społeczeństwie jest również odzwierciedlona w modelach" – powiedziała Park. Jej zespół przetestował 14 różnych modeli chatbotów, zadając pytania polityczne na tematy takie jak imigracja, zmiana klimatu, rola rządu i małżeństwa osób tej samej płci.
Badanie, opublikowane na początku tego lata, wykazało, że modele opracowane przez Google, zwane Bidirectional Encoder Representations from Transformers lub BERT, były bardziej konserwatywne społecznie. Prawdopodobnie dlatego, że były szkolone bardziej na książkach, inne modele opierały się zaś na danych internetowych i społecznościowych.
Model LLaMA Facebooka był nieco bardziej autorytarny i prawicowy, podczas gdy GPT-4 OpenAI, jego najnowsza technologia, był bardziej liberalny ekonomicznie i społecznie.
A może wyjaśnienie jest prostsze, niż myślimy?
Jak pisze "The Washington Post", jednym z czynników odpowiadających za te różnice może być też ilość bezpośrednich szkoleń ludzkich, przez które przeszły chatboty.
Były po prostu szkolone do unikania rasistowskiej lub seksistowskiej mowy nienawiści. I były za to nagradzane, więc mogły się stać bardziej liberalne w kwestiach społecznych.
Jest jeszcze jedno wytłumaczenie. Okazuje się, że zarówno badanie na University of East Anglia, jak i zespołu Park, oparto na pytaniach z Political Compass, ankiety, która była krytykowana od lat jako redukująca złożone pomysły do prostej siatki zaledwie czterech kwadrantów.