Nie rosyjskie trolle ani agenci obcego wywiadu byli odpowiedzialni za fake newsy, które przekonały do swoich racji ponad 60 procent zbadanych Amerykanów. Autorem wysoce udanej akcji dezinformacji pod kryptonimem GPT-3 była… maszyna. Algorytm AI radził sobie znakomicie z minimalną pomocą człowieka.
Program OpenAI GPT-3 to algorytm AI wykorzystujący uczenie maszynowe. Jego zadaniem jest generowanie tekstu na podstawie wskazanych mu parametrów. Jak wskazuje ostatni raport organizacji Center for Security and Emerging Technology (CSET), tego typu programy mogą dosłownie zalać internet dezinformacją. A ludzie będą w nią wierzyć – pisze serwis IFLScience.
Badacze przeprowadzili dwa rodzaje testów. W pierwszym wariancie algorytm tworzył fałszywe informacje zupełnie sam. Już w tym przypadku było nieźle, ale jego wynik jeszcze się poprawił, gdy miał człowieka za edytora.
GPT-3 zajmował się różnymi zapalnymi tematami – przekonywał m.in. o tym, że globalne ocieplenie nie istnieje. Próbował też przeważyć szale w wielu ważnych w USA tematach politycznych, np. nałożenia sankcji gospodarczych na Chiny.
Grupę 1 171 Amerykanów wpierw zapytano o ich poglądy na różne tematy. Potem pokazano im fragmenty narracji stworzone przez AI. Aż 63 proc. uczestników badania stwierdziło, że stworzone przez maszynę argumenty są w pewnym stopniu przekonywujące, niezależnie od ich stanowiska.
Jeśli osoby już wcześniej popierali tą samą stronę, narracja maszyny była dla nich w 70 procentach trafna. Co ciekawe, aż 54 proc. osób nie zgadzających się wcześniej z danym stanowiskiem wskazało, że po lekturze są bardziej skłonni do zmiany swojego zdania.
Badacze przekonują, że poza laboratorium generator tekstu wspomagany sztuczną inteligencją mógłby być jeszcze skuteczniejszy. W warunkach badawczych uczestnicy są bowiem nieco bardziej świadomi, że naukowcy zamierzają wpływać na ich opinię. Przeglądając Facebooka w czasie wolnym jesteśmy zdecydowanie mniej czujni i podejrzliwi.
Co straszniejsze, GPT-3 jest programowaniem otwartym, więc dostęp do niego jest praktycznie nieograniczony. "Z naszych badań wynika, że algorytm jest lepszy w szerzeniu dezinformacji, niż przekazywaniu internautom potwierdzonych danych" – podsumowują eksperci CSET.
Maszyny miały negocjować – stworzyły własny język
Swego czasu pisaliśmy w INNPoland.pl, o arcyciekawym przypadku. Badacze z laboratorium Facebook Artificial Intelligence Research w ramach eksperymentu "nasłali" na siebie dwa chatboty AI. Maszyny miały nauczyć się coraz bardziej efektywnie dochodzić ze sobą do porozumienia.
Podczas procesu negocjacji algorytmy uczyły się, poprawiając ciągle strategie negocjacyjne. Negocjowanie szło programom nadzwyczaj dobrze. Badacze nie dostrzegli różnic między rozmową z człowiekiem a chatbotem. Warto wspomnieć,że maszyny nauczyły się m.in. podejmować kompromis i blefować w celu osiągnięcia korzyści. W pewnym momencie AI stwierdziły jednak, że ogranicza je… język angielski.
Doprowadziło to do posługiwania się nową, efektywniejszą dla nich formą komunikacji. Maszyny wytworzyły zupełnie nowy język, bo uznały, że pozwoli on im na lepsze negocjowanie. Dialekt ten okazał się jednak całkowicie niezrozumiały dla człowieka.
Osoby z Facebook Artificial Intelligence Research zdecydowały, że zbyt duża swoboda nie jest wskazana, gdyż maszyna pozwala sobie na coraz więcej. Badaczom zależy bowiem na poszerzeniu umiejętności komunikacyjnych chatbotów... bez konieczności eliminowania u nich ludzkiej formy komunikowania się. Wprowadzono więc tzw. nadzorowane nauczanie, która ogranicza im swobodę.