Rozmowa z AI.
AI jest ciężkim przeciwnikiem do debat. I groźnym narzędziem w rękach tych, którzy chcą nami manipulować. Fot. demaerre/Getty Images

Naukowcy przeprowadzili badanie, aby sprawdzić, jak bardzo dajemy się przekonać sztucznej inteligencji. I niestety nawet zwykły chatbot przygotowany do dyskusji potrafi nas przekonać bardziej, niż druga osoba. Autorzy badań sugerują, że AI jest już zapewne wykorzystywane do kierowania opinią publiczną.

REKLAMA

Duże Modele Językowe (LLM) mają oczywistą przewagę w dyskusji – szybciej przetwarzają dane i składają odpowiedzi. Inne badanie wykazało, że do tego zbyt bardzo na niej sami polegamy, co osłabia krytyczne myślenie.

Zespół naukowców z różnych stron świata przeprowadził eksperyment, aby ustalić, jak bardzo dajemy się przekonać takim LLM jak GPT-4. 

Ludzie kontra Sztuczna Inteligencja

Badania przeprowadzono metodą online na 900 osobach ze Stanów Zjednoczonych, a wyniki opublikowano na łamach pisma "Nature Human Behaviour", dostępne tutaj.

Każda otrzymała partnera do dyskusji, człowieka lub LLM, i mieli rozmawiać przez 10 minut o różnych kwestiach społeczno-politycznych w kontrolowanym środowisku online. W niektórych grupach naukowcy podawali informacje o oponentach, które pochodziły z kwestionariuszy wypełnionych przez uczestników badania. Były więc pary o doinformowanych przeciw sobie ludziach, ale i z dobrze poinformowanym AI przeciwko nieświadomemu człowiekowi.

W tym ostatnim przypadku zauważono, że GPT-4 był w 64,4 proc. bardziej przekonywający, niż podobnie przygotowany człowiek. Maszyna pozbawiona informacji była na podobnym poziomie, co człowiek.

Zagrożenie w mediach społecznościowych

Zdaniem Francesco Salv z Politechniki Federalnej w Lozannie, współautora badania, nawet nieprzygotowany chatbot w środowisku sieciowym szybko nadrobiłby informacje o człowieku, wyszukując je w mediach społecznościowych. A maszynę można przecież nakarmić dużo bardziej szczegółowymi danymi, niż uzyskane przez kwestionariusz.

W czasie badania maszyna z dostępem do danych dopasowywała argumenty do swojego przeciwnika.

– Przekonująca sztuczna inteligencja może zostać wdrożona na dużą skalę. Można sobie wyobrazić armie botów targetujących niezdecydowanych wyborców, subtelnie popychających ich dostosowanymi narracjami politycznymi, które wydają się autentyczne – powiedział Francesco Salv.

Niemniej, w trzech czwartych przypadków uczestnicy badania odgadli, że rozmawiają z chatbotem. Autorzy podkreślają, że ich badanie było ograniczone limitem czasowym oraz uporządkowaną moderacją.

Czytaj także: