W czasach mediów społecznościowych poziom polaryzacji społeczeństwa jest wysoki, jak nigdy wcześniej. Zamykanie się "bańkach" jest możliwe dzięki algorytmom. A co byś zrobił gdyby te nagle zaczęły sugerować ci zupełnie inne treści? Tiziano Piccardi, naukowiec z Uniwersytetu Stanforda postanowił to sprawdzić.
Reklama.
Podobają Ci się moje artykuły? Możesz zostawić napiwek
Teraz możesz docenić pracę dziennikarzy i dziennikarek. Cała kwota trafi do nich. Wraz z napiwkiem możesz przekazać też krótką wiadomość.
Ile razy podczas rozmowy z przyjaciółmi stwierdziłeś, że "przecież każdy o tym mówi"? A Twój rozmówca w ogóle nie miał o tym pojęcia? Wszyscy jesteśmy zamknięci w swoich bańkach, a każda kolejna osoba, którą obserwujemy czy której post się nam wyświetli, potwierdza słuszność naszej opinii.
To przyjemne uczucie mieć ciągle rację, prawda?
Większość mediów społecznościowych używa algorytmów do tworzenia spersonalizowanego doświadczenia każdego użytkownika. Schemat jest prosty – im bardziej angażujesz się w treść, tym częściej będą wyświetlały ci się podobne posty.
Ktoś zaczyna opowiadać o ciemnych stronach branży fast fashion? Super, chętnie posłucham i prawdopodobnie wyślę film przyjaciółce. Kolejna influencerka otwiera swoją paczkę PR-ową, na którą składa się 20 nowych odcieni błyszczyków? Nuda, przełączam po 3 sekundach.
Jak algorytmy polaryzują społeczeństwo?
Ale czy zastanawiałeś się kiedyś, co by było, gdyby nagle twój algorytm zwariował i zaczął podrzucać ci zupełnie odwrotne treści? Na początku może byłbyś z pewnością poirytowany takim zamieszaniem, ale co stałoby się później?
Czytaj także:
Tiziano Piccardi ze Uniwersytetu Stanforda w Kalifornii postanowił to sprawdzić. Wraz z grupą naukowców poprosili 1 256 użytkowników platformy X o zainstalowanie rozszerzenia przeglądarki internetowej, które zmienia działanie algorytmu.
Narzędzie przechwytywało posty, zanim te wyświetlały się użytkownikom i oceniało, jak bardzo były polaryzujące politycznie.
Część uczestników badania otrzymała większą liczbę polaryzujących postów niż zwykle, inna grupa dostała ich mniej, kolejna nie odczuła żadnych zmian.
Każdy musiał uzupełnić ankietę opracowaną przez naukowców przed, w trakcie i po badaniu. Ta miała sprawdzić, jakie jest ich postrzeganie osób o innych poglądach politycznych.
Smutek, gniew i radykalizm
O wynikach badania pisze "New scientist". Wnioski nie napawają optymizmem. Im mniej polaryzujących politycznie treści było wyświetlanych użytkownikom, tym bardziej tolerancyjni czy wręcz "cieplejsi" byli dla tych, którzy reprezentowali odmienne poglądy.
Czytaj także:
Im więcej polaryzujących treści oglądali użytkownicy, tym bardziej radykalni się stawali. Zgłaszali też, że częściej są smutni i zdenerwowani. Te emocje zniknęły jednak dwa dni po zakończeniu eksperymentu.
Ale najciekawszym i jednocześnie najbardziej niepokojącym wnioskiem z badania jest to, że zmiana nastawienia użytkowników do osób o różnych poglądach politycznych nastąpiła już po JEDNYM dniu.