Grają na emocjach, dostają za to kasę. Jak niszczy nas rage bait?
Big Techy, które posiadają najpopularniejsze media społecznościowe, umywają ręce od wielu problemów – najczęściej pod pretekstem wolności słowa. A jednocześnie dostarczają narzędzi, aby patologia kwitła w najlepsze.
Przykładem jest zjawisko rage bait. Można to przetłumaczyć luźno jako "łowienie na wkur*enie". Kto jest zwierzyną? My. A przynęta opiera się na najgorszych instynktach. Profile rage baitowe zarabiaja na złowionych sztukach, a ich dochody sięgają kilku tysięcy dolarów miesięcznie.
Gówniarstwo w sieci popłaca
Rage bait (nazywane też "rage farming") jest odmianą trollowania i clickbaitów w sieci, ale dodatkowo opiera się na manipulacji nienawiścią, strachem i niepokojami społecznymi do generowania klików. Powszechną taktyką jest też uderzanie w polaryzację społeczną.
Cały mechanizm kojarzy mi się z czasami szkolnymi. Akurat szałem były wtedy pierwsze telefony z aparatami fotograficznymi. Gnębiciele szybko wykombinowali, jak się nimi popisywać – podejść do kogoś, sprowokować do skrajnej reakcji (jak atak paniki) i cyk, foteczka.
A potem dzielenie się tym materiałem dla zabawy, przyciągając ziomeczków i szkalując dalej swój "cel". Niektórzy nazywali to wtedy "zbieraniem pokemonów".
Tamte gówniarskie akcje odróżniało od rage baitu, że gnębiciele nie dostawali za to kieszonkowego.
Po co działają dziś profile rage baitowe? To proste. Cel prowokacji może wdać się w dyskusję, a jego przeciwnicy mogą powielać te treści dla żartu i przyklaskiwania. W obu wypadkach poszerzają się zasięgi profilu publikującego obraźliwe memy, komentarze czy opinie.
Całość eskaluje, a autor ma z tego konkretną korzyść: pieniądze.
Media społecznościowe na różne sposoby umożliwiają zarabianie na popularności naszych postów. Bez pecjalnego przykładania się do weryfikacji treści. Algorytmy lubią nas zamykać w bańkach tematycznych, promują treści kontrowersyjne i nacechowane emocjami, dobrym i jak i negatywnymi. Wszystko, co budzi zaangażowanie użytkowników. Ale łatwiej jest wykorzystać gniew oraz niepokoje.
A do tego dochodzi płaszczyk względnej anonimowości w sieci. Wielu osobom odpala się myślenie, że internet pozwala na więcej.
– Niestety, takie treści często trafiają do szerokiego grona odbiorców, nie tylko do hejterów. Wielu ludzi, nawet jeśli nie podziela nienawistnych poglądów, angażuje się w te treści "dla żartu" lub z ciekawości, nie zdając sobie sprawy ze szkód, jakie wyrządzają – tłumaczy dla INNPoland Szymon Niemiec, terapeuta.
Często pada kontrargument "to tylko żarty" albo inny o "wolności słowa i opinii". To tylko takie niewygodne komentarze, satyra i humorek. Nie podobają się? To jesteś częścią problemu. "Nie zes*aj się" – pada wtedy popularny sieciowy argument-wytrych.
Takie wyjaśnienia widocznie są wystarczające, aby przechodzić przez siatki regulaminów mediów społecznościowych. Niektóre platformy, jak X od Elona Muska, ostatnio wręcz luzują ograniczenia i chętnie witają rage baitowe posty dla generowania swojego ruchu i przychodu z reklam.
Produkowane masowo treści grające na emocjach uderzają jednak w prawdziwych ludzi przed ekranami. Nawet jeśli tylko jedna osoba na dziesięć zostanie przez nie zraniona, problem staje się realny.
Wiewiór męczennik "wygrywa wybory"
Czy wiedzieliście, że w kampanię wyborczą Donalda Trumpa zaangażowano wiewiórkę? Popularna gwiazda Instagrama imieniem P’naut (albo Penaut, czyli Orzeszek) zakończyła swoją karierę incydentem – 30 października 2024 roku została odebrana właścicielowi przez agencję rządową i poddana eutanazji, pod pretekstem zagrożenia wścieklizną.
W taki sposób służby zareagowały na skargi wymierzone we właściciela zwierzaka, Marka Longo. Amerykańska Baśka została zmieniona w męczennika Republikanów. Posty z jej wizerunkiem (w tym z grafikami generowanymi przez AI) tworzyły emocjonalny scenariusz, jakoby Kamala Harris przybyła własnoręcznie zwierzaka zadusić.
BBC zidentyfikowało w okresie wyborczym dziesiątki kont na samym X, które powielały i generowały różne dezinformujące treści. Między fake newsy wplatano prawdziwe informacje, wyciągając treści wyjęte z kontekstu. Były to konta działające dla Donalda Trumpa, opozycji oraz niezależne. Wspólny mianownik: kasa.
Wedle raportu właściciele kont zarabiali na swojej działalności od kilkuset do kilku tysięcy dolarów miesięcznie. Niektórzy nawet jeśli nie zaczynali postować z myślą o zarobkach, to dorobili się odgórnie błękitnego znaczka i algorytm przychylniej potraktował ich treści. I wtedy pieniądz zaczął spływać.
Czemu więc nie pójść za ciosem, nie?
Problem dotykający Polski
Spokojnie, w Polsce też to mamy – od dawna. Wystarczy poszukać treści związanych z Marszem Niepodległości czy innych polityczno-społecznych tematów. Jak nadchodzące wybory prezydenckie 2025.
Marginalizuje się poglądy, normalizuje mowę nienawiści. W dyskusjach w komentarzach rzuca się nawet groźby karalne.
Jest to zauważalny problem w Polsce. Profile takie jak ******** [cenzura redakcji] to niestety nie wyjątki. W polskim internecie można znaleźć wiele przykładów treści "rage bait" wymierzonych w różne grupy społeczne, w tym osoby LGBT, imigrantów, osoby o innym kolorze skóry, osoby z niepełnosprawnościami
Zapytałem, czy terapeuta zajmujący się pomocą dla osób LGBT (popularny cel rage baitów) spotkał się z realnym wpływem sieciowych prowokacji na Internautów. Odpowiedź nie zaskoczyła: treści tego typu mogą prowadzić do poczucia izolacji, lęku, depresji i myśli samobójczych.
– Mogą również przyczyniać się do wzrostu przestępstw z nienawiści – dodaje w rozmowie z INNPoland Szymon Niemiec. Często pracuje z młodymi ludźmi, dotykanymi przez takie problemy.
Czytaj także: https://innpoland.pl/207707,prawica-ma-obsesje-na-punkcie-osob-trans-czym-jest-transvestigationFraktal nienawiści
To zjawisko jest jak fraktal – nieważne, czy patrzymy na szeroki kontekst społeczeństwa, czy na małą grupę zapaleńców, mechanizmy na mediach społecznościowych działają tak samo. Promują wylew ścieku, którego smród ciągnie się potem przy powielanych opiniach. Za małą opłatą posty zostaną wypromowane, trafiając do szerszego grona odbiorców. Zysk mnoży się graniem na emocjach.
Ludzie czasem zwyczajnie chcą, by pewne rzeczy były prawdą. Chcą żyć w wybranej przez siebie rzeczywistości. To ich przyciąga do prowokacyjnych twórców.
Sam obracam się w kilku kręgach hobbystycznych (gaming, komiksy, rpg), gdzie z roku na rok pojawia się coraz więcej kontentu wylewającego do sieci zwyczajne szambo. Posty albo wideo grają na emocjach, wyciągają fragmenty informacji wyrwane z kontekstu, nie oferując innej treści niż "tym powinniście być wkur*****".
Czasami nawet nie muszą, bo sam nagłówek styknie do dojenia ofiar.
Skutki bywają rzeczywiste i namacalne.
W środowisku gamingowym już od premiery gry Dragon Age: Straż Zasłony jest afera. Grze stworzono laurk produkcji przesiąkniętej ideologią LGBT i niszczącą "kulturę gier". Ostatecznie (jak to jest "w zwyczaju") doprowadziło to do bojkotu – przez bombardowanie negatywnymi recenzjami. Serwis Metacritic, zbierający szerokie opinie użytkowników i branżowych portali, został zmuszony do moderacji negatywnych ocen wywołanych emocjami.
Straż Zasłony nie jest idealna, jasne Gdy opadł kurz, z ocen recenzentów i rozsądniejszych opinii powstaje obraz przeciętniaczka z wysokim budżetem. Jak wiele innych gier. Ale w czasie premiery szał zaczerwienionych z gniewu graczy sprawił, że nie dało się o tytule merytorycznie dyskutować.
Review bombing stał się powszechną reakcją, gdy komuś jakiś element gry się nie podoba. Dotyka seriali, komiksów, gier, filmów, prywatnych biznesów i organizacji... gdy brakuje tematów politycznych, uderza się w inne struny wywołujące gniew – jak wprowadzanie AI.
Jak społeczeństwo ma więc podejmować racjonalne decyzje w poważnych sprawach?
Rage bait coraz popularniejszy
Zjawisko zapewne jest tak stare, jak mowa nienawiści. Idzie w parze z rozwojem dezinformacji. Ale ciężko oprzeć się wrażeniu, że w ostatnich latach to szambo wybija częściej.
– Trudno jednoznacznie określić, kiedy treści "rage bait" stały się częstsze. Z pewnością ich popularność wzrosła w ostatnich latach wraz z rozwojem mediów społecznościowych i polaryzacją społeczną. Obserwacje dr Kay Coghill dotyczące Twittera i roku 2022 mogą być słuszne, ponieważ zmiana właściciela platformy i poluzowanie zasad moderacji treści mogły przyczynić się do wzrostu ilości agresywnych i prowokacyjnych treści – tłumaczy mi Szymon Niemiec.
Zdaniem dr Kay Coghill na obecnym X posty zarabiające na nienawiści rozkręciły się od czasu wykupienia Twittera przez Elona Muska.
Twitter nie był święty, ale Elon mocno poluzował zasady moderacji. Na rok 2022 wskazuje również badacz John Scott-Railton, zauważając zwiększony ruch algorytmów powielających rage baity.
"Łatwa kasa"
Każdy może wyprodukować rage bait. Oto przepis: mocna opinia przeciw wybranemu celowi, szczypta ostrzejszego słowa, mało przychylne zdjęcia albo grafika wygenerowana przez AI, informacje wyjęte z kontekstu jako podkładka. Viola! Teraz opcjonalnie memy, gdzie strona "właściwa" jest brodatym "chadem", a "ci drudzy" zapłakanym "sojakiem".
BBC w swoim raporcie rozmawiało z jednym "twórcą", który zaczął spędzać 16 godzin dziennie, postując i wchodząc w interakcje z podobnymi sobie. Powiedział: to łatwa kasa.
– Warto pamiętać, że zjawisko "rage bait" jest złożone i wielowymiarowe. Do jego zrozumienia potrzebna jest interdyscyplinarna perspektywa, uwzględniająca aspekty psychologiczne, socjologiczne, ekonomiczne i technologiczne – zauważa Szymon Niemiec.
Czy da się z tym walczyć? Jak przy wielu sieciowych zjawiskach, potrzebne jest wskazanie na ich istnienie i jakimi mechanizmami się rządzą. Zgłaszajmy je, domagając się od mediów społecznościowych lepszej moderacji.
Niestety z przykładów z życia wiemy, że firmy odpowiadające na media społecznościowe nie śpieszą się z poprawą systemu. Ciężko im przychodzi walka z prawdziwymi oszustami, wykorzystującymi nielegalnie cudzy wizerunek.
A tu mówimy o narzędziach pod postacią monetyzacji i algorytmów, które sami wciskają w ręce zwykłych użytkowników.
Czytaj także: https://innpoland.pl/209038,ai-slop-nie-tylko-meczy-ale-i-zagraza