Rosja nauczyła AI kłamać. "Miliony artykułów rocznie"
Rosyjska propaganda zatruwa AI Fot. Brad Ritson/Unsplash

Fałszywe portale, wygenerowane zdjęcia, przekonujące nagrania głosowe. Sztuczna inteligencja stała się narzędziem w rękach Rosji i działa skuteczniej niż kiedykolwiek wcześniej. Fake newsy nie tylko zalewają media społecznościowe, coraz częściej językiem Kremla mówi AI. – Fałszywe strony podszywają się pod media zachodnie, a z nich informacje czerpią modele językowe sztucznej inteligencji – mówi Anna Mierzyńska. Aleksandra Przegalińska dodaje: – Ich metody są bardzo tanie.

REKLAMA

Rosyjska kampania dezinformacyjna wykorzystuje ogólnodostępne narzędzia oparte na sztucznej inteligencji. To wygenerowane teksty, zdjęcia, nagrania audio i wideo napędzają tzw. eksplozję treści, która nastawiona jest na pogłębianie napięć na świecie. Celem są wybory w poszczególnych państwach, migranci, ale przede wszystkim wojna w Ukrainie. To wnioski z najnowszych badań londyńskiej organizacji Reset Tech i fińskiej firmy Check First.

Miliony odsłon rosyjskiej propagandy na całym świecie

– My, badacze dezinformacji rosyjskiej na zachodzie długo żyliśmy w przekonaniu, że Rosja wykorzystuje sztuczną inteligencję do prostych, podstawowych rzeczy, takich jak tworzenie i prowadzenie fałszywych kont w mediach społecznościowych – mówi INNPoland Anna Mierzyńska, analityczka mediów społecznościowych specjalizująca się w rosyjskiej dezinformacji w Polsce.

– Z pomocą AI tworzą tzw. persony, czyli osoby, które tak naprawdę nie istnieją. Występują jedynie w mediach społecznościowych, budują wokół siebie społeczności, mogą podszywać się pod dziennikarzy, kreować opinię publiczną. Wszystko jednak jest wygenerowane przez sztuczną inteligencję – od naturalnie wyglądających zdjęć po wpisy. Niedawno okazało się jednak, że Rosja wykorzystuje sztuczną inteligencję w dużo większym zakresie.

Rok 2023 to początek operacji dezinformacyjnej, która znana jest pod kilkoma nazwami, m.in. Operation Overload czy Matrioszka. Już jakiś czas temu została powiązana z rosyjskim rządem, o czym poinformował Microsoft i Institute for Strategic Dialogue.

Celem Matrioszki jest rozpowszechnianie fałszywych narracji, które polaryzują społeczeństwo. Fake newsy trafiają do obywateli większości państw, ale głównym celem zawsze była Ukraina. Zmanipulowane i wygenerowane przez AI treści mają przede wszystkim promować rosyjski punkt widzenia.

Wspomniane badanie wskazuje, że między lipcem 2023 a czerwcem 2024 roku promowano 230 unikalnych materiałów propagandowych. Były to zdjęcia, kody QR i fałszywe strony internetowe. Liczba publikowanych materiałów wzrosła jednak dramatycznie między wrześniem 2024 a majem 2025 roku. Tylko w ciągu ostatnich ośmiu miesięcy było to już 587 unikalnych treści. Większość powstała dzięki sztucznej inteligencji.

Treści osiągają miliony odsłon na całym świecie

"To zwrot w kierunku bardziej skalowalnej, wielojęzycznej i coraz bardziej zaawansowanej propagandy. Produkcja treści w ostatnich miesiącach wyraźnie przyspieszyła, co świadczy o zmianie strategii na bardziej zautomatyzowaną" – pisali autorzy badania.

– Rosjanie nie tworzą swoich modeli. Korzystają z używanych przez większość, takich jak ChatGPT. To, co robią na taką skalę, jest bardzo tanie – mówi prof. Aleksandra Przegalińska, wicerektor Uniwersytetu Koźmińskiego i specjalistka od sztucznej inteligencji.

TikTok, X, Telegram, fałszywe strony internetowe

Osoby odpowiedzialne na generowanie treści tworzyły m.in. fałszywe zdjęcia z rzekomych zamieszek z udziałem muzułmańskich migrantów w Berlinie i Paryżu. W lutym na X pojawiło się też fałszywe nagranie, które przedstawiało wykładowczynię z Uniwersytetu Montpellier namawiającą Niemców do zamieszek i głosowania na skrajną prawicę.

– Na Słowacji przed wyborami parlamentarnymi został wypuszczony deepfake audio. Była to rzekoma rozmowa ówczesnego głównego lidera partii, dziś opozycyjnej z dziennikarką o tym, jak będą fałszować wybory. To było w całości wygenerowane, ale zostało opublikowane tuż przed ciszą wyborczą, rozeszło się i prawdopodobnie miało wpływ na wynik wyborów. Takich sytuacji będzie jeszcze więcej – mówi Anna Mierzyńska.

Tego typu treści pojawiają się w większości mediów społecznościowych, jednak szczególnie powszechne są na Telegramie, gdzie obecne są na 600 kanałach. Badacze wymieniają również X, TikToka, gdzie filmy propagandowe zyskały łącznie 3 mln wyświetleń, a nawet znacznie mniej popularnego Bluesky’a.

Rosyjska kampania dezinformacyjna to nie tylko treści w mediach społecznościowych. To również fałszywe portale informacyjne, które do złudzenia przypominają istniejące już serwisy. Według raportu American Sunlight Project, rosyjskie sieci dezinformacyjne tworzą co najmniej 3,6 mln artykułów rocznie przy użyciu AI, co zatruwa także wyniki pracy chatbotów takich jak ChatGPT czy Google Gemini.

– Za to odpowiada kampania dezinformacyjna Pravda. Fałszywe strony podszywają się pod media zachodnie, a z nich informacje czerpią modele językowe sztucznej inteligencji – mówi Anna Mierzyńska.

Sieć Pravda infekuje chatboty AI

Wewnętrzne infekowanie dużych modeli językowych Annie Newport i Nina Jankowicz w raporcie opublikowanym w Bulletin of the Atomic Sciences określiły mianem groomingu LLM. Utworzone strony internetowe i konta w mediach społecznościowych szerzące prorosyjską propagandę mają docelowo skłonić chatboty AI do reprodukowania rosyjskich narracji i dezinformacji.

– To nie wszystko. Bardzo powszechna jest tzw. iniekcja promptu, czyli rodzaj cyberataku. Nawet jeżeli na stronie internetowej mamy serię artykułów o rosyjskiej agresji na Ukrainę, bot sczytujący stronę "widzi" inne informacje. Takie, które "wstrzyknęli" tam dezinformatorzy. Później ich narracja pokazuje się w ChacieGPT, bo to znalazł tam bot – mówi prof. Aleksandra Przegalińska.

Po opublikowaniu wspomnianego raportu organizacje badające działania informacyjne, takie jak NewsGuard i Digital Forensic Research Lab (DFRLab) potwierdziły, że treści z sieci Pravda były cytowane przez najpopularniejsze chatboty.

Sieć Pravda to dobrze udokumentowany twór powstały w 2023 roku na potrzeby rosyjskiej wojny hybrydowej. Powiela znane już narracje dezinformacyjne, jednak pod względem zachowania odbiega od innych rosyjskich operacji informacyjnych. Jej charakterystyczne cechy to przede wszystkim ogromna liczba publikacji i 182 domen, które celują w co najmniej 74 kraje i regiony oraz atakują organizacje międzynarodowe (UE i NATO) oraz prominentnych przywódców państw.

I tak użytkownik może np. bezwiednie powołać się na artykuł z sieci Pravda udostępniony mu przez chatbota, sądząc, że to wiarygodne źródło. Co więcej, dezinformacja trafia także do Wikipedii jako przypisy – co jeszcze bardziej poszerza grono odbiorców.

Skala wzrostu i rozwoju sieci jest ogromna, a to oznacza, że prorosyjskie, pełne dezinformacji i niskiej jakości treści AI mogą stać się jednymi z najczęściej spotykanych w internecie.

– Dlatego tak ważne jest, żebyśmy sprawdzali źródło informacji, nawet jeżeli odpowiedź podaje nam ChatGPT. Czytajmy adresy dokładnie, bo często rosyjskie strony internetowe, które podszywają się pod znane media, zmieniają nieznacznie nazwę portali, dodając na końcu np. "24" albo "Polska" – mówi Anna Mierzyńska.