
Raport BBC Verified ujawnia skalę wykorzystania generatywnej sztucznej inteligencji do szerzenia dezinformacji wokół sytuacji na Bliskim Wschodzie. Jednak kluczowym narzędziem scamerów są dalej media społecznościowe.
Po ataku Izraela z 13 czerwca Iran odpowiedział, wysyłając setki rakiet i dronów na Tel Awiw. Do wojny przez weekend dołączyły również Stany Zjednoczone, które zbombardowały kluczowe lokalizacje dla irańskiego programu nuklearnego.
Eskalację działań na Bliskim Wschodzie mogliśmy obserwować również w internecie, po którym w ostatnich dniach krążą setki nagrań przedstawiających działania zbrojne w Iranie i Izraelu.
Według najnowszej analizy BBC Verified – oddziału brytyjskiej platformy zajmującego się fact-checkingiem, znaczna część z nich jest nieprawdziwa.
Zaledwie trzy fałszywe nagrania zidentyfikowane przez BBC zebrały ponad 100 milionów wyświetleń w różnych platformach społecznościowych. Równocześnie konta, które je udostępniają, zyskują setki tysięcy obserwatorów tygodniowo.
Od gier po wygenerowane filmy
W konflikcie między Izraelem a Iranem dezinformacje szerzą obie strony.
Konta sympatyzujące z Izraelem udostępniają stare nagrania z protestów i zgromadzeń w Iranie. W materiałach błędnie sugerują, że pokazują one rosnący sprzeciw wobec irańskich władz i poparcie społeczeństwa dla izraelskiej ofensywy.
Sympatycy Iranu starają się przedstawić go jako potęgę militarną. W tym celu udostępniają fałszywe nagrania rzekomo przedstawiające skutki ataków na cele w Izraelu.
Dezinformacja przybiera obecnie różne formy. Udostępniane są fałszywie datowane, stare nagrania protestów. Sceny z gier publikowane są jako nagrania działań zbrojnych. Generatywna sztuczna inteligencja wykorzystywana jest do produkcji realistycznych klipów.
Wszystko to udostępniane jest w mediach społecznościowych, ze szczególnym uwzględnieniem X.
"Widzimy wszystko, od niezwiązanych ze sprawą materiałów filmowych z Pakistanu, po recykling nagrań z ataków z października 2024 r. — niektóre z nich zgromadziły ponad 20 milionów wyświetleń — a także klipy z gier i treści generowane przez sztuczną inteligencję, które są przedstawiane jako prawdziwe wydarzenia" – podają cytowani przez BBC specjaliści z grupy Geoconfirmed.
Wygenerowana wojna
Dezinformacja nie jest niczym nowym, ale rozwój technologi AI sprawił, że fałszywe treści są niemal nieodróżnialne od rzeczywistych nagrań. A to przekłada się na ich wyniki w mediach społecznościowych.
Konta często przypominają rzetelne źródła informacji, jak chociażby "Daily Iran Military", które w trakcie tygodnia od Izraelskiego ataku podwoiło swoją liczbę obserwatorów z 700 tys., do 1,4 mln.
To jednak tylko jedno z wielu tego typu kont, które bardzo często mają niebieski znaczek weryfikacji.
Prowadzące te konta osoby coraz chętniej korzystają z generatywnej sztucznej inteligencji, której ostatnia generacja jest zaskakująco skuteczna w tworzeniu realistycznych wideo.
W ten sposób powstały nagrania zmasowanego bombardowania Tel Awiwu – z których jedno zebrało prawie 30 mln wyświetleń – albo wideo przedstawiające zestrzelony izraelski śmigłowiec F-35.
"Obok wojny realnej toczy się ta całkowicie wygenerowana, w której wszystko dzieje się inaczej" – komentuje Aleksandra Przegalińska, wicerektor Uniwersytetu Koźmińskiego i specjalistka od sztucznej inteligencji.
Hej Grok!
Jednak choć sztuczna inteligencja sprawiła, że dezinformacja jest jeszcze trudniejsza do wykrycia, za jej rozprzestrzenianie wciąż odpowiadają media społecznościowe.
Oprócz wprowadzających w błąd znaczników weryfikacji, algorytmy platform pokroju X czy Instagrama chętnie promują treści, które wzbudzają skrajne emocje. Nagrania przedstawiające działania zbrojne z pewnością należą do tej kategorii.
"To nawiązuje do szerszego problemu społecznego i psychologicznego, jakim jest chęć ludzi do udostępniania rzeczy, jeśli są one zgodne z ich tożsamością polityczną" – mówi cytowany przez BBC Matthew Facciani, wykładowca Uniwersytetu w Notre Dame. "Ogólnie rzecz biorąc, bardziej sensacyjne i emocjonalne treści będą rozprzestrzeniać się szybciej w internecie".
Sytuację pogarszają próby wykorzystywania popularnych narzędzi AI do weryfikacji treści. Użytkownicy X często proszą zintegrowanego z platformą czatbota o weryfikację materiałów udostępnianych w postach.
Grok bardzo często błędnie identyfikuje zdjęcia i nagrania, twierdząc, że zostały one wykonane w innym czasie i miejscu. A tym samym przyczynia się do szerzenia dezinformacji.
Źródło: BBC.
