Ilus.: Serhii Kalyn / Unsplash | INNPoland

Raport BBC Verified ujawnia skalę wykorzystania generatywnej sztucznej inteligencji do szerzenia dezinformacji wokół sytuacji na Bliskim Wschodzie. Jednak kluczowym narzędziem scamerów są dalej media społecznościowe. 

REKLAMA

Po ataku Izraela z 13 czerwca Iran odpowiedział, wysyłając setki rakiet i dronów na Tel Awiw. Do wojny przez weekend dołączyły również Stany Zjednoczone, które zbombardowały kluczowe lokalizacje dla irańskiego programu nuklearnego

Eskalację działań na Bliskim Wschodzie mogliśmy obserwować również w internecie, po którym w ostatnich dniach krążą setki nagrań przedstawiających działania zbrojne w Iranie i Izraelu

Według najnowszej analizy BBC Verified – oddziału brytyjskiej platformy zajmującego się fact-checkingiem, znaczna część z nich jest nieprawdziwa

Czytaj także:

Zaledwie trzy fałszywe nagrania zidentyfikowane przez BBC zebrały ponad 100 milionów wyświetleń w różnych platformach społecznościowych. Równocześnie konta, które je udostępniają, zyskują setki tysięcy obserwatorów tygodniowo. 

Od gier po wygenerowane filmy

W konflikcie między Izraelem a Iranem dezinformacje szerzą obie strony. 

Konta sympatyzujące z Izraelem udostępniają stare nagrania z protestów i zgromadzeń w Iranie. W materiałach błędnie sugerują, że pokazują one rosnący sprzeciw wobec irańskich władz i poparcie społeczeństwa dla izraelskiej ofensywy.

Sympatycy Iranu starają się przedstawić go jako potęgę militarną. W tym celu udostępniają fałszywe nagrania rzekomo przedstawiające skutki ataków na cele w Izraelu. 

Dezinformacja przybiera obecnie różne formy. Udostępniane są fałszywie datowane, stare nagrania protestów. Sceny z gier publikowane są jako nagrania działań zbrojnych. Generatywna sztuczna inteligencja wykorzystywana jest do produkcji realistycznych klipów. 

Czytaj także:

Wszystko to udostępniane jest w mediach społecznościowych, ze szczególnym uwzględnieniem X. 

"Widzimy wszystko, od niezwiązanych ze sprawą materiałów filmowych z Pakistanu, po recykling nagrań z ataków z października 2024 r. — niektóre z nich zgromadziły ponad 20 milionów wyświetleń — a także klipy z gier i treści generowane przez sztuczną inteligencję, które są przedstawiane jako prawdziwe wydarzenia" – podają cytowani przez BBC specjaliści z grupy Geoconfirmed. 

Wygenerowana wojna

Dezinformacja nie jest niczym nowym, ale rozwój technologi AI sprawił, że fałszywe treści są niemal nieodróżnialne od rzeczywistych nagrań. A to przekłada się na ich wyniki w mediach społecznościowych. 

Konta często przypominają rzetelne źródła informacji, jak chociażby "Daily Iran Military", które w trakcie tygodnia od Izraelskiego ataku podwoiło swoją liczbę obserwatorów z 700 tys., do 1,4 mln. 

To jednak tylko jedno z wielu tego typu kont, które bardzo często mają niebieski znaczek weryfikacji. 

Prowadzące te konta osoby coraz chętniej korzystają z generatywnej sztucznej inteligencji, której ostatnia generacja jest zaskakująco skuteczna w tworzeniu realistycznych wideo

Czytaj także:

W ten sposób powstały nagrania zmasowanego bombardowania Tel Awiwu – z których jedno zebrało prawie 30 mln wyświetleń – albo wideo przedstawiające zestrzelony izraelski śmigłowiec F-35. 

"Obok wojny realnej toczy się ta całkowicie wygenerowana, w której wszystko dzieje się inaczej" – komentuje Aleksandra Przegalińska, wicerektor Uniwersytetu Koźmińskiego i specjalistka od sztucznej inteligencji.  

Hej Grok!

Jednak choć sztuczna inteligencja sprawiła, że dezinformacja jest jeszcze trudniejsza do wykrycia, za jej rozprzestrzenianie wciąż odpowiadają media społecznościowe

Oprócz wprowadzających w błąd znaczników weryfikacji, algorytmy platform pokroju X czy Instagrama chętnie promują treści, które wzbudzają skrajne emocje. Nagrania przedstawiające działania zbrojne z pewnością należą do tej kategorii. 

"To nawiązuje do szerszego problemu społecznego i psychologicznego, jakim jest chęć ludzi do udostępniania rzeczy, jeśli są one zgodne z ich tożsamością polityczną" – mówi cytowany przez BBC Matthew Facciani, wykładowca Uniwersytetu w Notre Dame. "Ogólnie rzecz biorąc, bardziej sensacyjne i emocjonalne treści będą rozprzestrzeniać się szybciej w internecie".

Czytaj także:

Sytuację pogarszają próby wykorzystywania popularnych narzędzi AI do weryfikacji treści. Użytkownicy X często proszą zintegrowanego z platformą czatbota o weryfikację materiałów udostępnianych w postach. 

Grok bardzo często błędnie identyfikuje zdjęcia i nagrania, twierdząc, że zostały one wykonane w innym czasie i miejscu. A tym samym przyczynia się do szerzenia dezinformacji. 

Źródło: BBC