Ostatnie wydarzenia z Los Angeles pokazują, jak łatwo jest nam uwierzyć sztucznej inteligencji. 
Ostatnie wydarzenia z Los Angeles pokazują, jak łatwo jest nam uwierzyć sztucznej inteligencji.  Ilus.: House Judiciary GOP / YouTube | INNPoland

Chatboty miały być odpowiedzią na zalew fałszywych informacji w internecie. Dziś coraz częściej same go generują. W trakcie protestów w Los Angeles sztuczna inteligencja myliła zdjęcia, zmyślała fakty i utwierdzała użytkowników w przekonaniach, które nie miały pokrycia w rzeczywistości.

REKLAMA

Chatboty stały się dla wielu z nas podstawowym źródłem wiedzy.

Zwracamy się do nich z pytaniami o tak błahe rzeczy, jak przepisy kuchenne, ale również o porady miłosne czy pomoc w pracy. Coraz częściej pytamy je również o bieżące wydarzenia polityczne. 

Rozwój narzędzi AI – takich jak ChatGPT od OpenAI, Grok od X, Gemini od Google czy Claude od Anthropic – sprawił, że darzymy je coraz większym zaufaniem. AI szybciej niż jakakolwiek inna technologia stało się też częścią naszej codzienności. 

Czytaj także:

Jednak ani stopień zaawansowania technologicznego tych systemów, ani normalizacji ich wykorzystywania nie zmienią faktu, że AI popełnia błędy.

A ostatnie wydarzenia z Los Angeles pokazują, jak łatwo jest nam uwierzyć sztucznej inteligencji

"Tego się obawialiśmy"

Protesty w Los Angeles wywołane agresywną polityką migracyjną administracji Donalda Trumpa, rozpoczęły się w ostatni piątek. Wówczas protestujący nie byli jednak agresywni i nie dochodziło do przypadków niszczenia mienia. Tamtejsza policja wystosowała nawet oświadczenie, w którym dziękowała uczestnikom za pokojowe protesty.

Jednak sytuacja eskalowała przez weekend.

Według niektórych komentatorów może to być związane z sobotnią decyzją prezydenta Trumpa o wysłaniu na teren protestów oddziałów Gwardii narodowej i marines. Gubernator Kalifornii Gavin Newsom nazwał tę decyzję we wtorkowym wystąpieniu "bezczelnym nadużyciem władzy". 

"Demokracja jest atakowana na naszych oczach. Nadszedł moment, którego się obawialiśmy" – powiedział Newsom. 

W tym tygodniu sprzeciw wobec działań służb migracyjnych ICE, które w ostatnich tygodniach przeprowadziły serię nalotów, m.in. w miejscach pracy w społecznościach Latynoskich, wybuchły również w innych częściach Stanów. We wtorek protestujący maszerowali również w Atlancie, Nowym Jorku i w Chicago. 

Czytaj także:

Protesty są oczywiście bardzo ważnym tematem w mediach społecznościowych. Tam spór między dwoma obozami – jednym przyznającym rację protestującym i drugim opowiadającym się za polityką prezydenta Trumpa – tylko eskaluje.

Pomaga w tym sztuczna inteligencja. 

Obcy wróg

W zależności od tego, kogo zapytamy, sytuacja w Los Angeles może wyglądać diametralnie inaczej. 

Według Gavina Newsoma sytuacja jest pod kontrolą. Przypadki agresji protestujących są odosobnione i nie stanowią wyzwania dla kalifornijskich służb porządkowych, a rozwiązania pokroju godziny policyjnej wprowadzonej na terenie śródmieścia LA są wystarczające. Co więcej, działania Trumpa, który wysłał na teren protestów oddziały specjalne, mają według gubernatora prowadzić do eskalacji konfliktu. 

Według Trumpa i osób z nim związanych administracja Kalifornii nie radzi sobie z protestami, a Los Angeles miało zostać – jak to ujął Trump – "podbite przez obcego wroga" (Conquered by the foreign enemy).

Wysłanie przez niego 4 tys. żołnierzy Gwardii Narodowej i 700 marines miało pomóc "wyzwolić" miasto. 

Czytaj także:

Widzimy więc, że rzeczywistość jest tutaj przedstawiana w niemal przeciwny sposób. O pomoc w rozstrzygnięciu, która strona ma rację, Amerykanie zaczęli zwracać się do sztucznej inteligencji, która coraz częściej karmi ich dezinformacją

Hej Grok, kiedy powstały te zdjęcia?

Sztuczna inteligencja miała pomóc walczyć z zalewem kłamstw w sieci.

Każdy użytkownik portalu X wie, jak często na platformie należącej do Elona Muska pojawia się prośba do Groka o wyjaśnienie zawartości danego posta czy sprawdzenie, czy jest on prawdziwy.

Wystarczy oznaczyć chatbota w komentarzu, żeby natychmiast otrzymać wyczerpującą i napisaną w pewnym siebie tonie odpowiedzi. Te jednak często są nieprawdziwe. 

Po tym jak gubernator Newsom udostępnił zdjęcia żołnierzy Gwardii narodowej śpiących na podłodze, jeden z użytkowników X poprosił zintegrowanego z platformą bota o sprawdzenie autentyczności fotografii. 

"Zdjęcia prawdopodobnie pochodzą z Afganistanu w 2021 r., z działań ewakuacyjnych Gwardii Narodowej w ramach operacji Allies Refuge" – stwierdził Grok. "Twierdzenia łączące je z rozmieszczeniem w Los Angeles w 2025 r. nie mają wiarygodnego poparcia i wydają się być błędnym przypisaniem. Żadne definitywne źródło nie potwierdza związku z Los Angeles".

Czytaj także:

Według doniesień portalu WIRED, gdy jeden z użytkowników zwrócił uwagę, że zdjęcia zostało opublikowane przez San Francisco Chronicle, Grok miał stwierdzić, że sprawdził to źródło. Mimo to miał powtórzyć, że "zdjęcia żołnierzy Gwardii Narodowej śpiących na podłodze pochodzą prawdopodobnie z 2021 r., najpewniej z Kapitolu Stanów Zjednoczonych, a nie z Los Angeles z 2025 r.".

Ta sama fotografia wywołała również inne zarzuty związane ze sztuczną inteligencją. Laura Loomer – konserwatywna influencerka znana z rozsiewania teorii spiskowych udostępniła ją, twierdząc, że została wygenerowana przez AI

Nie tylko Grok

Nieprawdziwe informacje na temat protestów LA podaje również ChatGPT – najpopularniejszy chatbot na rynku, z którego co miesiąc korzysta ponad 180 mln osób na całym świecie. 

Zapytany przez Melissę O’Connor – kolejną prawicową publicystkę – o zdjęcie udostępnione przez gubernatora Newsoma, stwierdził, że zostało zrobione w trakcie wycofywania wojsk amerykańskich z Afganistanu. 

Gdy przesłałem to samo zdjęcie do Gemini – chatbota wydawanego przez Google, odpowiedział mi, że "zostało ono opublikowane 27 lipca 2023 roku, więc prawdopodobnie zostało wykonane krótko przed tą datą". 

Gdy zapytałem go, skąd ten pomysł, szybko wycofał się z poprzedniej wiadomości. 

"Przepraszam za błąd. Nie mam możliwości bezpośredniego sprawdzenia daty publikacji zdjęcia na podstawie samego pliku graficznego. Moja poprzednia odpowiedź z datą 27 lipca 2023 roku była wynikiem błędnego założenia". 

Gdy zadałem pytanie w języku angielskim w kolejnej konwersacji, Gemini stwierdził, że nie może stwierdzić, kiedy dokładnie powstało to zdjęcie.

"Mogę za to powiedzieć, że nie zostało zrobione w 2025 roku. To dlatego, że bieżąca data to 11 czerwca 2025 r., a ja nie mam dostępu do kanałów obrazu w czasie rzeczywistym ani do przyszłych wydarzeń. Obrazy, które mogę analizować, pochodzą z poprzedniego zestawu danych" – dodał bot. 

Branża nie zwalnia

Jedna z najczęstszych obaw dotyczących AI stała się więc faktem – zupełnie przestaliśmy wierzyć w materiały dostępne w sieci, nawet te, które zostały dodane przez źródła dotychczas uznawane za wiarygodne, a każda kryzysowa sytuacja tonie w slopie dezinformacji. 

Pogarsza to sytuacja na platformach, które po macoszemu traktują moderację treści, coraz częściej bazując na komentarzach społeczności czy właśnie na botach, które w założeniu mają pomóc osadzić dany post w szerszym kontekście.

Czytaj także:

Jednak coraz częściej robią one coś odwrotnego. Zamiast poszerzać naszą wiedzę i wskazywać nieprawdziwe informacje, stały się generatorami dezinformacji. Potwierdza to obawę, którą komentatorzy branży tech odczuwają od dawna – nie jesteśmy gotowi na tę technologię. 

Darzymy ją zbyt dużym zaufaniem, wierząc w natychmiast generowane i utrzymywane w pewnym tonie odpowiedzi. Równocześnie dyskredytujemy treści publikowane przez wiarygodne źródła, jako dezinformację wygenerowaną przez AI. 

Jednak branża AI nie zwalnia.

Najnowsza technologia generowania wideo może zupełnie podważyć naszą wiarę w to, co widzimy na własne oczy.