
Rozwój generatywnej sztucznej inteligencji przyśpiesza. Ostatni wiralowy film udowadnia, jak łatwo dajemy się oszukać. I nawet wtedy w sprawie wyjaśnień kierujemy się do sztucznej inteligencji.
Dwie kobiety kłócą się przed wejściem do samolotu. Potem kamera kieruje się w kierunku... kangura. Zwierzę trzyma w łapkach bilet. Potulny zwierzak należy do pasażerki i wygląda bez dwóch zdań uroczo ze swoimi wielkimi ślepkami. Film stał się wiralem.
Trudno w to uwierzyć, ale cała scena została od podstaw stworzona przez generatywną sztuczną inteligencję – włącznie z dyskusją kobiet.
Deepfake nie do odróżnienia
Przy odrobinie szczęścia film z kangurkiem będzie światowym "momentem chałkonia" który uzmysłowi ludziom skalę problemu.
Można argumentować, że najbardziej nierealistycznym elementem jest tu fakt, że ktoś posiada kangura, co w większości krajów wymaga bardzo konkretych pozwoleń (fun fact: w trzech stanach w USA można posiadać to zwierzę bez pozwolenia). Generalnie, kangur to dość niebezpieczne zwierzę i można się zastanawiać: jak przeszedł odprawę?
Trik polega na tym, że życie pisze dziwniejsze scenariusze i może to dodaje materiałowi tej odrobiny wiarygodności.
Oryginalny materiał został jednak oznaczony jako dzieło AI. Odbiorcy byli pod wrażeniem. Szybko pojawiły się kontynuacje – zwierzak siedzi w samolocie, wcina orzeszki, a potem odjeżdża taksówką.
Dr Alex Connock, specjalista ds. AI na Uniwersytecie Oksfordzkim, przyznał, że ten sam efekt można wykorzystać do dużo mniej niewinnych materiałów.
"Kiedy mamy wideo pokazujące wiadomości, problemy polityczne czy społeczne, a w najgorszym razie wojnę, miejmy na uwadze fakt, że teraz jest już możliwe stworzenie wideo całkowicie realistycznego" – wskazał w materiale wideo, który był reakcją na film z kangurem.
Dodaje, że zawsze warto mieć na uwadze kontekst, czy ruch kamery jest realistyczny i czy możliwe byłoby zrobienie nagrania w takim momencie.
Na portalu X często pojawiają się komentarze: "Grok, czy to prawda?", wywołując do tablicy sztuczną inteligencję od Elona Muska. Jednak ta nie jest nieomylna. Zawodzi również wyszukiwarka Google, której funkcja streszczenia informacji pod hasłem potrafi zawierać fałszywe informacje.
Dezinformacja o zamieszkach w LA
Ekspert doradza wstrzymanie emocji, nim podzielimy się wiralowym materiałem.
Choć w internecie to trudno, zwłaszcza w tematach polaryzujących.
Przykładem są zamieszki w Los Angeles. New York Times donosi o wylewie dezinformacji – od deepfake zdjęć po nagrań wydarzeń, które nie miały miejsca w mieście (gdzie protesty ograniczone były do konkretnego obszaru).
Z kolei "Time" przeprowadził testy nowego narzędzia od Google Veo 3, którym celowo stworzyli prowokacyjne materiały deepfake, jak np. palenie świątyń i fałszowanie wyborów. Redakcja skonfrontowała te materiały z Google. Firma w odpowiedzi obiecała wprowadzić lepsze zabezpieczenia i wyraźne znaki wodne w treściach generowanych przez ich narzędzia.
Veo 3 jest niezwykle popularne od czasu swojej premiery w maju. Generatywna AI nie pozwala wykonać promptów używających wizerunków prawdziwych osób, ale dziennikarzom wciąż udało się znaleźć kilka luk, by sfabrykować prowokacyjne oszustwa.
Źródła: Time, New York Times.
