Na ekranie laptopa widać zakłócone zdjęcie kobiety. Internet tonie w deepfake'ach
Internet tonie w deepfake'ach. Oto, jak się nie dać nabrać Fot. Aiony Haust/Unsplash, Canva/INNPoland

W 2024 roku liczba ataków w sieci wzrosła w Polsce o prawie 30 procent. Coraz częściej przestępcy nie wysyłają podejrzanych linków, lecz podszywają się pod głos lub twarz naszych bliskich. Sztuczna inteligencja sprawiła, że granica między prawdą a fałszem w internecie niemal się zatarła. Jak nie dać się oszukać?

REKLAMA

Jeszcze do niedawna oszustwo w internecie kojarzyło się głównie z linkiem w mailu, za którym kryje się wirus. Dziś wygląda to już zupełnie inaczej, bo największe zagrożenie przychodzi głosem lub obrazem.

Wzrastająca fala cyfrowych oszustw w Polsce. Wiele z nich to deepfaki

W 2024 roku CERT Polska zarejestrował ponad 100 tys. incydentów naruszenia cyberbezpieczeństwa – to wzrost o niemal 30 proc. względem roku poprzedniego. Najczęściej chodziło o próby wyłudzania danych – loginów, haseł czy dostępu do kont bankowych. Dziś przestępcy nie muszą już pisać – mówią naszym głosem. Dzięki technologii deepfake i generatywnej AI potrafią stworzyć nagrania, w których ofiara słyszy lub widzi osobę, której ufa.

W ostatnim czasie na Facebooku pojawiło się wideo, w którym deepfake wykorzystano do przedstawienia prof. Henryka Skarżyńskiego, rzekomo polecającego preparat medyczny. Materiał wyświetlono aż 800 tys. razy – choć naukowiec zaprzeczył jakiejkolwiek współpracy.

Inne podejrzane produkty i usługi "reklamowała" wygenerowana Agata Kornhauser-Duda czy Anna Lewandowska.

Deepfake sposobem na oszustwo. Przykłady, które szokują

To oczywiście nie tylko problem Polski. Globalne statystyki są alarmujące. W ciągu ostatnich 3 lat liczba prób oszustw z użyciem technologii deepfake wzrosła aż o 2137 proc.! Prognozy mówią, że w 2025 roku wzrost osiągnie kolejne 162 proc. Już pierwszy kwartał tego roku przyniósł o 19 proc. więcej przypadków deepfake niż cały 2024 r.

W Nowej Fundlandii starsza kobieta otrzymała telefon od osoby podszywającej się pod jej wnuka. Rzekomo miał wypadek i potrzebował 50 tys. dolarów kaucji. Kobieta wykonała przelew, a dopiero później dowiedziała się, że jej wnuk był cały czas w pracy. Głos, który usłyszała, był wygenerowany przez AI.

Podobnie w Hongkongu. Podczas wideokonferencji łączono się z deepfake'iem dyrektora finansowego. Wyglądał i brzmiał jak prawdziwa osoba, a po jego decyzji pracownicy przelali na wskazany numer konta 25 mln dolarów. Nikt niczego nie podejrzewał.

Jak rozpoznać deepfake? Naukowcy uczą, jak patrzeć krytycznie

Zespół Matta Groha z Northwestern University prowadził od 2020 roku projekt badawczy Detect DeepFakes: How to Counteract Misinformation Created by AI. Jego celem było nauczenie ludzi rozpoznawania manipulowanych nagrań. Badacze wskazali osiem kluczowych elementów, na które warto zwrócić uwagę:

  • Skóra – czy wygląda zbyt gładko lub nienaturalnie?
  • Czoło i policzki – czy ich faktura odpowiada reszcie twarzy?
  • Oczy i brwi – czy cień i światło zachowują się naturalnie?
  • Okulary – czy refleksy świetlne zmieniają się wraz z ruchem głowy?
  • Zarost i włosy – czy wyglądają realistycznie?
  • Pieprzyki i znamiona – czy nie są zbyt wyraźne lub rozmyte?
  • Mruganie – czy częstotliwość mrugnięć jest naturalna?
  • Ruch ust – czy synchronizacja dźwięku i mowy jest płynna?
  • Jak podkreślają naukowcy, nie istnieje jedna niezawodna metoda wykrywania deepfake'ów – ale dzięki treningowi można nabrać "intuicji wizualnej" i szybciej wychwycić subtelne nieprawidłowości.

    Dowód człowieczeństwa. Czy to nowy etap w rozwoju cyberbezpieczeństwa?

    Eksperci ostrzegają, że tradycyjne metody weryfikacji – hasła, loginy, kody SMS – już nie wystarczą. Boty uczą się błyskawicznie, a testy CAPTCHA rozwiązują w mniej niż sekundę. Człowiekowi zajmuje to średnio kilkanaście sekund.

    Jak wyjaśnia Karol Chilimoniuk z sieci World, "dopóki nie zaczniemy weryfikować człowieczeństwa użytkowników w sieci, będziemy bezradni wobec fali fałszywych tożsamości, deepfake'ów i klonowanych głosów". Problemem jest nie tylko technologia, ale także zaufanie, którym darzymy cyfrowe treści.

    – W miarę jak coraz łatwiej jest algorytmom naśladować ludzkie zachowania, cyberbezpieczeństwo musi wyjść poza zapory i hasła. Potrzebujemy sposobów na potwierdzanie ludzkiej tożsamości, by technologia nadal służyła ludziom – a nie ich oszukiwała – przyznaje Karol Chilimoniuk.