Gdyby sztuczna inteligencja była gangsterem... Oto lista jej najgroźniejszych "zbrodni"

Grzegorz Koper
Cieszymy się z rozwoju sztucznej inteligencji. Technologia pomaga nam w życiu. Jednak okazuje się, że ma swoją mroczną stronę. Opublikowano listę technologii wykorzystujących sztuczną inteligencję od tych najgroźniejszych - czyli mających największy potencjał do użycia w celach przestępczych.
Sztuczna inteligencja to narzędzie, nie jest dobra ani zła. Niemniej niektóre jej zastosowania mogą z powodzeniem mieć zastosowanie natury kryminalnej. Badacze posortowali je od najgroźniejszego. Kadr z filmu "Chappie" Fot. YouTube / Columbia Pictures
Postęp w rozwoju sztucznej inteligencji jest nie do zatrzymania. Dlatego badacze z Univeristy College London zidentyfikowali największe zagrożenia, które czyhają na nas ze strony AI.

Lista została opublikowana na "Crime Science" i uszeregowano ją według niebezpieczeństwa. Do najmniej zajmujących zaliczono na przykład autonomiczne roboty-włamywaczy, które byłyby na tyle małe, że mogłyby dostać się do domu przez drzwiczki dla kota lub w inny niedostępny człowiekowi sposób.

Przestępcze zastosowania sztucznej inteligencji

Zdaniem badaczy więcej uwagi należy poświęcić autonomicznym dronom. Zauważono, że tego typu urządzenia mogą zostać uzbrojone i wykorzystywane do likwidowania celów. Szczególne niebezpieczne będą w rojach.


Wśród najbardziej niepokojących technologii wymieniono użycie samochodów bez kierowcy jako broni, generowanie przez AI fake newsów, szantaż na wielką skalę i technologię nakładania obrazów na inne tzw. deepfake.

Możliwości, które oferuje deepfake są nieograniczone. Autorzy artykułu wskazali, że możliwe będzie generowanie filmów i obrazów ze źle zachowującymi się politykami w celu obniżenia ich poparcia społecznego albo udoskonalenie przekrętu "na wnuczka", w którym oszuści będą mogli wygenerować sylwetkę kogoś bliskiego i przekonać starszą osobę, by ta przelała im pieniądze. Wszystkie te rzeczy - zdaniem badaczy - w ciągu najbliższych lat najprawdopodobniej na stałe zadomowią się w e-przestępczym świecie.

– Ludzie wykazują silną skłonność do wierzenia swoim oczom i uszom, więc dowodom dźwiękowym i wizualnym już zwyczajowo daje się dużą wiarę (i często moc prawną), niezależnie od długiej historii oszustw fotograficznych – napisali naukowcy w artykule.

O możliwościach technologi deepfake pisaliśmy już w kontekście chińskiej aplikacji ZAO.
Użytkownik Twittera Allan Xia opublikował ciekawą demonstrację tego, co jest w stanie zrobić ta aplikacja. W 30-sekundowym klipie twarz Leonarda Dicaprio w słynnych momentach z kilku jego filmów została zastąpiona wizerunkiem Xia. Internauta relacjonuje, że klipy zostały wygenerowane w niecałe osiem sekund z jednego zdjęcia. Aplikacja może jednak poprosić użytkownika o zrobienie serii zdjęć, na przykład z zamkniętymi i otwartymi oczami czy ustami, by wygenerować bardziej realistyczne wyniki.

Według Allana Xia aplikacja oferuje tylko ograniczoną liczbę klipów, w które można wstawić swoją twarz. Twórca aplikacji “nauczył” swoje algorytmy pracy na każdym z tych klipów i nie jest możliwa zamiana wizerunku na dowolnym filmie.