
Nowe narzędzie od OpenAI zaczyna wymykać się spod kontroli. Od stalkingu po propagandę — Sora 2 stała się zwierciadłem współczesnych lęków o przyszłość internetu, w którym prawda, prywatność i szacunek dla ludzkiej godności zaczynają być towarem deficytowym. Platforma do generowania filmików już wywołuje negatywne efekty.
OpenAI wypuściło swój model AI do generowania wideo zaledwie kilka tygodni temu. Jednak jego krótka historia nie jest przeszkodą w zebraniu wielu przykładów nieetycznych i niemoralnych wykorzystań Sora 2.
Ogromna popularność Sora 2 zaskoczyła Sama Altmana
Popularność narzędzia zaskoczyła samego Sama Altmana, czyli szefa wspomnianego już OpenAI. Przyznał, że niemal od razu po premierze użytkownicy zaczęli generować "nieskończenie wiele" energochłonnych filmów AI.
Nowa aplikacja od OpenAI to połączenie TikToka i generatora wideo z tekstu. Miała otworzyć nową erę kreatywności. W praktyce stała się jednak źródłem AI Slop, czyli zalewu cyfrowych śmieci i źródłem wielu moralnych dylematów.
Wśród wygenerowanych nagrań znalazły się filmy z fikcyjnych przestępstw, brutalne i równie nieprawdziwe sceny pobicia z udziałem znanych osób czy propagandowe klipy polityczne.
Oto pięć najbardziej niepokojących sposobów, w jakie ludzie już dziś wykorzystują Sora 2.
1. Fałszywe nagrania z przestępstw. Sam Altman kradnie w sklepie
Jednym z pierwszych niebezpiecznych trendów, które dało się zauważyć po wypuszczeniu Sora 2, stało się generowanie hiperrealistycznych filmów, które mogą zniszczyć dobrą reputację każdego.
Zaczęło się od nagrania Sama Altmana kradnącego karty graficzne w sklepie Target. Co ciekawe, autorem wideo jest programista OpenAI Gabriel Petersson. Wszystko miało być żartem, ale szybko pokazało, jak bardzo narzędzie może namieszać w przyszłych sprawach w sądzie.
Z jednej strony takie nagranie może posłużyć jako dowód w sprawie, z drugiej każde nagranie mogłoby zostać podważone pod zarzutem, że zostało wygenerowane przez AI.
2. AI w służbie stalkingu. Koszmar dziennikarki Taylor Lorenz
Amerykańska niezależna dziennikarka Taylor Lorenz współpracująca m.in. z WIRED czy Bloomberg podzieliła się ostatnio faktem, że jej prześladowca wykorzystał Sora 2, by generować filmy z jej udziałem.
"To przerażające myśleć, jak AI napędza obsesje mojego stalkera" – napisała na X.
Mężczyzna miał tworzyć setki kont i rozsyłać wygenerowane wideo. Choć samo narzędzie umożliwia blokowanie filmów, gdy użytkownik zauważy, że ktoś wykorzystał jego wizerunek, wiele z nich już "poszło w świat".
Do takich sytuacji dochodzi, ponieważ Sora 2 pozwala użytkownikom generować tzw. Cameos, czyli realistyczne awatary prawdziwych osób. Teoretycznie wymaga to zgody, ale jak wykazały testy, system ochrony nie zawsze działa. W ponad 1,6 proc. przypadków sztuczna inteligencja pozwoliła stworzyć nielegalne treści z udziałem wizerunków prawdziwych osób.
3. Brutalne sceny z udziałem Stephena Hawkinga
Jednym z najbardziej szokujących przykładów nadużycia Sora 2 są nagrania przedstawiające zmarłego fizyka Stephena Hawkinga brutalnie atakowanego w różnych scenach – od walk MMA po ataki zwierząt.
Na niektórych nagraniach wózek mężczyzny zostaje wrzucany na ring, w innych naukowca atakuje krokodyl.
Wręcz za ironię losu można uznać fakt, że Hawking był ostrym krytykiem niekontrolowanego rozwoju sztucznej inteligencji. Dziś to właśnie jego wizerunek jest wykorzystywany do tworzenia upokarzających treści z pomocą AI.
4. "Ludzka stonoga treści". Robin Williams w wersji AI
Córka legendarnego aktora Robina Williamsa Zelda Williams w ostatnim czasie otwarcie potępiła zalew filmów generowanych przez Sora 2 z wizerunkiem jej zmarłego ojca. Niestety system ochrony osób publicznych Sora 2 nie obejmuje osób, które już nie żyją. Nie trzeba tłumaczyć, jak bolesne dla bliskich jest oglądanie takich filmików.
"Przestańcie wysyłać mi te wideo. Nie chcę ich oglądać i nigdy nie zrozumiem, jak można robić coś takiego" – napisała w mediach społecznościowych i porównała kulturę AI do human centipede of content, czyli potwornego łańcucha przetwarzania ludzkiej twórczości w sztuczne, bezduszne repliki.
"Nie tworzycie sztuki – tworzycie obrzydliwe, przeprocesowane parówki z życia prawdziwych ludzi. Jeśli macie choć odrobinę przyzwoitości, przestańcie to robić jemu i mnie, wszystkim, kropka" – dodała córka Robina Williamsa.
5. Propaganda polityczna. Żołnierze kontra protestujący
Z kolei to zjawisko to zostało po raz pierwszy zgłoszone przez Gizmodo. Dziennikarze odnotowali niepokojący wzrost generowanej przez sztuczną inteligencję "protrumpowskiej propagandy" od czasu wydania Sora 2.
Sympatycy Donalda Trumpa zaczęli tworzyć fałszywe nagrania przedstawiające żołnierzy atakujących "agresywnych demonstrantów", w domyśle przeciwników prezydenta USA. Nagrania zdobywają miliony wyświetleń i są często udostępniane jako rzekome dowody przemocy na ulicach amerykańskich miast. I podgrzewają prawdziwe emocje.
"Najlepsze wideo dnia!" – komentują internauci, nie zdając sobie sprawy, że oglądają całkowicie sfabrykowany obraz rzeczywistości.
Takie nagranie to nie tylko problem etyczny, ale i polityczny. Takie materiały mogą kształtować opinię publiczną i uzasadniać użycie siły przez władzę wobec nieistniejącego zagrożenia. Prawda – informacja, że filmik jest kłamstwem wytworzonym przez sztuczną inteligencję – będzie miała znacznie mniejszy zasięg. A to już woda na młyn autorytarnych przywódców.
Zobacz także
