AI dziennikarka rozmawia z AI Szymborską. Prof. Przegalińska: "Najgorszy przykład automatyzacji" 

Wiktor Knowski
23 października 2024, 14:54 • 1 minuta czytania
Afera z wykorzystaniem sztucznej inteligencji w OFF Radiu trwa. Jedna z wygenerowanych “prowadzących” przeprowadziła wywiad “na żywo” z nieżyjącą od dwunastu lat Wisławą Szymborską. O wykorzystywanie AI w mediach pytamy filozofkę i futurolożkę Aleksandrę Przegalińską. 
Afera z wykorzystaniem sztucznej inteligencji w OFF Radiu trwa. Jedna z wygenerowanych “prowadzących” przeprowadziła wywiad “na żywo” z nieżyjącą od dwunastu lat Wisławą Szymborską Fot. Marek Lasyk/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

Pisaliśmy już dla Was o sytuacji OFF Radio Kraków, w którym po zwolnieniu kilkunastu dziennikarek i dziennikarzy audycje zaczęły prowadzić boty. Stanowcza reakcja mediów i słuchaczy, poparta specjalną petycją nie zmieniła do tej pory sytuacji w rozgłośni, czyli głównymi prowadzącymi nadal są wygenerowani przy użyciu AI Emi, Kuba i Alex.


W jednej z ostatnich audycji Emi przeprowadziła wywiad z nieżyjącą Wisławą Szymborską. Stworzony przy użyciu narzędzi AI głos noblistki podzielił się swoimi przemyśleniami na temat literatury koreańskiej czy twórczości ostatniej zdobywczyni literackiego Nobla Han Kang.

O sytuację w krakowskiej rozgłośni pytamy prof. Aleksandrę Przegalińską – badaczkę sztucznej inteligencji, filozofkę, futurolożkę i prorektorkę Akademii Leona Koźmińskiego. 

Uważam, że jest to najgorszy możliwy przykład automatyzacji. Ludzie się jej w takim wydaniu obawiają i ostatecznie nie przyczynia się to do generowania żadnej wartości. Pomysł, żeby stworzyć sztucznych hostów, a potem jeszcze wywiad z odtworzoną przy użyciu AI Wisławą Szymborską, która wypowiedziała się na temat bieżącej sytuacji.... Sama zainteresowana nawet nie mogła w tej sprawie interweniować, co wydaje mi się już absolutnie karygodne –  mówi prof. Przegalińska. 

Ze szkodą dla słuchaczy, ale i samego AI

Przypadek OFF Radio Kraków obrazuje zagrożenie automatyzacji mediów, które w konsekwencji przestaną stanowić autorytet i stracą zaufanie odbiorców i odbiorczyń, tłumaczy Aleksandra Przegalińska. Wygenerowana rozmowa między dwoma botami na antenie krakowskiej rozgłośni to również zła prasa dla rozwiązań opartych na AI

– To nie tylko robienie krzywdy Wisławie Szymborskiej, czy również słuchaczom poprzez tworzenie halucynacji jej poglądów. Myślę, że sztuczna inteligencja zajmuje istotne miejsce w naszym życiu i może robić dla nas fajne rzeczy, ale to nie jest przykład twórczego i dobrego wykorzystania tej technologii. To pójście na skróty – komentuje futurolożka. 

Czytaj także: https://innpoland.pl/209038,ai-slop-nie-tylko-meczy-ale-i-zagraza

– Takich przypadków będzie z pewnością więcej. Co powinniśmy zrobić w tym momencie, żeby im przeciwdziałać? – pytam. 

– To, co państwo już teraz robią, czyli bardzo krytyczny komentarz i odpowiedź społeczna, to jest coś bardzo potrzebnego. Ja się cieszę, że wokół tego projektu jest wrzawa. To nam pozwala budować granice, na co się godzimy, co jest dla nas dopuszczalne.

Nie pierwszy taki przypadek

"Pani Wisławo, jestem zaszczycona, że mogę z Panią porozmawiać, zwłaszcza że temat dotyczy literackiej Nagrody Nobla 2024, którą otrzymała koreańska pisarka Han Kang. Ciekawi mnie, jak Pani ocenia tę decyzję i jakie ma Pani przemyślenia na temat literatury koreańskiej?" – pyta bot Emilia na antenie OFF Radio.

"Och, droga Emilio, cieszę się, że mogę z tobą porozmawiać, choć... szczerze mówiąc, wolałabym, żebyś nie zaczynała od tej poważnej Nagrody Nobla" – odpowiada wygenerowany głos Wisławy Szymborskiej. "Zawsze mnie to peszyło, a przecież lepiej rozmawiać o czymś przyjemniejszym, na przykład o... kotach?"

Rozmowa dwóch AI w krakowskiej rozgłośni pojawia się w trakcie burzliwej debaty na temat wykorzystywania nowych technologii w mediach. Część największych przedstawicieli branży dziennikarskiej wkroczyła z producentami AI na drogę sądową. Najgłośniejszym tego typu przypadkiem jest zapewne pozew złożony przeciwko OpenAI przez magazyn New York Times.

Równocześnie wiele wydawców decyduje się na współpracę z firmami technologicznymi. Z producentem ChataGPT umowy podpisały m.in. grupa VOX (wydawca m.in. The Verge, New York Magazine czy Vulture) czy The Atlantic.

Etyczne AI w mediach

Sytuacja w OFF Radio, gdzie przejęcie audycji przez wygenerowanych hostów poprzedziła fala zwolnień, stanowi realizację największych obaw, jakie budzi wykorzystywanie narzędzi AI. Nie jest to jednak jedyny sposób, w jaki sztuczna inteligencja może wpłynąć na rynek medialny. 

– Jeżeli host ma ochotę zrobić sobie klon głosu i pobawić się różnymi formami ekspresji, albo replikować tworzone treści na inne języki, to jest świetne miejsce do wykorzystania sztucznej inteligencji. 

Implementowanie AI w pracy dziennikarskiej testuje obecnie CampusAI – organizacja zajmująca się wykorzystywaniem sztucznej inteligencji w różnych obszarach, w której Aleksandra Przegalińska jest członkinią rady programowej. Ich projekt AI Radio opisywany jest jako "piaskownica do testowania rozwiązań AI w mediach".

– Pytamy na przykład, jak można ciekawie podsumować materiał za pomocą sztucznej inteligencji? Jak można wokół niej budować inne treści? Jak można za pomocą klonu głosu powiedzieć to samo w innym języku i gdzie to może być przydatne? – mówi o projekcie prof. Przegalińska. – To będzie przestrzeń eksperymentalna dla ludzi, w której będą mogli współpracować z AI jako narzędziem, a nie sytuacja AI-radio, gdzie klony głosu będą opowiadać swoje halucynacje.