Istnieje zły brat bliźniak ChatGPT. Tak wykorzystują go przestępcy
Każdy może użyć AI takich jak ChatGPT czy niedawno upubliczniony Bard do tworzenia fałszywych treści, a przestępcy już korzystali ze sztucznie tworzonych głosów do oszustw. Teraz w ich rękach pojawił się WormGPT, moduł sztucznej inteligencji, który ma mieć możliwości popularnych chatbotów, za to zero hamulców moralnych. O groźnym narzędziu poinformował serwis SlashNext, zajmujący się cyberbezpieczeństwem.
Czym jest WormGPT
Zespół badaczy z SlashNext napotkał groźne AI na forum powiązanym z cyberprzestępstwami. WormGPT bazowany jest na darmowym modelu językowym GPT-J z 2021 roku. Został on stworzony na zasadach open source przez EleutherAI, grupę non-profit.
Serwis udostępnił zrzuty ekranu z postów autora bota, z których wynika, że generatywny system wyszkolony został na różnorodnym zakresie danych, ze szczególnym uwzględnieniem złośliwego oprogramowania. Ma więc podobne możliwości co oryginał firmy OpenAI, a przy tym brak jakichkolwiek moralnych barier, narzuconych z góry.
Badacze z serwisu przetestowali WormGPT, wyniki opisali jako "niepokojące". Bot stworzył dla nich realistyczny mail, mający wyłudzić na firmowym księgowym pieniądze na fałszywą fakturę. Autor narzędzia umieścił też przykład złośliwego oprogramowania, jakie stworzyło AI. Łatwość w jego obsłudze może ułatwić kradzieże nawet początkującym przestępcom. O ile najpierw zapłacą.
Złośliwe oprogramowanie w abonamencie
Redakcja PCMag dotarła do cennika za używanie WormGPT. Autor AI chce 60 euro (około 270 złotych) za miesięczną subskrypcję albo 550 euro (około 2475 złotych) za rok użytkowania. Niektórzy internauci zwracają uwagę, że sama oferta... może być oszustwem. Zauważają, że to chatbot oparty o ogólnodostępny model językowy, co samo w sobie nie jest niczym nadzwyczajnym.
"To tylko jakiś gość na gównianym hakerskim forum, trenujący dostępny model open source" napisał użytkownik Reddit na forum r/technology.
Alternatywne, otwarte modele językowe z mniejszymi granicami mają swoje grupy fanów. Używają ich m.in. do rozrywki czy tworzenia treści pornograficznych, co korporacje również starają się wykluczyć ze swoich modeli. ChatGPT stale jest testowany przez użytkowników na tzw. jailbreak, czyli omijanie ograniczeń kreatywnymi sposobami.
W trakcie swojego reportażu odnalazłem wyczerpującą serię poleceń, która zmienia ChatGPT w narratora erotycznej gry tekstowej. Dalej działa. Wypróbowałem ją na Bardzie, ale ten nie dał się złapać.
Niestety zaczął się niebezpieczny trend, gdy nowe technologie i nowe formy marketingu służą cyberprzestępcom, reklamującym się na dark web. Na pomysł oprogramowania w abonamencie wpadł też autor wirusa Meduza.
Czytaj także: https://innpoland.pl/196010,nowe-niebezpieczne-oprogramowanie-czym-jest-meduzaO nowym zagrożeniu "The Meduza Stealer" poinformowali pod koniec czerwca informatycy z zespołu Uptycs Threat Research, monitorujący fora na dark web. Niebezpieczna aplikacja ochrzczona jest od jej autora, postaci określającej się jako Meduza i na cel bierze głównie organizacje z komputerami działającymi na Windows. Może doprowadzić nawet do strat finansowych.