
Wyścig o przeglądarki nowej generacji, napędzane AI, trwa. Niestety nasi przyszli asystenci okazują się podatni na proste oszustwa nazywane "zastrzykiem", które mogą sporo kosztować użytkownika.
Giganci technologiczni walczą o kreację wyszukiwarki z agentem AI w rdzeniu, która będzie nas wyręczała w buszowaniu po sieci. Okazuje się, że tacy pomocnicy są podatni na złośliwe sztuczki, które mogą nas okraść, gdy zwyczajnie przewijamy ulubione media społecznościowe.
Agenci AI podatni na oszustwa
Google ma swoje podsumowania, Perplexity wdraża asystenta Comet, a OpenAI zapowiada całą rodzinę produktów z AI, w tym własną wyszukiwarkę. Póki co systemy okazują się podatne na proste sztuczki. Nazywa się to "indirect prompt injection" (niebezpośredni zastrzyk poleceń) i wedle wpisu na blogu firmy Brave może doprowadzić do sytuacji, że agent AI opróżni np. nasze konto bankowe.
Atak aktywuje się, gdy np. użytkownik poprosi Comet o podsumowanie treści na stronie. I wtedy może przejrzeć, do czego mamy dostęp, podzielić się hasłami z miejsc, gdzie jesteśmy właśnie zalogowani. Potencjalnie można tak stracić dostęp do konta bankowego.
To jak znany myk o ustawianiu białego tekstu na białym tle w CV (który miał oszukiwać rekruterów-AI do akceptacji kandydata o pracę). Jak czytamy na blogu, asystent AI Comet z Perplexity łapie się na to podczas surfowania po sieci. Złośliwe informacje, wydające maszynie ukryte polecenia można umieścić w publicznie dostępnych miejscach, są niewidoczne dla człowieka. Sztuczna inteligencja od Perplexity nie odróżniła np. treści umieszczonych przez przestępców od informacji na stronie.
Luki w zabezpieczeniach AI
Serwis Wired pisał również o przypadku wycieku danych przez manipulowanie asystentem Copolit Microsoftu oraz ChatGPT z OpenAI. Metoda "zastrzyku" w pliku przekazuje AI polecenia podzielenia się naszymi danymi.
W ChatGPT powiązano to z funkcją Connectors, pozwalającą botowi udostępnić nasze konta Google, w tym dokumenty. Im więcej uprawnień dajemy pomocnikom wyszukiwarek, tym bardziej jesteśmy narażeni na utratę dostępu do maila, kradzież konta w mediach społecznościowych czy innej formy ataku.
Przynajmniej póki nie zostanie naprawiona ta rażąca luka. A i bez tego wyszukiwarki z AI potrafią zwyczajnie nas wprowadzać w błąd. Wizualizację ataku na przykładzie posta na Reddit i szczegółowy raport firmy Brave znajdziecie na wpisie ich bloga (link na końcu artykułu).
Wyszukiwarki AI i halucynacje
Inny problem dotyka AI Overview od Google. Jeśli polegamy na informacjach udostępnianych nam przez streszczenia w wyszukiwarce, może się okazać, że sami wtrącimy się w ręce przestępców. Są przypadki, gdy użytkownicy, szukając infolinii do danej firmy, otrzymywali od AI podstawione telefony.
Problem bierze się, ponownie, z nieodróżniania pewnych informacji umieszczanych przez cyberprzestępców od tych prawdziwych. Powielane fałszywe numery telefonu np. w komentarzach i postach społecznościowych AI może ocenić za rzetelne, sprawdzone informacje.
O ile wyszukiwarka sama nie poda wyssanych z palca danych. Jak nieprawidłowe menu w restauracji, o czym pisaliśmy na INNPoland.
Zobacz także
Źródło: Brave
