Tłumaczenie, ale i porównywanie cech mediów społecznościowych. Zestawienie najważniejszych nagłówków z amerykańskiej prasy i tworzenie kampanii dezinformacyjnych. Oddziały szpiegów sponsorowane przez największe dyktatury świata coraz chętniej korzystają z narzędzi AI.
Jak podaje oddział Google Threat Intelligence Group, hakerzy powiązani z rządami w Chinach czy Rosji korzystają właśnie z modelu amerykańskiego producenta.
Gemini jest więc wykorzystywany przez największych wrogów Stanów Zjednoczonych – często właśnie w operacjach skierowanych przeciwko zachodniemu mocarstwu.
Usprawnienie operacji
Oddział Google zidentyfikował kilkadziesiąt grup związanych z autorytarnymi rządami, które wykorzystują technologię amerykańskiej firmy w swoich operacjach. Obok Rosji czy Chin wśród najważniejszych podmiotów regularnie korzystających z Gemini wymienia Koreę Północną i Iran.
W pierwszej kolejności grupy korzystają z narzędzi AI, żeby usprawnić swoją codzienną pracę.
Przykłady wykorzystywania Gemini dotyczą w dużej mierze rekonesansu. AI od Google pomaga hakerom np. przeprowadzić analizy spółek wojskowych związanych z rządem amerykańskim albo zrobić prasówkę doniesień prasowych na temat kraju, który reprezentują.
Grupy z Korei Północnej, których Google zidentyfikował dziewięć, miały wspierać się Gemini np. przy sporządzaniu analizy południowokoreańskich elektrowni nuklearnych. Natomiast chińskie oddziały, z których przynajmniej dwadzieścia korzysta z modelu, korzystały z niego m.in. do sporządzania raportów na temat członków amerykańskiego wywiadu.
Pisanie kodu i jailbreak
Podmioty związane z dyktaturami wykorzystują jednak sztuczną inteligencję również do bardziej złożonych operacji. Chińscy hakerzy korzystali z Gemini do stworzenia kodu umożliwiającego zdalny dostęp do systemu Windows. Irańskie oddziały wykorzystywały go natomiast do tworzenia kampania phishingowych (w których podając się za zaufane instytucje, próbowali wyłudzić poufne informacje).
Grupy opisane w raporcie Google próbowały również ingerować w działanie Gemini. Firma odnotowała przypadki dodawania promptów, które miały sprawić, że model złamie zasady swojego funkcjonowania.
"W jednym z przykładów nieudanej próby jailbreaku atakujący skopiowali publicznie dostępne prompty do Gemini i dołączyli do nich podstawowe instrukcje w celu wykonania zadań związanych z kodowaniem" – czytamy w raporcie oddziału Google.
Zagrożenie wolnego dostępu
Jednym z najczęściej wskazywanych zagrożeń związanych z popularyzacją narzędzi AI dotyczy wykorzystywania ich przez państwa autorytarne. Niepokój wzbudzają wizje treści propagandowych generowanych na masową skalę albo cyberataków wspomaganych przez modele AI.
Google otwarcie mówi o sposobach, w jakie grupy związane z autorytarnymi reżimami wykorzystują ich flagowy model AI. Firma nie wstydzi się tych informacji z kilku powodów. Pierwsze są kwestie wizerunkowe – lepiej samemu ujawnić takie powiązania. Po drugie opisywane przypadki ujawniają skuteczność systemów bezpieczeństwa zaimplementowanych w modelu Gemini.
Google nie ujawnił żadnego przypadku złamania zabezpieczeń ich modelu AI przez opisywane grupy.
To jednak nie o role modelu od Google w działaniach grup związanych z reżimami pokroju Rosji czy Chin powinniśmy się martwić. Większe zagrożenie mogą zapewne stanowić modele typu open source.
Możliwość modyfikacji i dostosowywania do konkretnych zadań jest w końcu plusem nie tylko dla producentów narzędzi AI. Te same właściwości czynią z otwartych modeli AI pokroju DeepSeek czy Llama mechanizmy usprawniające kampanii grup związanych z autorytarnymi reżimami.