Czy wspólne zobowiązanie big techów AI jest wykonalne?

Redakcja INNPoland
11 sierpnia 2023, 16:47 • 1 minuta czytania
Technologiczni giganci kładą wszystkie ręce na pokład, aby zapewnić bezpieczeństwo w obszarze AI. Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI formalnie zobowiązały się do nowych standardów w tej dziedzinie. Rewolucja nie powiedzie się, jeśli big techy nie znajdą balansu między własnym a społecznym interesem.
Big techy zobowiązały się do nowych standardów bezpieczeństwa AI. Fot. Pexels/Alex Knight
Więcej ciekawych artykułów znajdziesz na stronie głównej

Giganci zawalczą o bezpieczeństwo AI. Trzy ważne obszary

W świecie, gdzie technologia AI rośnie w siłę, bezpieczeństwo i zaufanie stają się kluczowymi kwestiami.


Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI formalnie zobowiązały się do nowych standardów w dziedzinie bezpieczeństwa, zaufania i ochrony użytkowników po spotkaniu z prezydentem USA z Joe Bidenem w Białym Domu. To zobowiązanie, oznacza znaczący krok w kierunku zapewnienia odpowiedzialnego wykorzystania AI. W teorii.

Przedstawiciele firm zatwierdzili trzy obszary, nad którymi będą wspólnie pracować.

Pierwszy z nich to zapewnienie bezpieczeństwa produktu. W tym kontekście giganci zobowiązali się do przeprowadzenia wewnętrznych i zewnętrznych testów bezpieczeństwa swoich systemów AI przed ich wypuszczeniem na rynek. Zadeklarowali również podzielenie się informacjami dotyczącymi zarządzania ryzykiem AI z całym przemysłem oraz z rządami, społeczeństwem obywatelskim i środowiskiem akademickim.

Drugi obszar to budowanie systemów zorientowanych na bezpieczeństwo. Firmy będą kładły nacisk na inwestowanie w zabezpieczenia przed zagrożeniami cybernetycznymi i wewnętrznymi, aby chronić własnościowe i nieopublikowane wagi modeli, które są najistotniejszą częścią systemu AI. Testowanie to ma na celu ochronę przed znaczącymi zagrożeniami, takimi jak biozabezpieczenia i cyberbezpieczeństwo, oraz szerszymi skutkami społecznymi.

Trzecia kwestia koncentruje się na zdobywaniu zaufania publicznego. W tym kontekście giganci zapewnią użytkownikom zdobywanie wiedzy, kiedy treść jest generowana przez AI.

Firmy zobowiązały się do opracowania mechanizmów technicznych, takich jak system znakowania wodnego, aby użytkownicy wiedzieli, kiedy treść jest generowana przez AI. Zmiany będą również widoczne w obszarze raportowania zdolności, ograniczeń i obszarów odpowiedniego i nieodpowiedniego wykorzystania swoich systemów AI. Zobowiązania te obejmują również priorytetowe badania nad ryzykiem społecznym, które mogą stanowić systemy AI, w tym unikanie szkodliwych uprzedzeń i dyskryminacji oraz ochronę prywatności.

Czy big techy są gotowe na działania społecznie odpowiedzialne?

Rynek już pyta o szczegóły – chce wiedzieć, jak będzie wyglądała praktyczna strona tych zobowiązań. W teorii jest to bowiem znaczący kamień milowy na drodze do odpowiedzialnego AI. Jednak to przyszłość zweryfikuje, czy jest to tylko pobożne życzenie, czy dobry początek rzeczywistych działań.

Piotr Kowynia, CEO Nest Banku, uważa, że to wydarzenie stanowi precedens dla innych firm do naśladowania i kładzie podwaliny pod bardziej formalne regulacje dotyczące AI.

Jednak największe wyzwanie polega na interpretacji tych zobowiązań, ponieważ różni interesariusze mogą je różnie pojmować. Poza tym istnieje potrzeba zrównoważenia potrzeby regulacji z potrzebą wspierania innowacji w dziedzinie AI.

Sytuacja przypomina koncepcję zbiorowej odpowiedzialności. Okaże się, czy big techy są zdolne do działań społecznie odpowiedzialnych, jednocześnie rezygnując z dążenia do własnego interesu i interesu swoich inwestorów.

Żadna innowacja nie powinna odbywać się kosztem praw i bezpieczeństwa obywateli. To, co teraz zostanie zrobione dobrze lub źle, najprawdopodobniej będzie miało wpływ na przyszłość technologii AI.

Użytkownik musi być informowany

– W Nest Banku sztuczna inteligencja wspiera przede wszystkim procesy wewnętrzne, przy użyciu usług opartych na wewnętrznej infrastrukturze. Tak jak każde wdrożenia, również te wykorzystujące AI, są każdorazowo testowane pod kątem bezpieczeństwa teleinformatycznego, aby sprostać wymogom rynkowym i regulacyjnym – przyznaje Mariusz Bukowski, dyrektor departamentu AI i inżynierii danych w Nest Banku.

Ekspert zwraca uwagę na odpowiedzialność, jaka ciąży na podmiotach, które korzystają ze sztucznej inteligencji. – Choć obecnie w Nest!, nie korzystamy z tego typu narzędzi w kontakcie z klientem, to użytkownik powinien być świadomy, że każda instytucja ma obowiązek jasnego informowania użytkownika, a samo narzędzie opatrzone odpowiednią informacją – ocenia.

Wyważenie innowacji z ochroną praw i bezpieczeństwa obywateli będzie kluczem do sukcesu. W miarę jak decydenci na całym świecie będą dążyć do wprowadzenia regulacji, te zobowiązania mogą służyć już jako model dla przyszłych standardów i praktyk.