Jest zarys pierwszych unijnych przepisów regulujących AI. Jak będą nas chronić?

Sebastian Luc-Lepianka
13 czerwca 2023, 20:08 • 1 minuta czytania
W czwartek Parlament Europejski rozpocznie debatę na temat ostatecznego kształtu ustawy chroniącej przed AI. Poznaliśmy pierwszą wersję aktu. Nowe przepisy podejmą się stworzenia definicji sztucznej inteligencji, zasad zarządzania nią i stworzą organ do wymierzania sankcji.
Ruszą negocjacje w sprawie ustawy o AI. THIERRY MONASSE/REPORTER/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

W czwartek na oficjalnej stronie Parlamentu Europejskiego pojawił się zarys nowych przepisów prawa o tym, jak sankcjonować działanie AI. Opublikowany został briefing oraz dokument, nad którym będą pochylać się europosłowie. Opisuje w detalach, jak w Unii Europejskiej definiowane przez prawo będą sztuczne inteligencje, ich systemy oraz wykorzystywane przy nich techniki.


Oczekiwania Parlamentu

Kompleksowe przepisy mają na celu zapewnienie, żeby systemy AI działające na terenie Unii Europejskiej były, jak czytamy na stronie, "bezpieczne, przejrzyste, identyfikowalne, niedyskryminujące i przyjazne dla środowiska". Według UE sztuczne inteligencje powinny być nadzorowane przez ludzi.

Celem Europarlamentu jest również ustalenie neutralnej technologicznie, jednolitej definicji sztucznej inteligencji, którą będzie można zastosować do powstających w przyszłości systemów. 

Definicja AI

Jak czytamy w dokumencie, PE zauważa, że nie ma żadnej pojedynczej definicji akceptowanej dotąd przez środowiska naukowe, a termin “AI” używany jest szeroko i kojarzony z ludzką inteligencją, niezależnie czy to chatbot, nauczanie maszynowe czy program statystyczny.

Proponowana wstępnie definicja brzmi następująco: “oprogramowanie, które jest stworzone z [specyficznymi] technikami i podejściem [wylistowanym w Aneksie 1] i może mieć podane zestaw zdefiniowanych przez ludzi celów, generować wyniki takie jak kontent, przewidywania, rekomendacje, oraz decyzje wpływające na środowisko, z którym wchodzą w interakcję”

Wspomniany aneks listuje techniki, jakimi dzisiaj są używane przy tworzeniu sztucznej inteligencji. 

Różne stopnie ryzyka AI

Nowe przepisy podejmą się określenia różnych poziomów ryzyka, reprezentowanych przez sztuczną inteligencję, przy czym wiele obecnych systemów ustalono na minimalnym progu. W zależności od poziomu ryzyka, jakim zostanie objęte AI, będą inne obowiązki dostawców i użytkowników programów.

Regulowanie “rozpędzonego pociągu” ma tę zaletę, że minimalizujemy ryzyko jego rozbicia, ale z drugiej strony będzie poruszał się wolniej niż konkurencyjne połączenia.Tomasz Trzcińskilider grupy roboczej Computer Vision w IDEAS NCBR

Proponowane są cztery kategorie: Ograniczonego ryzyka, Generatywne systemu sztucznej inteligencji, Systemy AI wysokiego ryzyka i Systemy AI niedopuszczalnego ryzyka. Wszystkie prócz tych oznaczonych jako grupa ograniczonego ryzyka będą musiały spełnić określone wymogi prawne.

Klasyfikowanie AI

Za zagrożenie niedopuszczalne uznawane są takie zachowania jak poznawczo-behawioralne manipulowanie ludźmi, klasyfikacja obywateli na podstawie ich zachowań i systemy identyfikacji biometrycznej w czasie rzeczywistym. Użycie takich systemów może być wprowadzone na drodze wyjątku np. przez sąd.

Jako wysokiego ryzyka określane są modele stosowane w produktach objętych unijnymi przepisami bezpieczeństwa jak zabawki albo samochody. Grupa ta zajmuje przede wszystkim systemami wpływającymi na bezpieczeństwo i prawa podstawowe, czyli np. edukację, przestępstwa i sprawy zawodowe.

Generatywne modele językowe, jak ChatGPT, muszą spełnić dodatkowe wymogi przejrzystości. Nie będą mogły generować treści nielegalnych czy publikować treści naruszających prawa autorskie.

Systemy ograniczonego ryzyka muszą spełniać minimum zasad przejrzystości, które mają użytkownikom pozwolić na podejmowanie świadomych decyzji. Użytkownicy muszą być świadomi, że komunikują się z AI. Obejmuje to większość znanych nam programów o funkcjach generatywnych. – Unijne instytucje zapewniają, że regulacje zapisane w AI Act dotyczą tak naprawdę tylko komercyjnych zastosowań sztucznej inteligencji i nie ograniczają badań naukowych, więc Unia Europejska nie zostanie w tyle za USA czy Chinami. Jednak założenie, że to co w badaniach nie przenika do biznesu jest dość ryzykowne – zauważa Tomasz Trzciński.

Dalsze kroki

Parlament rozpoczyna negocjacje na temat ostatecznego kształtu ustawy. Planuje, by porozumienie zostało osiągnięte do końca tego roku. 

Za sankcje i zarządzanie ma odpowiadać European Artificial Inteligence Board, czyli Europejski Urząd ds. Sztucznej Inteligencji. Ma zostać zbudowana z członków przedstawicieli państw członkowskich i Komisji Europejskiej.

– W kwestii Europejskiego Urzędu ds. Sztucznej Inteligencji i dyskusji, czy uczynić go  bardziej "policjantem" czy ciałem doradczym pojawia się kwestia: czy możliwe jest skuteczne regulowanie technologii, np. AI, bez żadnego mechanizmu egzekwowania? Ciekawym przykładem jest wczesna regulacja Internetu. W początkowych dniach istnienia Internetu, gdy był to technologia stosunkowo nowa, regulacje były bardzo ograniczone, albo w ogóle nie istniały – tłumaczy Tomasz Michalak, lider grupy roboczej AI dla bezpieczeństwa w IDEAS NCBR.

– Rządy zaczęły wprowadzać bardziej rygorystyczne przepisy i mechanizmy ich egzekwowania, aby rozwiązać najważniejsze problemy: prywatność, prawo własności intelektualnej czy cyberbezpieczeństwo. Myślę, że osoby po 40-stce doskonale pamiętają jak wyglądało przestrzeganie praw własności intelektualnej on-line 20 lat temu. Dlatego nie wierzę w koncepcję "policji AI" teraz. W przyszłości być może tak – podsumowuje Michalak.

Czytaj także: https://innpoland.pl/194702,wywiad-z-peterem-wattsem-pisarz-opowiada-o-ai-i-swiadomosci