Unia Europejska bierze się za AI. Pierwszy akt regulujący sztuczną inteligencję

Sebastian Luc-Lepianka
18 maja 2023, 11:58 • 1 minuta czytania
Ten rok sponsorują dwie literki – AI, czyli skrót od sztucznej inteligencji. Prawo ma to do siebie, że wolniej aktualizuje się niż obecna technologia. Unia postawiła w końcu kroki w kierunku regulacji.
Dzisiaj padnie zielone światło dla przepisów regulujących AI. Wojciech Strozyk/REPORTER/East News
Więcej ciekawych artykułów znajdziesz na stronie głównej

AI pisze eseje, tworzy muzykę, kopiuje grafiki, bez wysiłku odtwarza czyiś głos i twarz. To ledwo wierzchołek góry lodowej możliwości tej technologii. Gwałtowność jej rozwoju była zaskoczeniem dla wielu, a co za tym idzie, dla prawa.


Bo nie ukrywajmy, obecnie przeżywamy coś jak dziki zachód na froncie sztucznej inteligencji. Jakie rozwiązania przyniesie Unia Europejska?

Unia Europejska zakasała rękawy

Przepisy dotyczące AI były proponowane już w 2021 roku. Wtedy jeszcze powszechnie dostępne narzędzia, jak ChatGPT, nie były brane pod uwagę. Czy ktokolwiek z nas wyobrażał sobie, że zmiana przyjdzie tak szybko? Wprowadzenie chatbota na rynek rozwiało wszystkie wątpliwości parlamentarzystów bloku europejskiego.

UE wznosi sztandar technologicznych regulacji, nadganiając swoich rywali z zachodu i wschodu. Do tej pory rezultaty były mieszane i skupione wokół specjalistycznych zastosowań, jak autonomiczne pojazdy.

Nowy złoty standard

Legislatorzy skupiają się tym razem dookoła spraw etycznych i zagrożeń społecznych, jakie prezentują sobą rewolucyjne technologie. Nowe normy bezpieczeństwa mają chronić m.in. transformacje życie codziennego, miejsca pracy, edukację, prawa autorskie i prywatność.

Wśród wymienianych zagrożeń znalazły się np. zastosowania AI do manipulacji wyborami , odczytywanie biometrycznych danych ludzi i systemy odczytywania emocji w użyciu przez siły porządkowe.

Ważnym punktem mają być również normy dotyczące składania skarg na działania i szkody wyrządzone przez sztuczne inteligencje.

Europa pierwszym blokiem regionalnym, który znacząco podejmie się wyzwania regulacji AISarah ChanderStarszy Doradca Polityczny ds. Praw Cyfrowych w Europie

Nowe przepisy mają być zatwierdzone dzisiaj w Parlamencie Europejskim i trafić pod negocjacje pomiędzy przedstawicielami dwudziestu siedmiu państw członkowskich, członkami Parlamentu i Komisji Europejskiej. Głosowanie odbędzie się w czerwcu.

Z wersją przepisów z 2021 roku możecie zapoznać się tutaj. Zapowiedzi nowych przeczytacie z kolei tu.

Co u sąsiadów?

Google trzy lata temu argumentowało, żeby UE nie zmieniała przepisów w kierunku AI. Patrząc na to, jak większość konferencji I/O 2023 poświęcili AI i jego standardów bezpieczeństwa, widzimy, jak nawet technologiczny gigant nie przewidział wszystkiego.

W maju 2023, prezydent USA Joe Biden spotkał się z głowami korporacji Apple, Google i Microsoftu, w celach omówienia zagrożeń związanych z AI. Administracja Demokratów zadeklarowała, że zainwestuje 140 milionów dolarów w ustanowienie siedmiu nowych instytutów badawczych poświęconych sztucznej inteligencji, podczas gdy zarząd Białego Domu ma ogłosić niedługo regulacje jak agencje rządowe mogą korzystać z AI.

Chiny wydały już pierwszy draft przepisów regulujących użycie systemów generatywnych jak ChatGPT. Aljazeera donosi, że chińskie firmy będą zmuszone rejestrować produkty z AI w Administracji Cyberprzestrzeni Chin i będą pociągane do odpowiedzialności za legitymalizacę źródeł danych, na jakich trenują soft. Do tego nie mogło zabraknąc nacisku cenzury z Pekinu i zagrożenia karami finansowymi oraz więzieniem.

Chiny jednocześnie rozwijają własne technologie AI. W ubiegłym miesiąc serwis Alibaba pokazał swój generatywny model językowy Tongyi Qianwen (można to przetłumaczyć na "prawdę z tysiąca pytań), który ma być zintegrowany z aplikacją. Rząd komunistyczny stosuje też AI w systemie zaufania społecznego. UE ma na celu zapobieganie powstawania takich systemów.

Jak pilne potrzebne są regulacje?

Sam prezes firmy OpenAI, odpowiadającej za powstanie ChatGPT, ostrzegał przed rozwojem generatywnej technologii. Ostrzegał, że AI może podważyć nawet uczciwość wyborów. Więcej o jego wypowiedzi pisała Maria Glinka.

Czytaj także: https://innpoland.pl/194033,prezes-openai-ostrzega-swiat-sztuczna-inteligencja-wymaga-uregulowania

Jego zdaniem USA powinny przemyśleć, czy nie trzeba wdrożyć wymagań licencyjnych i testowych dla rozwoju modeli AI.

– Myślę, że potrzebujemy zasad, wytycznych, dotyczących tego, czego się oczekuje od firmy dostarczającej model sztucznej inteligencji – przekonywał przed senacką Podkomisją Sądownictwa do spraw Prywatności, Technologii i Prawa.

Podczas wystąpienia Altman apelował, aby podjąć globalną współpracę w obszarze sztucznej inteligencji. W jego ocenie należy także wdrożyć zachęty do przestrzegania norm bezpieczeństwa w tym obszarze.