Jednym z najgorętszych medialnych tematów od wielu miesięcy jest bez wątpienia sztuczna inteligencja i jej wpływ na rozmaite sfery codziennego życia. Wśród wielu poruszanych w mediach zagadnień z tego obszaru nie brakuje także i tych odnoszących się do tzw. AI Act, czyli pierwszego na świecie aktu prawnego kompleksowo regulującego korzystanie ze sztucznej inteligencji. AI Act stanowi unijne rozporządzenie, którego tekst od wielu miesięcy był przedmiotem uzgodnień. 13 marca 2024 r. Parlament Europejski uchwalił tę regulację prawną, a aktualnie oczekuje ona na formalne zatwierdzenie przez Radę UE. Jako rozporządzenie, ta regulacja będzie stosowana bezpośrednio przez państwa członkowskie UE. Przewiduje się, że wejście w życie AI Act nastąpi w maju lub czerwcu tego roku, przy czym w pełni (z nieznacznymi wyjątkami) przepisy zaczną obowiązywać po upływie 24 miesięcy od wejścia w życie. Zważywszy na względnie nieodległy termin obowiązywania AI Act, warto zapoznać się już teraz z jego podstawowymi założeniami.

Czego i kogo dotyczy AI Act?

Ujmując tę kwestię w dużym uproszczeniu, unijne rozporządzenie jest adresowane przede wszystkim do osób tworzących i wprowadzających na unijny rynek systemy sztucznej inteligencji. AI Act – który aktualnie nie ma jeszcze oficjalnego tłumaczenia na język polski – na samym wstępie definiuje „system AI” będący przedmiotem regulacji. W dość rozbudowanej i pojemnej definicji podkreśla się, iż jest to system oparty na działaniu maszyny, który może wykazywać autonomię, i który generuje określone treści. Rozporządzenie wprowadza również pojęcia „dostawcy” (provider) oraz „wdrażającego” (deployer) – i to przede wszystkim w odniesieniu do ich praw lub obowiązków kształtowane są przepisy tego aktu. „Dostawca” to osoba (może być to również osoba prawna, czy instytucja publiczna), która – ujmując generalnie – rozwija system AI i wprowadza go na rynek. Z kolei „wdrażający” (deployer) to użytkownik systemu, z wyjątkiem takich użytkowników, który korzystają ze sztucznej inteligencji w celach prywatnych, a nie zawodowych. Rozporządzenie stosuje się również do importerów czy autoryzowanych przedstawicieli dostawców mających siedzibę poza terytorium Unii.

Czytaj też: AI Act wkrótce zmieni firmową rzeczywistość - warto się już przygotowywać

Kluczowe obszary regulacji

Rozporządzenie opiera się na kilku podstawowych założeniach, których konsekwencją są określone regulacje. Pierwszym z nich, i zdecydowanie najważniejszym, jest przyjęcie, że korzystanie ze sztucznej inteligencji może powodować ryzyko (związane z powstaniem ogólnie pojętej szkody) o różnym natężeniu. W zależności od stopnia ryzyka można rozróżnić jego cztery rodzaje, mianowicie: nieakceptowalne, wysokie, ograniczone oraz minimalne. Systemy stwarzające ryzyko nieakceptowane będą rzecz jasna zakazane.

Wyrazem tego założenia jest art. 5 Rozporządzenia, który wylicza niedozwolone systemy AI. Przykładowo należą do nich systemy tworzące bazy wizerunków, czy też służące do wnioskowania o emocjach osoby fizycznej, stosowane w miejscu pracy, lub w instytucji edukacyjnej, jak też systemy klasyfikujące osoby fizyczne na podstawie ich danych biometrycznych, w celu wyciągnięcia wniosków o określonych aspektach życia prywatnego (np. poglądów politycznych) jednostek. Natomiast systemy cechujące się mniejszym ryzykiem, tj. spełniające kryteria tzw. „systemów wysokiego ryzyka” są dozwolone, jednakże przy spełnieniu kryteriów wskazanych w treści rozporządzenia.

Kolejnym założeniem jest transparentność modeli generatywnych sztucznej inteligencji. Innymi słowy, przed wprowadzeniem określonych systemów na rynek, powinny one spełnić pewne określone standardy. Dotyczy to systemów, które mogą mieć potencjalnie duży wpływ na społeczeństwo.

U podstaw AI Act stoi także ochrona praw podstawowych. W związku z tym wprowadzono do treści rozporządzenia – konkretnie art. 27 – obowiązek przeprowadzenia oceny wpływu systemów wysokiego ryzyka na prawa podstawowe. Ocena ta powinna być dokonywana przez podmioty świadczące usługi użyteczności publicznej.

Naruszenie obowiązków wprowadzonych rozporządzeniem

Niewywiązywanie się z obowiązków nałożonych przez AI Act przez właściwe jednostki będzie skutkowało odpowiedzialnością finansową. Przykładowo, stosowanie wspomnianych wyżej systemów AI cechujących się nieakceptowalnym ryzykiem, wskazanych we wspomnianym już art. 5 Rozporządzenia, może skutkować nałożeniem kary w wysokości 35 mln euro lub – w przypadku, gdy naruszającym postanowienie jest spółka – do 7 proc. całkowitego obrotu tej spółki na świecie, w danym roku finansowym.

 

Nowość
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Biuro i Rada ds. Sztucznej Inteligencji

AI Act przewiduje także powołanie do życia instytucji w postaci Biura oraz Rady ds. Sztucznej Inteligencji. Zadania Biura związane będą z nadzorem na określonymi systemami AI, wypracowywaniem standardów, a także nadzorowaniem przestrzegania przepisów. Biuro – zgodnie z art. 64 Rozporządzenia – ma działać w ramach Komisji Europejskiej.

Natomiast Rada ds. Sztucznej Inteligencji została ustanowiona artykułem 65 AI Act, zgodnie z którym ma ona składać się z przedstawicieli państw członkowskich. Jej zadaniem będzie przede wszystkim doradzanie Komisji.

Ocena nowej regulacji

Ogólnie rzecz biorąc, uregulowanie zasad dotyczących systemów sztucznej inteligencji zasługuje ze wszech miar na aprobatę. Biorąc pod uwagę coraz powszechniejszą dostępność takich systemów, przy ich jednocześnie rosnącym wpływie na społeczeństwa oraz jednostki, powstanie regulacji prawnej, która będzie eliminowała ryzyka związane z korzystaniem ze sztucznej inteligencji jest pożądane. Z drugiej strony, aktualnie wypracowany tekst AI Act jest także przedmiotem krytyki. Zarzuca się mu m.in. wprowadzenie znacznej liczby wyjątków od podstawowych zasad, co czyni ten akt prawny niejako „dziurawym”. Wskazuje się też na możliwość obejścia przepisów. Pojawiają się także głosy, że twórcom AI act przyświecał inny cel, niż ochrona obywateli EU i ich praw podstawowych – a mianowicie, iż chodzi raczej o wsparcie spółek działających na terytorium EU w rozwoju przez nie systemów AI, co wynika z niezbyt restrykcyjnych ograniczeń nałożonych tym aktem.

Jakkolwiek by było, nie ulega wątpliwości, że korzystanie ze sztucznej inteligencji wymaga interwencji ustawodawcy. Czas pokaże, czy AI Act to interwencja niewystarczająca, czy też przeciwnie – proporcjonalna do skali ryzyka i korzyści płynących z rozwoju sztucznej inteligencji.

Alicja Rytel, adwokat w kancelarii Patpol Legal Piróg i Wspólnicy