Za przyjęciem Aktu o sztucznej inteligencji (AI Act) zagłosował w środę Parlament Europejski. To bardzo istotne i przełomowe rozporządzenie, w którym po raz pierwszy zostaną uporządkowane zagadnienia związane z użyciem AI.

Wejście w życie prawdopodobnie w maju 

To, że przepisy rzeczywiście zostaną przyjęte, wcale nie było oczywiste. Los regulacji był niepewny, zwłaszcza pod koniec ubiegłego roku – wówczas tzw. trilogi, czyli trójstronne negocjacje, utknęły w martwym punkcie. Jednym z powodów było zgłoszenie fundamentalnych wątpliwości dotyczących aktu przez Francję, Niemcy i Włochy. Ostatecznie jednak udało się osiągnąć kompromis, co zostało ogłoszone na początku grudnia. Przyjęcie przepisów przez Parlament Europejski to kolejny istotny etap.

- Tekst musi być jeszcze zaakceptowany przez Radę, następnie opublikowany w oficjalnym publikatorze. Można się spodziewać, że w drugiej połowie maja nabierze on już mocy prawnej – mówi dr Damian Flisak, radca prawny, specjalista w zakresie prawa własności intelektualnej oraz prawa nowych technologii.

Rozporządzenie wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie za dwa lata. Jest jednak w tym zakresie kilka wyjątków. Obejmą one m.in. przepisy nakładające obowiązki dotyczące systemów wysokiego ryzyka (wejdą w życie dopiero 36 miesięcy po ogłoszeniu). Oznacza to jednak, że państwa członkowskie muszą jak najszybciej rozpocząć działania w zakresie wdrażania przepisów. 

Czytaj też: AI Act na finiszu – Polska na razie nie jest gotowa na wdrażanie regulacji

Zmiany będą rewolucyjne 

Od początku prac nad AI Actem wskazywano, że podstawowym celem regulacji jest zapewnienie bezpieczeństwa i ochrony praw w obliczu bardzo szybkiego rozwoju narzędzi opartych na sztucznej inteligencji. Z drugiej strony, ma ona wspierać rozwój innowacji w Europie. Dlatego rozporządzenie określa obowiązki w oparciu o potencjalne ryzyko. Jak wyjaśnia dr Flisak, AI Act właściwie nie znajduje zastosowania w odniesieniu do osób fizycznych, które korzystają prywatnie z modeli AI. W Istocie rzeczy ta regulacja jest nakierowana na roztoczenie nad użytkownikami parasola ochronnego. Właściwym adresatem AI Actu są podmioty zorganizowane, z pewnymi obszarowymi wyłączeniami, jak na przykład zastosowania militarne.

Jednym z ważniejszych rozwiązań ma być stworzenie czterech kategorii poziomów ryzyka w sztucznej inteligencji: niedopuszczalnego, wysokiego, ograniczonego lub minimalnego (braku) ryzyka. Najbardziej restrykcyjnie mają być traktowane systemy zaliczone do pierwszej kategorii, ich użycie ma być bowiem całkowicie zakazane. Chodzi o sytuacje, w których sztuczna inteligencja jest wykorzystywana do pozyskiwania danych wyjątkowo wrażliwych, takich jak dane biometryczne.

- Tak naprawdę ideą rozporządzenia w sprawie sztucznej inteligencji jest to, żeby nadać akceptowalne ramy wykorzystania AI w obszarach, które charakteryzuje wyższe ryzyko wystąpienia nieprawidłowości. Do tego dąży rozporządzenie: żeby danych dotyczących mojego wizerunku, przebytych chorób, miejsc które odwiedziłem, wyglądu, zachowania itd. nie można było w dowolny sposób wykorzystywać i przetwarzać. Ma to z jednej strony dać twórcom wyraźne ramy, w których mogą rozwijać swoje rozwiązania, a osobom fizycznym gwarantować adekwatny poziom ochrony ich praw – zaznacza Jan Ziomek, adwokat, partner w kancelarii Kochański& Partners, ekspert w zakresie nowych technologii i FinTech. 

Dr Flisak podkreśla, że nowe regulacje będą miały niezwykle istotne znaczenie dla większości firm. Będą też wymagały potencjalnie sporych zmian w wewnętrznych systemach.

- Ponieważ cyfryzacja jest wszechobecna, zastosowanie AI może być albo zasadniczym, albo ważnym, albo peryferyjnym obszarem funkcjonowania firm. W każdej z tych sytuacji należy dokonać sumiennego i fachowego remanentu wykorzystywanych algorytmów. Należy zbadać, czy firma korzysta z systemów zabronionych czy obarczonych wysokim ryzykiem. Jeśli tak jest, to należy albo zaniechać korzystania z systemów zakazanych w ciągu 6 miesięcy od wejścia aktu w życie, albo przez 2 kolejne lata stworzyć całe oprzyrządowanie korzystania z systemów wysokiego ryzyka – tłumaczy prawnik.

 

Konieczne wyznaczenie granic

Podczas prac nad AI Actem pojawiały się wątpliwości co do tego, czy przepisy są rzeczywiście potrzebne. Tak było na przykład w przypadku impasu podczas trilogów, kiedy Francja, Niemcy i Włochy w swoich stanowiskach wskazywały na ryzyko zahamowania postępu technologicznego w Europie i zbyt dużą restrykcyjność regulacji. Tego typu argumenty podnosiła również branża technologiczna. Dr Damian Flisak podkreśla jednak, że dla niego ten tok myślenia jest nieracjonalny i niezrozumiały.

- Bezpośrednią przyczyną stworzenia aktu jest uregulowanie tworzenia i funkcjonowania modeli sztucznej inteligencji. Nikt tego nie robi dla jakiejś niezdrowej euforii z kreowania kolejnej regulacji. Sam rynek technologiczny z pewnością nie jest w stanie zabezpieczyć bezpieczeństwa użytkowników, nie dokonałby samoregulacji korzystnej dla użytkowników – podkreśla prawnik.

I zaznacza, że obserwacja rynku najlepiej dowodzi, że jest on bezwzględny, i konieczne jest wyznaczenie granic.

-  Zagarnianie są obszary nawet mało oczywiste. Czy ktoś słyszał o ekspansji technologicznej firmy Google na obszarze rolnictwa i zbierania danych generowanych przez maszyny rolnicze? A to się dzieje. Podobnie rynek najbardziej zaawansowanych modeli AI coraz bardziej się monopolizuje. Rokujące startupy są wykupywane lub w inny sposób sprowadzane na orbitę oddziaływania gigantów technologicznych, czego doświadczyliśmy choćby ostatnio na przykładzie umowy między francuskim Mistralem a Microsoftem – mówi dr Flisak.

I zaznacza, że brak jakichkolwiek przepisów byłby ostatecznym utrwaleniem całkowitej dominacji kilku globalnych marek w świecie AI.