Unijne rozporządzenie kompleksowo regulujące kwestie dotyczące używania sztucznej inteligencji (AI Act) to wciąż przełomowy akt prawny, i to nie tylko w skali europejskiej. Prace toczą się od dłuższego czasu – w czerwcu Parlament Europejski przyjął w tej sprawie stanowisko negocjacyjne, a obecnie nadal trwają trójstronne negocjacje (tzw. trilogi, czyli tajne negocjacje pomiędzy PE, Radą i Komisją Europejską). Zakładano, że w czasie spotkania, które ma odbyć się dziś, tj. 6 grudnia, uda się je zakończyć i przejść do kolejnych etapów. Prawdopodobnie tak się jednak nie stanie. 

- Niestety stoi ono obecnie pod wielkim znakiem zapytania, a to ze względu na stanowisko Francji, Niemiec i Włoch, które dość nieoczekiwanie sprzeciwiły się regulowaniu modeli podstawowych, argumentując, że hamowałoby to rozwój europejskich systemów AI. 18 listopada br. państwa te opublikowany wspólny dokument, tzw. non-paper, który odzwierciedla wspólne stanowisko trzech głównych gospodarek europejskich w kwestii modeli podstawowych – wyjaśnia dr Gabriela Bar, radczyni prawna, specjalistka z zakresu prawa nowych technologii i sztucznej inteligencji.

To z kolei wpłynie na dalsze wydłużanie momentu wejścia regulacji w życie. 

Czytaj w LEX: Akt o sztucznej inteligencji [projekt UE] >

- AI Act nadal znajduje się na etapie trójstronnych negocjacji, niestety na razie wiele wskazuje na to, że nie uda się zamknąć negocjacji do końca tego roku. Warto też przypomnieć, że akt przewiduje aż dwuletnie vacatio legis, więc przy założeniu, że zostanie on przyjęty w przyszłym roku, zacznie obowiązywać de facto dopiero w 2026 – mówi dr Damian Flisak, radca prawny, specjalista w zakresie prawa własności intelektualnej oraz prawa nowych technologii.

Czytaj w LEX: Model systemowego przeciwdziałania dyskryminacji algorytmicznej - uwagi na tle projektu aktu w sprawie sztucznej inteligencji >

Jak wskazuje ekspert, długość procedur w tym przypadku może być problemem, ponieważ nowe technologie, których dotyczy rozporządzenie, rozwijają się niezwykle szybko.

- Wystarczy podać jako przykład Chat GPT, który funkcjonuje od listopada zeszłego roku, a zdążył już naprawdę sporo zmienić w naszej rzeczywistości – przypomina dr Flisak.

Czytaj też: Unijne rozporządzenie o sztucznej inteligencji nie wyeliminuje ryzyka nadużyć​ >>

 

„Miękka” regulacja zamiast sztywnych przepisów?

Łukasz Wieczorek, radca prawny i partner w kancelarii Konieczny Wierzbicki, zaznacza, że prace nad aktem, mimo że teoretycznie zmierzają ku końcowi, wciąż są trudne - przede wszystkim właśnie ze względu na niespodziewaną reakcję trzech państw. 

- Ostatnie dyskusje koncentrują się nad kwestią modeli podstawowych oraz General Purpose-AI (GPAI). W tym zakresie Niemcy, Francja i Włochy sprzeciwiły się sztywnej regulacji na rzecz regulacji „miękkiej”, czyli opartej o samoregulację i kodeksy dobrych praktyk – wyjaśnia. 

Czytaj w LEX: Agencja Unii Europejskiej ds. Cyberbezpieczeństwa, Dobre praktyki cyberbezpieczeństwa dla sztucznej inteligencji >

Na skomplikowanie całej sytuacji wpływa także fakt, że w czerwcu przyszłego roku przypadają wybory do Parlamentu Europejskiego. Jeśli więc nie udałoby się do tego czasu uchwalić AI Act, mogłoby to zostać odebrane jako przejaw nieskuteczności unijnego prawodawcy. Dlatego, zdaniem prawnika, na tym etapie wcale nie można wykluczyć, że charakter unijnego aktu jeszcze się zmieni. Pozwoliłoby to bowiem w pewnym sensie na wyjście z sytuacji „z twarzą”.

- Takim rozwiązaniem może być pójście w stronę „miękkiej” regulacji (nie zamykając jednak sobie definitywnie drogi do głębszej regulacji), co wpisywałoby się w kierunki regulacyjne obierane przez inne kraje czy organizacje (np. spoglądając na Executive Order Prezydenta USA czy Kodeks dobrych praktyk G7). Asumptem do tego może być przypadek modeli podstawowych (np. Chat GPT), które stały się powszechnie dostępne na przestrzeni ostatniego roku i przez to istotnie zmieniły nie tylko reguły gry biznesowej, ale i skutkowały kolejnymi zmianami projektu AI Act. Ten przypadek doskonale bowiem ilustruje, że nieelastyczna regulacja prawna nie będzie nadążała za zmieniającą się rzeczywistością. UE mogłaby użyć tego przykładu, by uzasadnić poprzestanie na projekcie „miękkiej” regulacji – uzasadnia mec. Wieczorek.

Czytaj też w LEX: ChatGPT i prawo autorskie Unii Europejskiej >

 

Całkowite zakazy mogą wpłynąć na użyteczność

Przypomnijmy, że unijny AI Act zakłada, że przepisy mają opierać się na stworzeniu czterech kategorii poziomów ryzyka w sztucznej inteligencji: niedopuszczalnego, wysokiego, ograniczonego lub minimalnego (braku) ryzyka. Najbardziej restrykcyjnie mają być traktowane systemy zaliczone do pierwszej kategorii, ich użycie ma być bowiem całkowicie zakazane. Stwarzają one potencjalnie najwyższe zagrożenie zarówno pod kątem etycznym, jak i związanym z wykorzystaniem danych wrażliwych. Chodzi na przykład o pozyskiwanie danych biometrycznych w czasie rzeczywistym w przestrzeni publicznej czy wpływanie bezpośrednio na zachowania i psychikę przez manipulację.

Czytaj też: RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>

Celem jest oczywiście jak najszersza ochrona użytkownika, jednak eksperci zwracają uwagę, że sprawa nie jest wcale tak oczywista, jak mogłoby się wydawać na pierwszy rzut oka. O zmiany w tym zakresie zaapelował m.in. Związek Cyfrowa Polska, który niedawno przekazał swoje uwagi do Brukseli. Ich zdaniem, zakazy powinny zostać jeszcze raz przeanalizowane i zrewidowane.

- Eksperci proponują, aby klasyfikacja wysokiego ryzyka uwzględniała jedynie jasno określone sytuacje stwarzające rzeczywiste zagrożenie. Inaczej, wprowadzenie całkowitych zakazów może w sposób niezamierzony wpłynąć na użyteczność technologii AI – podkreślają w uwagach.

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  
POLECAMY

Prokonsumenckość nadmiernie posunięta?

Jak wyjaśnia dr Flisak, AI Act jest tak naprawdę zwierciadłem politycznych podziałów, jakie obecnie można zaobserwować w Parlamencie Europejskim. Obecnie przy głosie są przede wszystkim środowiska lewicowo-centrowe, dlatego rozporządzenie jest nastawione szczególnie na ochronę użytkownika, konsumenta, i generalnie na prawa człowieka.

- Nie powiedziałbym, że to źle, ale z drugiej strony mam poczucie, że ta prokonsumenckość jest niekiedy nadmiernie  posunięta. I może to w przyszłości negatywnie odbić się na „drugim biegunie” regulacji, czyli na innowacyjności, stworzeniu pewnej swobody dla rozwijania sztucznej inteligencji, czyli tego co przecież już za chwilę może ocalić człowieka przed nim samym. Mam tutaj na myśli choćby kolosalne zmiany klimatyczne na naszej planecie – zauważa ekspert.

Czytaj też w LEX: Sztuczna inteligencja tworzona przez człowieka, ukierunkowana na osobę ludzką i przez nią kontrolowana >

Dr Flisak zaznacza jednak, że – pomijając pewne mankamenty – nie podziela chóru negatywnych głosów, które pojawiły się w trakcie tworzenia regulacji, jeszcze w trakcie prac w Komisji Europejskiej. Zauważa bowiem, że stworzenie pierwszego aktu poświęconego sztucznej inteligencji jest po prostu szalenie trudne, a przyjęta logika rozporządzenia jest, jego zdaniem, prawidłowa.

- Nie ma też jakiegoś wielkiego ryzyka, że przyjęte przez Komisję podejście szybko się zdezaktualizuje, raczej będzie na bieżąco korygowane i uzupełniane. Można też założyć, że akt o sztucznej inteligencji, w swojej zasadniczej mierze, nie zmieni się już do momentu przyjęcia – ocenia ekspert.

Czytaj też: Człowiek i sztuczna inteligencja >>

Z kolei mec. Wieczorek zaznacza, że argumenty dotyczące zbyt rygorystycznego podejścia do zakazów użycia AI istotnie wymagają dalszego przemyślenia. Mogłoby to bowiem faktycznie zagrozić konkurencyjności rozwoju sztucznej inteligencji w Europie.

- Można śmiało założyć, że w dającej się przewidzieć przyszłości jeszcze niejednokrotnie zostaniemy zaskoczeni możliwościami, jakie zaoferuje nam AI. Rozsądne wydaje się więc podejście bazujące na szacowaniu i mitygacji ryzyka wynikającego ze stosowania narzędzi AI, które już są i które dopiero mogą pojawić się na rynku – podkreśla mec. Wieczorek.

Zobacz nagranie szkolenia w LEX: Prawne aspekty sztucznej inteligencji >

 

Bezpieczeństwo ważniejsze niż zyski

Jednak zdaniem dr Gabrieli Bar, argumenty dotyczące „sztywności” regulacji nie są uzasadnione. Temu ma bowiem służyć właśnie ocena ryzyka. Przypomina też, że regulację w obecnym kształcie popiera znacząca większość - Parlament Europejski i większość krajów UE w Radzie, europejskie przedsiębiorstwa (w tym liczący 45 000 członków European SME Alliance), niezliczeni eksperci AI i ponad 80 proc. ankietowanych obywateli UE.

- Stanowisko „antyregulacyjne” odzwierciedla dwa lata intensywnego lobbowania ze strony największych amerykańskich firm technologicznych, które próbują zapobiec regulacji AI w imię swoich zysków i dominacji na rynku, a także ostatnio niemieckich i francuskich korporacji zajmujących się sztuczną inteligencją. Uważam, że ważniejsze niż zyski wielkich przedsiębiorstw jest bezpieczeństwo, postrzeganie europejskich innowacji (w tym systemów AI) jako solidnych i etycznych oraz przede wszystkim - ochrona praw człowieka – podsumowuje dr Bar.

Czytaj też w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >