Ustawodawca unijny próbuje zmierzyć się z problemem sztucznej inteligencji. Opublikował właśnie wniosek dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji. Zdaniem dr. Kamila Szpyta, radcy prawnego z kancelarii Dybała Janusz Szpyt i Partnerzy Kancelaria Radców Prawnych, ta próba jest nieco bardziej udana niż poprzednia.

Czytaj w LEX: Odpowiedzialność za sztuczną inteligencję [projekt UE] >>>

Czytaj w LEX: Irytowska Katarzyna - Pułapki sztucznej inteligencji >>>

Przede wszystkim ustawodawca tym razem zdecydował się na uregulowanie wspomnianej kwestie za pomocą dyrektywy.

- Należy to ocenić pozytywnie. Ten rodzaj aktu prawnego jest o wiele bardziej elastyczny niż rozporządzenie, do którego planowano sięgnąć przy okazji wcześniejszego projektu stanowiącego załącznik do Rezolucji Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)). Tym samym lepiej powinien się sprawdzić w kontekście zapewnienia niezbędnej harmonizacji przepisów unijnych z niejednokrotnie dość zróżnicowanymi przepisami funkcjonującymi w państwach członkowskich – uważa dr Kamil Szpyt.

Czytaj w LEX: Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? >>>

Różne uregulowania w państwach członkowskich

Autorzy projektu w uzasadnieniu napisali, że projekt stanowić panaceum na panujący obecnie brak pewności prawa i ryzyko wystąpienia rozbieżności uregulowań w poszczególnych państwach członkowskich. Komplikacje te mogą – według przewidywań - utrudnić rozwój rynku wewnętrznego, a docelowo stanowić istotną przeszkodę w transgranicznym handlu produktami i usługami opartymi na sztucznej inteligencji.

Obecny wniosek odnosi się jedynie do roszczeń pozaumownych. Nie reguluje natomiast materii odpowiedzialności kontraktowej.

- Należy założyć, że w tym przypadku zastosowanie znajdą przepisy ogólne, ze swobodą kontraktowania na czele – mówi Kamil Szpyt.

W kwestii stosowanych definicji Wniosek zawiera sporo odniesień do AI Act (AI - ang. artificial intelligence), w szczególności w zakresie pojęć systemu sztucznej inteligencji i sytemu sztucznej inteligencji wysokiego ryzyka.

- To również należy ocenić pozytywnie. Dotychczas niemalże każdy kolejny akt unijny wprowadzał własne definicje, co rodziło niepotrzebne zamieszanie. To rozwiązanie sygnalizuje szanse na ujednolicenie ustawodawstwa – uważa Kamil Szpyt.

 

Sztuczna inteligencja bez osobowości prawnej

Jak wskazuje radca prawny Marcin Staniszewski, na obecnym etapie prac legislacyjnych nie ma mowy o tym, by nadać AI osobną osobowość prawną, co z kolei oznacza, że za jej działania wciąż odpowiedzialni będą jej operatorzy, czyli osoby, które są odpowiedzialne za proces projektowy lub wprowadzenie danych do systemu.

Czytaj w LEX: Wybrane zagadnienia prawa cywilnego w propozycjach regulacyjnych dotyczących sztucznej inteligencji w Unii Europejskiej >>>

- Odpowiedzialność operatora uzasadnia się kontrolą, jaką sprawuje on nad systemem sztucznej inteligencji i związanym z tym ryzykiem. Przez sprawowanie kontroli nad sztuczną inteligencją rozumie się dowolne działanie operatora, które wpływa na działanie systemu, a w konsekwencji przekłada się na poziom ryzyka dla osób z niego korzystających -tłumaczy Marcin Staniszewski.

Domniemanie winy pozwanego

Wniosek przewiduje wprowadzenie konstrukcji winy domniemanej pozwanego w przypadku szkód spowodowanych przez systemy sztucznej inteligencji wysokiego ryzyka.

- Oczywiście, pozwany wspomniane domniemanie może obalić. Jest to przejaw złagodzenia odpowiedzialności w porównaniu z tą, którą przewidywano w projekcie rozporządzenia stanowiącego załącznik do Rezolucji: tam operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem odpowiadał na zasadzie ryzyka. Nowe rozwiązanie jest niewątpliwie korzystniejsze zarówno dla dostawców takowych systemów, jak i dla ich ubezpieczycieli – tłumaczy Kamil Szpyt.

 

 

Domniemanie winy znajdzie zastosowanie również w przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji, aczkolwiek jedynie w przypadku, gdy sąd krajowy uzna, że udowodnienie przez powoda związku przyczynowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku jest nadmiernie trudne. To rodzi wątpliwości.

- Właśnie każdorazowa wykładnia pojęcia „nadmiernie trudne” może rodzić w przyszłości znaczne rozbieżności w orzecznictwie, a zarazem pewną niepewność własnej sytuacji wśród wspomnianych dostawców i ubezpieczających ich zakładów ubezpieczeń – mówi Kamil Szpyt.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

Sztuczna inteligencja bez obowiązkowej polisy OC

Uchwalenie jednolitych przepisów w zakresie odpowiedzialności na terenie całej Unii Europejskiej powinno ułatwić szacowanie ryzyka do celów ubezpieczeniowych. Sam projekt jednak nie przewiduje wprowadzenia obowiązkowego ubezpieczenia OC, co z kolei znajdowało się we wcześniejszym projekcie rozporządzenia.

-  Co nie przesądza, że takie ubezpieczenie nie zostanie wprowadzone w przyszłości. W uzasadnieniu wniosku zasygnalizowano potrzebę wdrożenia programu monitorowania w celu dostarczania Komisji Europejskiej informacji o incydentach z udziałem systemów sztucznej inteligencji, m.in. w celu dokonania oceny, czy takie ubezpieczenie będzie potrzebne – podkreśla Kamil Szpyt.