Włącz wersję kontrastową
Zmień język strony
Włącz wersję kontrastową
Zmień język strony
Prawo.pl

Odpowiedzialność za sztuczną inteligencję będzie uregulowana

Parlament europejski po raz kolejny podejmuje próbę uregulowania odpowiedzialności cywilnej za sztuczną inteligencję. Z jej wykorzystywaniem wiąże się problem odpowiedzialności za szkody. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Jak wygląda w tym przypadku odpowiedzialność za produkt? Co z sytuacją, gdy samo urządzenie wprowadza dodatkowe ryzyko?

Odpowiedzialność za sztuczną inteligencję będzie uregulowana
Źródło: iStock

Ustawodawca unijny próbuje zmierzyć się z problemem sztucznej inteligencji. Opublikował właśnie wniosek dyrektywy Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji. Zdaniem dr. Kamila Szpyta, radcy prawnego z kancelarii Dybała Janusz Szpyt i Partnerzy Kancelaria Radców Prawnych, ta próba jest nieco bardziej udana niż poprzednia.

Czytaj w LEX: Odpowiedzialność za sztuczną inteligencję [projekt UE] >>>

Czytaj w LEX: Irytowska Katarzyna - Pułapki sztucznej inteligencji >>>

Przede wszystkim ustawodawca tym razem zdecydował się na uregulowanie wspomnianej kwestie za pomocą dyrektywy.

- Należy to ocenić pozytywnie. Ten rodzaj aktu prawnego jest o wiele bardziej elastyczny niż rozporządzenie, do którego planowano sięgnąć przy okazji wcześniejszego projektu stanowiącego załącznik do Rezolucji Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)). Tym samym lepiej powinien się sprawdzić w kontekście zapewnienia niezbędnej harmonizacji przepisów unijnych z niejednokrotnie dość zróżnicowanymi przepisami funkcjonującymi w państwach członkowskich – uważa dr Kamil Szpyt.

Czytaj w LEX: Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? >>>

Różne uregulowania w państwach członkowskich

Autorzy projektu w uzasadnieniu napisali, że projekt stanowić panaceum na panujący obecnie brak pewności prawa i ryzyko wystąpienia rozbieżności uregulowań w poszczególnych państwach członkowskich. Komplikacje te mogą – według przewidywań - utrudnić rozwój rynku wewnętrznego, a docelowo stanowić istotną przeszkodę w transgranicznym handlu produktami i usługami opartymi na sztucznej inteligencji.

Obecny wniosek odnosi się jedynie do roszczeń pozaumownych. Nie reguluje natomiast materii odpowiedzialności kontraktowej.

- Należy założyć, że w tym przypadku zastosowanie znajdą przepisy ogólne, ze swobodą kontraktowania na czele – mówi Kamil Szpyt.

W kwestii stosowanych definicji Wniosek zawiera sporo odniesień do AI Act (AI - ang. artificial intelligence), w szczególności w zakresie pojęć systemu sztucznej inteligencji i sytemu sztucznej inteligencji wysokiego ryzyka.

- To również należy ocenić pozytywnie. Dotychczas niemalże każdy kolejny akt unijny wprowadzał własne definicje, co rodziło niepotrzebne zamieszanie. To rozwiązanie sygnalizuje szanse na ujednolicenie ustawodawstwa – uważa Kamil Szpyt.

 

Sztuczna inteligencja bez osobowości prawnej

Jak wskazuje radca prawny Marcin Staniszewski, na obecnym etapie prac legislacyjnych nie ma mowy o tym, by nadać AI osobną osobowość prawną, co z kolei oznacza, że za jej działania wciąż odpowiedzialni będą jej operatorzy, czyli osoby, które są odpowiedzialne za proces projektowy lub wprowadzenie danych do systemu.

Czytaj w LEX: Wybrane zagadnienia prawa cywilnego w propozycjach regulacyjnych dotyczących sztucznej inteligencji w Unii Europejskiej >>>

- Odpowiedzialność operatora uzasadnia się kontrolą, jaką sprawuje on nad systemem sztucznej inteligencji i związanym z tym ryzykiem. Przez sprawowanie kontroli nad sztuczną inteligencją rozumie się dowolne działanie operatora, które wpływa na działanie systemu, a w konsekwencji przekłada się na poziom ryzyka dla osób z niego korzystających -tłumaczy Marcin Staniszewski.

Domniemanie winy pozwanego

Wniosek przewiduje wprowadzenie konstrukcji winy domniemanej pozwanego w przypadku szkód spowodowanych przez systemy sztucznej inteligencji wysokiego ryzyka.

- Oczywiście, pozwany wspomniane domniemanie może obalić. Jest to przejaw złagodzenia odpowiedzialności w porównaniu z tą, którą przewidywano w projekcie rozporządzenia stanowiącego załącznik do Rezolucji: tam operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem odpowiadał na zasadzie ryzyka. Nowe rozwiązanie jest niewątpliwie korzystniejsze zarówno dla dostawców takowych systemów, jak i dla ich ubezpieczycieli – tłumaczy Kamil Szpyt.

 

 

Domniemanie winy znajdzie zastosowanie również w przypadku roszczenia odszkodowawczego dotyczącego systemu sztucznej inteligencji, aczkolwiek jedynie w przypadku, gdy sąd krajowy uzna, że udowodnienie przez powoda związku przyczynowego między winą pozwanego a wynikiem uzyskanym przez system sztucznej inteligencji lub faktem nieuzyskania przez taki system wyniku jest nadmiernie trudne. To rodzi wątpliwości.

- Właśnie każdorazowa wykładnia pojęcia „nadmiernie trudne” może rodzić w przyszłości znaczne rozbieżności w orzecznictwie, a zarazem pewną niepewność własnej sytuacji wśród wspomnianych dostawców i ubezpieczających ich zakładów ubezpieczeń – mówi Kamil Szpyt.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

Sztuczna inteligencja bez obowiązkowej polisy OC

Uchwalenie jednolitych przepisów w zakresie odpowiedzialności na terenie całej Unii Europejskiej powinno ułatwić szacowanie ryzyka do celów ubezpieczeniowych. Sam projekt jednak nie przewiduje wprowadzenia obowiązkowego ubezpieczenia OC, co z kolei znajdowało się we wcześniejszym projekcie rozporządzenia.

-  Co nie przesądza, że takie ubezpieczenie nie zostanie wprowadzone w przyszłości. W uzasadnieniu wniosku zasygnalizowano potrzebę wdrożenia programu monitorowania w celu dostarczania Komisji Europejskiej informacji o incydentach z udziałem systemów sztucznej inteligencji, m.in. w celu dokonania oceny, czy takie ubezpieczenie będzie potrzebne – podkreśla Kamil Szpyt.

 

 

----------------------------------------------------------------------------------------------------------------------------------------------

Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów LEX jest zależny od posiadanych licencji.

Polecamy książki biznesowe