Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL))(2021/C 404/05)
(Dz.U.UE C z dnia 6 października 2021 r.)
Parlament Europejski,
- uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
- uwzględniając art. 114 i 169 Traktatu o funkcjonowaniu Unii Europejskiej,
- uwzględniając dyrektywę Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe 1 (dyrektywa w sprawie odpowiedzialności za produkty),
- uwzględniając dyrektywę 2005/29/WE Parlamentu Europejskiego i Rady z dnia 11 maja 2005 r. dotyczącą nieuczciwych praktyk handlowych stosowanych przez przedsiębiorstwa wobec konsumentów na rynku wewnętrznym (dyrektywę w sprawie nieuczciwych praktyk handlowych) 2 , dyrektywę Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów 3 oraz inne przepisy dotyczące ochrony konsumentów,
- uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych 4 ,
- uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali 5 ,
- uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych 6 ,
- uwzględniając porozumienie międzyinstytucjonalne w sprawie lepszego stanowienia prawa z dnia 13 kwietnia 2016 r. oraz wytyczne dotyczące lepszego stanowienia prawa 7 ,
- uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program "Cyfrowa Europa" na lata 2021-2027 (CoM(2o18)0434),
- uwzględniając komunikat Komisji z dnia 25 kwietnia 2018 r. w sprawie sztucznej inteligencji dla Europy (COM(2018)0237),
- uwzględniając komunikat Komisji z dnia 7 grudnia 2018 r. w sprawie skoordynowanego planu w dziedzinie sztucznej inteligencji (COM(2018)0795),
- uwzględniając komunikat Komisji z dnia 8 kwietnia 2019 r. w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka (COM(2019)0168),
- uwzględniając sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno- Społecznego z dnia 19 lutego 2020 r. na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność (COM(2020)0064),
- uwzględniając Białą księgę Komisji Europejskiej z dnia 19 lutego 2020 r. pt. "Sztucznej inteligencja - Europejskie podejście do doskonałości i zaufania" (COM(2020)0065),
- uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki 8 ,
- uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu 9 ,
- uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia 10 ,
- uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki 11 ,
- uwzględniając swoją rezolucję z dnia 12 lutego 2020 r. w sprawie zautomatyzowanych procesów decyzyjnych - zagwarantowanie ochrony konsumenta oraz swobodnego przepływu towarów i usług 12 ,
- uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. "Wytyczne w zakresie etyki na rzecz wiarygodnej sztucznej inteligencji",
- uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. "Definicja sztucznej inteligencji: podstawowe możliwości i dziedziny zastosowania",
- uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 26 czerwca 2019 r. pt. "Zalecenia polityczne i inwestycyjne na rzecz wiarygodnej sztucznej inteligencji",
- uwzględniając sprawozdanie grupy ekspertów ds. odpowiedzialności i nowych technologii - Forum Nowych Technologii z 21 listopada 2019 r. pt. "Odpowiedzialność w związku ze sztuczną inteligencją i innymi rozwijającymi się technologiami cyfrowymi",
- uwzględniając studium w sprawie oceny europejskiej wartości dodanej przygotowane przez Biuro Analiz Parlamentu Europejskiego, zatytułowane: 'Civil liability regime for artificial intelligence: European added value assessment' ("System odpowiedzialności cywilnej za sztuczną inteligencję: ocena europejskiej wartości dodanej" 13
- uwzględniając dokument tematyczny Zespołu Parlamentu Europejskiego ds. Przyszłości Nauki i Techniki (STOA) z czerwca 2016 r. dotyczący aspektów prawnych i etycznych w związku z robotyką 14 ,
- uwzględniając analizę Dyrekcji Generalnej ds. Polityki Wewnętrznej Parlamentu Europejskiego z października 2016 r., przygotowaną dla Komisji Prawnej, pt. "Przepisy europejskiego prawa cywilnego w robotyce" 15 ,
- uwzględniając art. 47 i 54 Regulaminu,
- uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Transportu i Turystyki,
- uwzględniając sprawozdanie Komisji Prawnej (A9-0178/2020),
A. mając na uwadze, że pojęcie "odpowiedzialności" odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż - z jednej strony - gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wniesienia roszczenia o odszkodowanie i do uzyskania odszkodowania od strony, której udowodniono, że ponosi odpowiedzialność za wyrządzone szkody, zaś - z drugiej strony - stanowi zachętę ekonomiczną dla osób fizycznych i prawnych, by przede wszystkim unikać wyrządzania szkód lub uwzględniać w swoim działaniu konieczność wypłacenia odszkodowania;
B. mając na uwadze, że przyszłościowe ramy prawne odpowiedzialności cywilnej muszą wzbudzać zaufanie do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym do technologii cyfrowej, aby zapewnić równowagę między skuteczną i sprawiedliwą ochroną potencjalnych poszkodowanych a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić przedsiębiorstwom, w szczególności małym i średnim, rozwój nowych technologii, produktów i usług; mając na uwadze, że pomoże to w budowie zaufania i tworzeniu stabilnego
C. mając na uwadze, że system prawny państwa członkowskiego może różnicować zasady dotyczące odpowiedzialności pewnych podmiotów lub zaostrzać je w stosunku do pewnych działań; mając na uwadze, że odpowiedzialność na zasadzie ryzyka oznacza, że strona może zostać pociągnięta do odpowiedzialności pomimo braku winy; mając na uwadze, że w wielu krajowych systemach prawnych oskarżony ponosi odpowiedzialność na zasadzie ryzyka, jeżeli stworzone przez niego zagrożenie dla ogółu społeczeństwa, takie jak związane z wykorzystaniem pojazdu czy niebezpiecznym działaniem, lub też takie, którego nie może on kontrolować, np. przykład wynikające z zachowania zwierząt, powoduje szkodę;
D. mając na uwadze, że wszelkie przyszłe prawodawstwo Unii mające za cel jednoznaczne przypisanie odpowiedzialności w odniesieniu do systemów sztucznej inteligencji (SI) powinny być poprzedzone analizą i konsultacjami z państwami członkowskimi w sprawie zgodności proponowanego aktu ustawodawczego z warunkami gospodarczymi, prawnymi i społecznymi;
E. mając na uwadze, że zagadnienie systemu odpowiedzialności cywilnej za SI powinno być przedmiotem szerokiej debaty publicznej uwzględniającej wszystkie niezbędne interesy, zwłaszcza aspekty etyczne, prawne, gospodarcze i społeczne, aby uniknąć nieporozumień i nieuzasadnionych obaw, jakie technologia ta może wywołać wśród obywateli; mając na uwadze, że dokładna analiza następstw wszelkich nowych ram regulacyjnych dla wszystkich podmiotów uczestniczących w ocenie skutków powinna być warunkiem wstępnym dla dalszych kroków legislacyjnych;
F. mając na uwadze, że pojęcie systemów SI obejmuje dużą grupę różnych technologii, w tym proste statystyki, uczenie się maszyn i głębokie uczenie maszynowe;
G. mając na uwadze, że dzięki używaniu terminu "zautomatyzowane podejmowanie decyzji" można by uniknąć ewentualnej niejednoznaczności terminu SI; mając na uwadze, że "zautomatyzowane podejmowanie decyzji" polega na wstępnym przeniesieniu przez użytkownika podjęcia decyzji, w części lub w całości, na inny podmiot w drodze korzystania z oprogramowania lub usługi; mając na uwadze, że z kolei podmiot ten stosuje następnie modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub informowania o decyzjach użytkownika dotyczących realizacji działania;
H. mając na uwadze, że niektóre systemy SI stanowią istotne wyzwanie prawne dla obowiązujących ram prawnych w zakresie odpowiedzialności i mogą prowadzić do sytuacji, w których brak ich przejrzystości może sprawić, że wskazanie, kto kontrolował ryzyko związane z systemem SI czy też który kod, które dane wejściowe lub dane ostatecznie wywołały szkodliwe działanie, może okazać się bardzo drogie lub niemożliwe; mając na uwadze, że ten czynnik może utrudniać ustalenie powiązania między szkodą a powodującym ją zachowaniem, przez co ofiary mogą nie otrzymać odpowiedniego odszkodowania;
I. mając na uwadze, że te wyzwania prawne wynikają też z powiązań między danym systemem SI a innymi systemami, w tym systemami SI, z ich zależności od danych zewnętrznych, podatności na naruszenia cyberbezpieczeństwa, jak również projektowania coraz bardziej autonomicznych systemów SI z wykorzystaniem m.in. uczenia się maszyn i technik głębokiego uczenia maszynowego;
J. mając na uwadze, że surowe normy etyczne w odniesieniu do systemów SI powiązane z rozsądnymi i sprawiedliwymi procedurami rekompensowania szkód pomagają zająć się tymi wyzwaniami prawnymi i wyeliminować ryzyko, że użytkownicy będą mniej skłonni do zaakceptowania nowej technologii; mając na uwadze, że sprawiedliwe procedury odszkodowawcze oznaczają, że każda osoba, która ucierpiała w wyniku działania systemu SI lub poniosła szkody majątkowe w wyniku działania takiego systemu, powinna korzystać z tego samego poziomu ochrony, który przysługiwałby w przypadkach bez udziału systemów SI; mając na uwadze, że użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące SI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń;
K. mając na uwadze, że pewność prawa jest również zasadniczym warunkiem dynamicznego opracowywania i unowocześniania technologii opartych na SI, w szczególności dla przedsiębiorstw typu startup, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, oraz ich praktycznego zastosowania w życiu codziennym; mając na uwadze, że kluczowa rola przedsiębiorstw typu startup, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, zwłaszcza w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne, umożliwiające im rozwój i innowacyjność;
L. mając na uwadze, że różnorodność systemów SI i zróżnicowanie zakresu zagrożeń, jakie stwarza ta technologia, utrudnia wysiłki na rzecz znalezienia jednego rozwiązania odpowiedniego dla całego spektrum zagrożeń; mając na uwadze, że w związku z tym należy przyjąć podejście, w ramach którego eksperymenty, projekty pilotażowe i piaskownice regulacyjne będą wykorzystywane do opracowywania proporcjonalnych rozwiązań opartych na dowodach, w razie potrzeby uwzględniających konkretne sytuacje i sektory;
Wprowadzenie
1. wyraża przekonanie, że wyzwanie związane z wprowadzeniem systemów SI w społeczeństwie, miejscu pracy i gospodarce jest obecnie jedną z najważniejszych kwestii w działaniach politycznych; technologie oparte na SI mogłyby i powinny poprawić jakość życia w niemal każdej sferze: od życia osobistego, obejmującego np. transport, dostosowaną do potrzeb danej osoby edukację, pomoc osobom znajdującym się w trudnej sytuacji, programy w zakresie fitnessu i przyznawanie kredytów, poprzez środowisko pracy, np. uwolnienie od uciążliwych i powtarzających się zadań, po wyzwania globalne, takie jak zmiana klimatu, opieka zdrowotna, żywienie czy logistyka;
2. jest głęboko przekonany, że aby skutecznie korzystać z zalet systemów SI, przeciwdziałać ich potencjalnemu nadużywaniu i zapobiegać fragmentacji regulacyjnej w Unii, zasadnicze znaczenie ma przyjęcie w całej UE jednolitego prawodawstwa w zakresie wszelkich systemów SI, opartego na konkretnych zasadach i nieulegającego dezaktualizacji; stoi na stanowisku, że choć lepsze wydają się sektorowe przepisy dla szerokiego wachlarza możliwych zastosowań SI, konieczne wydaje się przyjęcie przekrojowych i ujednoliconych ram prawnych opierających się na powszechnych zasadach, by zagwarantować pewność prawa, ustanowić te same normy w całej Unii i skutecznie chronić wartości europejskie i prawa obywateli;
3. stwierdza, że jednolity rynek cyfrowy wymaga pełnej harmonizacji, ponieważ sfera cyfrowa charakteryzuje się bardzo zmienną dynamiką ponadgraniczną i międzynarodowym przepływem danych; uważa, że jedynie poprzez przyjęcie spójnych, powszechnych zasad Unia może osiągnąć cele utrzymania suwerenności cyfrowej i przyspieszenia innowacji cyfrowych w Europie w zgodzie z kulturą innowacji;
4. zauważa, że globalny wyścig ku sztucznej inteligencji już trwa, a Unia powinna odegrać w nim czołową rolę, wykorzystując swój potencjał naukowy i technologiczny; zdecydowanie podkreśla, że rozwój technologii nie może osłabiać ochrony użytkowników przed szkodami, które mogą być powodowane przez urządzenia i systemy wykorzystujące SI; zachęca do promowania unijnych norm odpowiedzialności cywilnej na szczeblu międzynarodowym;
5. wyraża stanowcze przeświadczenie, że nowe, powszechne zasady dotyczące systemów sztucznej inteligencji powinny przyjąć formę rozporządzenia; uważa, że kwestia odpowiedzialności w odniesieniu do szkód spowodowanych przez system SI jest jednym z kluczowych aspektów, którymi należy się zająć w ramach tych przepisów;
Odpowiedzialność a sztuczna inteligencja
6. wyraża przekonanie, że nie ma potrzeby dokonywać całkowitego przeglądu dobrze funkcjonujących systemów odpowiedzialności, ale że złożoność, zdolność do łączenia się, nieprzejrzystość, podatność na zagrożenia, możliwość modyfikowania w drodze aktualizacji, możliwość samodzielnego uczenia się, potencjalna autonomiczność systemów SI i duża liczba zaangażowanych podmiotów stanowią jednak poważne wyzwanie dla skuteczności krajowych i unijnych przepisów ramowych dotyczących odpowiedzialności; uważa, że niezbędne są konkretne i skoordynowane dostosowania systemów odpowiedzialności, by uniknąć sytuacji, w której osoba, która ucierpiała lub poniosła szkody majątkowe, nie otrzyma rekompensaty;
7. zauważa, że wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego; zauważa w tym względzie, że nie jest konieczne nadawanie systemom SI osobowości prawnej; wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów SI może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów SI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe; przypomina, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem SI;
8. uważa, że dyrektywa w sprawie odpowiedzialności za produkty jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt, ale mimo to potrzebny jest jej przegląd w celu dostosowania jej do świata cyfrowego i sprostania wyzwaniom związanym z powstającymi technologiami cyfrowymi, zapewniając tym samym wysoki poziom skutecznej ochrony konsumentów, a także pewność prawa dla konsumentów i przedsiębiorstw przy jednoczesnym unikaniu wysokich kosztów i ryzyka dla MŚP i przedsiębiorstw typu startup; wzywa Komisję, aby oceniła, czy dyrektywę w sprawie odpowiedzialności za produkty należy przekształcić w rozporządzenie, wyjaśniła definicję "produktów", określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak "szkoda", "wada" i "producent"; jest zdania, że w celu zagwarantowania pewności prawa w całej Unii w następstwie przeglądu dyrektywy w sprawie odpowiedzialności za produkty pojęcie "producenta" powinno obejmować wytwórców, twórców, programistów, usługodawców i operatorów back-end; wzywa Komisję, aby rozważyła uchylenie przepisów dotyczących ciężaru dowodu w odniesieniu do szkód spowodowanych przez pojawiające się technologie cyfrowe w jasno określonych przypadkach i po odpowiedniej ocenie; podkreśla, że należy zadbać o to, by uaktualniony unijny akt nadal ograniczał się do jasno określonych problemów, w przypadku których istnieją już wykonalne rozwiązania, i jednocześnie pozwalał na uwzględnienie przyszłych zmian technologicznych, w tym rozwoju opartego na wolnym i otwartym oprogramowaniu; zauważa, że dyrektywę w sprawie odpowiedzialności za produkty należy nadal stosować w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej producenta wadliwego systemu SI, jeżeli system taki można uznać za produkt w rozumieniu tej dyrektywy; podkreśla, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów 16 , aby mieć pewność, że w systemach SI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania;
9. uważa, że obowiązujące w państwach członkowskich prawo deliktów opierające się na winie w większości przypadków przewiduje odpowiedni poziom ochrony osób, które ucierpiały z uwagi na fakt, że strona trzecia, taka jak haker, ingerowała w system, lub które poniosły szkody majątkowe w wyniku działania takiej osoby, ponieważ ingerencja stanowi zazwyczaj zawinione działanie; zauważa, że jedynie w szczególnych przypadkach, w tym kiedy nie można wykryć tej osoby trzeciej lub jest ona niewypłacalna, konieczne wydaje się dodanie przepisów dotyczących odpowiedzialności w celu uzupełnienia istniejącego krajowego prawa deliktów;
10. uważa zatem za stosowne, by w niniejszym sprawozdaniu skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI; potwierdza, że odpowiedzialność operatora można uzasadnić faktem, że kontroluje on ryzyko związane z systemem SI porównywalne z ryzykiem kontrolowanym przez właściciela pojazdu; uważa, że ze względu na złożoność systemów SI oraz ich zdolność do połączeń operator będzie w wielu przypadkach pierwszą, identyfikowalną osobą kontaktową dla poszkodowanego;
Odpowiedzialność operatora
11. stoi na stanowisku, że zasady odpowiedzialności dotyczące operatora powinny obejmować wszelkie działania systemów SI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny czy wirtualny; zauważa, że działania w przestrzeni publicznej, które narażają wiele osób na zagrożenie, wymagają dalszych rozważań; uważa, że potencjalni poszkodowani często nie są świadomi działania systemu i często nie mieliby umów, które dawałyby im prawo do zgłaszania roszczeń wobec operatora; zauważa, że w momencie gdy dojdzie do szkody, osoby takie mogłyby zgłaszać tylko roszczenia na zasadzie winy, a dowiedzenie winy operatora systemu SI mogłoby okazać się trudne i tym samym odpowiednie roszczenia z tytułu odpowiedzialności spełzłyby na niczym;
12. uważa, że pojęcie operatora należy rozumieć jako obejmujące zarówno operator front-end, jak i operator back-end, o ile ten drugi nie jest objęty dyrektywą w sprawie odpowiedzialności za produkty; uważa, że operatora front-end należy zdefiniować jako osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu SI i korzysta z jego działania; stwierdza, że operatora back-end należy zdefiniować jako osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że sprawowanie kontroli należy rozumieć jako dowolne działanie operatora, które wpływa na działanie systemu SI, a tym samym na zakres, w jakim naraża on osoby trzecie na zagrożenia z nim związane; uważa, że takie działania mogłyby wpływać na działanie systemu SI od początku do końca przez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy systemu SI;
13. zauważa, że może dojść do sytuacji, w których mamy do czynienia z większą liczbą operatorów, na przykład z operatorem front-end i back-end; uważa, że w takim przypadku wszystkie podmioty powinny ponosić solidarną odpowiedzialność na zasadzie ryzyka, mając przy tym prawo do proporcjonalnego regresu wobec siebie nawzajem; jest zdania, że proporcje odpowiedzialności powinny być ustalane na podstawie odpowiedniego stopnia kontroli operatorów nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że należy poprawić identyfikowalność produktów, aby móc lepiej wskazywać podmioty zaangażowane na różnych etapach;
Różne zasady odpowiedzialności zależnie od rodzaju ryzyka
14. uznaje, że czynnikiem determinującym odpowiedzialność jest rodzaj systemu SI, nad którym sprawuje kontrolę dany operator; zauważa, że system SI, który z natury wiąże się ze znacznym ryzykiem i działa autonomicznie, potencjalnie zagraża ogółowi społeczeństwa w znacznie większym stopniu; uważa, że w obliczu wyzwań prawnych wynikających ze stosowania systemów SI dla obowiązujących systemów odpowiedzialności cywilnej wydaje się zasadne stworzenie powszechnego surowego systemu odpowiedzialności dla tych autonomicznych systemów SI obarczonych wysokim ryzykiem; podkreśla, że takie podejście oparte na ryzyku, które może obejmować kilka poziomów ryzyka, powinno opierać się na jasnych kryteriach i odpowiedniej definicji wysokiego ryzyka oraz zapewniać pewność prawa;
15. wyraża przekonanie, że system SI stanowi poważne ryzyko, gdy jego autonomiczne działanie wiąże się ze znaczącym potencjałem wyrządzenia szkód jednej osobie lub grupie osób w sposób losowy i wykraczający poza to, czego można zasadnie oczekiwać; wyraża przekonanie, że przy ustalaniu, czy system SI jest obarczony wysokim ryzykiem, pod uwagę należy również wziąć branżę, w której można oczekiwać wystąpienia znacznego ryzyka, a także charakter prowadzonej działalności; wyraża przekonanie, że znaczenie tego potencjału zależy od wzajemnego stosunku między powagą ewentualnej szkody, prawdopodobieństwem zaistnienia szkody i sposobem użycia systemu SI;
16. zaleca, by wszystkie systemy SI obarczone wysokim ryzykiem zostały umieszczone w wyczerpującym załączniku do proponowanego rozporządzenia; biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę w zakresie technologii, Komisja powinna przeprowadzić niezwłocznie przegląd tego załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności uaktualnić go w drodze aktu delegowanego; uważa, że Komisja powinna ściśle współpracować z niedawno utworzonym komitetem stałym, podobnym do istniejących już struktur, a mianowicie Stałego Komitetu ds. Prekursorów czy Komitetu Technicznego ds. Pojazdów Silnikowych, które skupiają ekspertów krajowych z państw członkowskich i inne zainteresowane podmioty; uważa, że zrównoważona reprezentacja w grupie ekspertów wysokiego szczebla ds. sztucznej inteligencji może posłużyć za przykład do utworzenia grupy zainteresowanych podmiotów, w skład której wejdą również eksperci w dziedzinie etyki, a także antropolodzy, socjolodzy i specjaliści ds. zdrowia psychicznego; wyraża również opinię, że Parlament Europejski powinien wyznaczyć ekspertów-konsultantów, którzy będą doradzać niedawno ustanowionemu komitetowi stałemu;
17. uważa, że rozwój technologii opartych na SI jest bardzo dynamiczny i stale przyspiesza; podkreśla, że aby zapewnić użytkownikom odpowiednią ochronę, konieczne jest podejście przyspieszone pozwalające analizować pod kątem potencjalnych zagrożeń nowe urządzenia i systemy wykorzystujące systemy SI, które pojawiają się na rynku europejskim; zaleca jak największe uproszczenie wszystkich procedur w tym zakresie; sugeruje ponadto, aby Komisja rozpoczynała ocenę tego, czy system SI stwarza wysokie ryzyko, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako obarczony wysokim ryzykiem i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej;
18. uważa, że Komisja powinna ocenić, w jaki sposób dane gromadzone, rejestrowane lub przechowywane w systemach SI wysokiego ryzyka do celów gromadzenia dowodów w przypadku szkody spowodowanej przez ten system SI mogłyby być udostępniane i wykorzystywane przez organ dochodzeniowy oraz w jaki sposób można poprawić identyfikowalność i możliwość kontrolowania takich danych przy jednoczesnym uwzględnianiu praw podstawowych i prawa do prywatności;
19. uważa, że zgodnie z surowymi systemami odpowiedzialności w państwach członkowskich proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń; jest zdania, że proponowane rozporządzenie powinno również obejmować poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób; wzywa Komisję do ponownej oceny i dostosowania progów szkód w prawie Unii; jest zdania, że Komisja powinna dogłębnie przeanalizować tradycje prawne we wszystkich państwach członkowskich oraz obowiązujące w nich przepisy krajowe przyznające rekompensatę za szkody niematerialne, aby ocenić, czy włączenie szkód niematerialnych do aktów ustawodawczych dotyczących SI jest konieczne oraz czy jest ono sprzeczne z obowiązującymi ramami prawnymi Unii lub narusza prawo krajowe państw członkowskich;
20. wskazuje, że wszelkie działania sterowane systemami sztucznej inteligencji, urządzenia czy procesy wykorzystujące te systemy, które powodują szkody, ale nie zostały wymienione w załączniku do proponowanego rozporządzenia powinny nadal być objęte odpowiedzialnością na zasadzie winy; uważa, że poszkodowany powinien mieć jednak prawo do domniemania winy operatora, który powinien mieć możliwość uwolnienia się od odpowiedzialności przez udowodnienie, że wywiązał się z obowiązku staranności;
21. uważa, że system SI, który nie został jeszcze oceniony przez Komisję i nowo utworzony stały komitet, a zatem nie jest jeszcze sklasyfikowany jako system wysokiego ryzyka i nie znajduje się w wykazie zawartym w załączniku do proponowanego rozporządzenia, powinien jednak, w drodze wyjątku od systemu przewidzianego w ust. 20, podlegać odpowiedzialności na zasadzie ryzyka, jeżeli spowodował powtarzające się incydenty skutkujące poważnymi szkodami; zauważa, że w takim przypadku Komisja powinna również bez zbędnej zwłoki ocenić potrzebę zmiany tego załącznika w celu dodania tego systemu SI do wykazu; jest zdania, że jeżeli w wyniku tej oceny Komisja podejmie decyzję o umieszczeniu tego systemu SI w wykazie, włączenie to powinno mieć moc wsteczną od momentu pierwszego udowodnionego incydentu spowodowanego przez ten system SI, w wyniku którego doszło do poważnych szkód;
22. wzywa Komisję, aby oceniła potrzebę wprowadzenia przepisów prawnych na szczeblu Unii dotyczących umów w celu zapobiegania klauzulom o braku odpowiedzialności umownej, w tym w relacjach między przedsiębiorstwami i między przedsiębiorstwami a administracją;
Ubezpieczenia a systemy sztucznej inteligencji
23. uważa, że pokrycie zobowiązań z tytułu odpowiedzialności jest kluczowym czynnikiem, który stanowi o sukcesie nowych technologii, produktów i usług; zauważa, że prawidłowe podejście do odpowiedzialności ma również zasadnicze znaczenie dla zadbania o to, by ogół społeczeństwa mógł zaufać nowym technologiom pomimo faktu, że potencjalnie można w związku z nimi ucierpieć lub też że poszkodowany może wystąpić z roszczeniami; odnotowuje jednocześnie, że ten system regulacyjny skupia się na potrzebie wykorzystania i wzmocnienia korzyści oferowanych przez systemy SI przy jednoczesnym wprowadzeniu solidnych zabezpieczeń;
24. jest zdania, że ze względu na znaczny potencjał spowodowania szkody oraz uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2009/103/WE z dnia 16 września 2009 r. w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych i egzekwowania obowiązku ubezpieczania od takiej odpowiedzialności 17 , wszyscy operatorzy systemów SI obarczonych wysokim ryzykiem wymienieni w załączniku do proponowanego rozporządzenia powinni posiadać ubezpieczenie od odpowiedzialności cywilnej; uważa, że taki system obowiązkowych ubezpieczeń dla obarczonych wysokim ryzykiem systemów SI powinien pokrywać odszkodowania w kwocie i zakresie, które wynikają z proponowanego rozporządzeniu; jest świadomy, że taka technologia jest obecnie nadal bardzo rzadka, ponieważ zakłada wysoki stopień autonomicznego podejmowania decyzji, oraz że obecne dyskusje dotyczą głównie przyszłości; uważa jednak, że niepewność dotycząca zagrożeń nie powinna powodować, że składki ubezpieczeniowe będą zbyt wysokie, a tym samym będą stanowić przeszkodę dla badań i innowacji;
25. uważa, że unijny mechanizm odszkodowawczy finansowany ze środków publicznych nie jest właściwym sposobem na usuwanie ewentualnych niedociągnięć systemów ubezpieczeniowych; uważa, że brak danych na temat ryzyka związanego z systemami SI w połączeniu z niepewnością dotyczącą wydarzeń w przyszłości utrudnia sektorowi ubezpieczeń opracowanie dostosowanych lub nowych produktów ubezpieczeniowych; uważa, że pozostawienie opracowania obowiązkowego ubezpieczenia wyłącznie w gestii rynku może doprowadzić do przyjęcia jednego uniwersalnego podejścia charakteryzującego się nieproporcjonalnie wysokimi cenami i niewłaściwymi zachętami, co zachęci operatorów do wybierania najtańszego, a nie najlepszego ubezpieczenia i może stać się przeszkodą dla badań i innowacji; uważa, że Komisja powinna ściśle współpracować z sektorem ubezpieczeń, aby sprawdzić, jak wykorzystać dane i innowacyjne modele do stworzenia polis ubezpieczeniowych oferujących odpowiednią ochronę za przystępną cenę;
Kwestie końcowe
26. zwraca się do Komisji o przedłożenie, na podstawie art. 225 Traktatu o funkcjonowaniu Unii Europejskiej, wniosku dotyczącego rozporządzenia w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji w oparciu o zalecenia przedstawione w załączniku do niniejszej rezolucji;
27. uważa, iż wspomniany wniosek nie pociągnie za sobą skutków finansowych;
o
o o
28. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz zaleceń zawartych w załączniku Komisji i Radzie.