Pod koniec zeszłego roku 56 proc. firm korzystało ze sztucznej inteligencji (AI) - wynika z badania przeprowadzonego przez McKinsey. Najczęściej sztuczna inteligencja angażowana jest do optymalizacji działań serwisowych, udoskonalenia produktów, automatyzacji contact center, optymalizacji produktów oraz zapobiegania awariom i ułatwiania interwencji.

Ubezpieczyciele, którzy sami także korzystają z AI w swoich działaniach, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody, czy też temperaturę w budynkach to także elementy naszej codzienności – zauważa Mateusz Bartoszcze, radca prawny, zastępca Oddziału Kraków EIB SA.

Czytaj w LEX: Wybrane zagadnienia prawa cywilnego w propozycjach regulacyjnych dotyczących sztucznej inteligencji w Unii Europejskiej >>>

Kto jest odpowiedzialny za sztuczną inteligencję?

Mimo że funkcjonują już na rynku umowy ubezpieczenia, uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody - za działanie bądź niezadziałanie konkretnych urządzeń. Czy odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie. A może brak informacji zwrotnej wynikał z błędów strony trzeciej, np. ubezpieczyciela, który je udostępnił ubezpieczonemu? Samo urządzenie bazujące na AI może też być elementem wprowadzającym dodatkowe ryzyko cybernetyczne, więc awaria i szkody materialne mogą być też wynikiem ataku hakerskiego.

Czytaj w LEX: Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? >>>

– Oprócz kwestii technicznych, musimy też zmierzyć się z problemami etycznymi. Najlepszym przykładem są pojazdy autonomiczne. Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów i „samego siebie”? Czy AI powinna również ocenić potencjalne szkody w otoczeniu? Przykładowo, co jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo i zdrowie pracowników, czy minimalizacja rozmiaru szkód w linii produkcyjnej? To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – mówi Mateusz Bartoszcze.

Czytaj w LEX: Czy "ruch pojazdu" powinien być przesłanką odpowiedzialności za pojazd autonomiczny? >>>

Czytaj w LEX: Odpowiedzialność za szkody wyrządzone przez pojazdy autonomiczne >>>

Odpowiedzialność kontaktowana i deliktowa

W przypadku szkód wyrządzonych przez sztuczną inteligencję wiele zależy od tego, jako szeroko będziemy rozumieli pojęcie odpowiedzialności.

- Ograniczając się jedynie do tej na gruncie cywilnoprawnym, związanej z wyrządzeniem określonej szkody przez oprogramowanie, należy mieć na względzie, że będziemy mieli tutaj zazwyczaj do czynienia przynajmniej z dwoma reżimami odpowiedzialności: kontraktową i deliktową, a nawet z trzema, jeżeli – tak jak niektórzy autorzy – przyjmiemy, że odpowiedzialność za produkt niebezpieczny stanowi osobny reżim – tłumaczy dr Kamil Szpyt, radca prawny z kancelarii Dybała Janusz Szpyt i Partnerzy Kancelaria Radców Prawnych.

 

 

Kluczowa w tym przypadku będzie zazwyczaj odpowiedzialność kontraktowa. - To bowiem właśnie wykonując określone obowiązki umowne dystrybutorzy lub producenci sprzedają urządzenia z zainstalowanym oprogramowaniem czy udostępniają samo oprogramowanie w chmurze. W zależności od rodzaju zawartej umowy (np. sprzedaży, świadczenia usług, licencyjnej, dostarczania treści cyfrowych, wdrożeniowej itd.) różnie będzie kształtował się zakres obowiązków i odpowiedzialności wspomnianego sprzedawcy/producenta/dystrybutora – wyjaśnia Kamil Szpyt.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>>

Odpowiedzialność twórcy będzie zazwyczaj ograniczała się jedynie do odpowiedzialności względem osoby producenta, na zlecenie którego stworzył oprogramowanie, chyba że twórca będzie jednocześnie producentem/sprzedawcą/dystrybutorem.

- Dodatkowo jej zakres będzie warunkowany tym, czy dokonał one tego w ramach umowy o pracę czy umowy cywilnoprawnej. Wyjątkiem będzie tutaj sytuacja, w której takowy twórca np. ukrył celowo w systemie sztucznej inteligencji jakieś dodatkowe, szkodliwe oprogramowane, które następnie uszkodziło lub zinfiltrowało zawartość dysków twardych użytkowników. Wówczas możemy mówić o jego odpowiedzialności deliktowej względem wspomnianych użytkowników – mówi Kamil Szpyt.

Jak wskazuje Paweł Wojskowicz, dyrektor ds. obsługi klienta w Dziale FINPRO, Marsh Sp. z o.o., świadomość możliwych konsekwencji twórców aplikacji i rozwiązań IT oraz ich dystrybutorów wiąże się z umownym wyłączaniem (ograniczaniem) ich odpowiedzialności. Ograniczenia te mogą być oczywiście podważone przez sąd, ale należałoby wykazać winę twórców (lub wprowadzenie w błąd przez dystrybutora) i trudno jest wyrokować jakie argumenty będą przyjmowane przez sąd i w którą stronę pójdzie orzecznictwo.

Podejście takie zmniejsza masowe wykorzystanie rozwiązań o charakterze autonomicznym lub z wykorzystaniem uczenia się maszynowego w przestrzeni publicznej. - Mało kto chce brać na siebie ryzyka, które nie są do końca przewidywalne – dodaje  Paweł Wojskowicz.

 

Jako przykład alternatywnego podejścia do akceptacji ryzyka Wojskowicz podaje Teslę oraz ubezpieczenie OC ich autonomicznych samochodów. Kiedy okazało się, że tradycyjni ubezpieczyciele wyceniają ryzyko związane z ich produktem zauważalnie drożej, niż przy tradycyjnych autach, podjęli decyzję najpierw o współpracy z rynkiem, a wreszcie o otworzeniu własnego ubezpieczyciela.

Kłopoty z odpowiedzialnością za produkt

Obowiązuje też reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie?

- To, że urządzenie działa – przez większość czasu - „poprawnie”, nie oznacza automatycznie, że zapewnia bezpieczeństwo, jakie można oczekiwać uwzględniając normalne użycie produktu. Jako przykład można tutaj wskazać wypadek sprzed miesiąca, który miał miejsce w Rosji, kiedy to robot szachowy, działający – co do zasady – prawidłowo, w pewnej chwili chwycił omyłkowo  zamiast figury szachowej palec siedmioletniego gracza i mu go złamał – tłumaczy mec. Szpyt.

Niekiedy szkoda może powstać w ramach działalności urządzenia realizowanej niejako „obok” jego normalnych/oficjalnych funkcji.

- Jako przykład można tutaj wskazać sytuacje, które niekiedy mają miejsce w ramach tzw. branży SexTech. Mianowicie, producenci zabawek erotycznych sterowanych online za pośrednictwem smartfona czasami zbierają za ich pośrednictwem dodatkowe dane na temat osób z nich korzystających, np. za pomocą mikrofonu dokonując krótszych lub dłuższych nagrań, czy też gromadzą dane geolokalizacyjne. Tego typu działalność, w zależności od konkretnego przypadku, może rodzić po stronie producenta odpowiedzialność  kontraktową, deliktową lub obie jednocześnie – mówi Kamil Szpyt.

Czytaj w LEX: Problematyka sztucznej inteligencji w świetle prawa autorskiego >>>

 

Nie tylko haker odpowiada w razie ataku

Co jednak się stanie, jeśli szkoda spowodowana jest przez atak hakerski? Na pierwszy rzut oka wydaje się, że całą odpowiedzialność za spowodowanie ewentualnych szkód będzie ponosił haker, jako osoba dopuszczająca się czynu niedozwolonego, ale tak wcale nie musi być.

-  Sam fakt, iż atak okazał się skuteczny, ewentualnie – jak daleko idące były jego konsekwencje, może być uzależnione od nieprawidłowości w działaniu, których dopuścił się wcześniej zaatakowany podmiot – tłumaczy Kamil Szpyt.

Mówimy tutaj o sytuacji, w której pewna spółka zapewnia swoim klientom określone rozwiązanie chmurowe wykorzystujące rozwiązania oparte na sztucznej inteligencji lub uczeniu maszynowym, a na skutek działań hakera dochodzi do wycieku danych użytkowników, a jednocześnie sam atak okazuje się skuteczny, gdyż wspomniana spółka nienależycie wywiązała się z ciążących na niej obowiązków kontraktowych i w niewystarczającym stopniu zabezpieczyła swoje oprogramowanie przed podobnymi zdarzeniami. - Wówczas nie budzi wątpliwości, że niezależnie od odpowiedzialności deliktowej hackera, takowa spółka może ponosić odpowiedzialność kontraktową – mówi mec. Szpyt.     

Czytaj w LEX: RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>>

Czytaj w LEX: Iwankiewicz Maciej W., Człowiek i sztuczna inteligencja >>>

Obowiązkowe OC dla sztucznej inteligencji

Nowe rodzaje ubezpieczeń wydają się koniecznością. Już jakiś czas temu UE postanowiła skodyfikować problem za pomocą Artificial Inteligence Act, który m.in. dokonuje m.in. podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne, systemy wyborcze.

W 2020 r. przyjęto rezolucję Parlamentu Europejskiego dotyczącego reżimu odpowiedzialności (2020/2014(INL)) (2021/C 404/05). W odniesieniu do systemów wysokiego ryzyka zaprojektowano nawet obowiązkowe ubezpieczenie odpowiedzialności użytkowników końcowych (operatorów) lub producentów, w zakresie, w jakim odpowiedzialność nie mieściłaby się, lub wykraczała, poza regulacje dotyczące odpowiedzialności za produkt.

– Wydaje się, że zaproponowane rozwiązanie jest dobre, jednak nadal nie mamy konkretnych propozycji. Jedną z barier jest przyjęcie jednolitych definicji. Sądzę jednak, że już w niedalekiej przyszłości pojawią się już pierwsze „standardowe” polisy. Na razie ubezpieczenia uwzględniające lub chroniące AI to produkty szyte na miarę. Patrząc jednak na rozwój technologii i jej roli w naszym życiu, to musi się szybko zmienić – mówi Mateusz Bartoszcze z EIB SA.

Sprawdź w LEX: Błąd medyczny popełniony w trakcie zabiegu przeprowadzonego przy pomocy robota i jego implikacje dla kształtowania się odpowiedzialności odszkodowawczej za działania i zaniechania sztucznej inteligencji. Glosa do wyroków Oberlandesgericht we Frankfurcie nad Menem z dnia 8 listopada 2013 r., 25 U 79/12, i z dnia 7 grudnia 2004 r., 8 U 194/03, oraz w Bambergu z dnia 20 lipca 2015 r., 4 U 16/14 >>>

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź