W powszechnym odbiorze terminu „sztuczna inteligencja” lub „AI” (z ang. Artificial Intelligence) używa się do opisu wielu, często odmiennych technologicznie rozwiązań. Z każdym z nich wiązać mogą się inne skutki i ryzyka prawne. Dlatego kwestia ta nabiera szczególnego znaczenia  przy każdej próbie opisu zagadnień prawnych.

Sztuczna inteligencja dzisiaj to - w powszechnym odbiorze - termin bardzo pojemny, używany dla urządzeń elektronicznych oraz systemów komputerowych, które potrafią analizować środowisko, do którego zostaną przypisane oraz uczyć się i działać w odpowiedzi na bodźce pozyskane z danego środowiska.

Czytaj: Informatyczne algorytmy odmienią pracę prawników>>

Potrzeba ustawowej definicji
Próba zdefiniowania sztucznej inteligencji budzi naturalną pokusę dokonania takiego samego zabiegu także w ramach ustawodawstwa. Na potrzebę precyzyjnego zdefiniowania sztucznej inteligencji w ramach prawnych wskazał już Parlament Europejski oraz Europejski Komitet Ekonomiczno-Społeczny. Jak dotąd jednak, żadna konkretna oraz odpowiednio ostra definicja nie została wskazana, co w kontekście tempa rozwoju nowych technologii czyni tę kwestię jeszcze bardziej palącą.
Regulacja zjawiska AI powinna rozpoczynać się od ustalenia jej zakresu przedmiotowego i podmiotowego – tym samym precyzyjnego zdefiniowania jakie zjawisko technologiczne należy uznać za sztuczną inteligencję w jej rozumieniu.  Taka ustawowa definicja charakteryzować powinna się więc z jednej strony maksymalną ostrością (tak, aby nie budzić dodatkowych wątpliwości prawnych), z drugiej jednak strony będzie ona musiała być uniwersalna technologicznie w takim stopniu, aby nie ograniczała rozwoju technologii, a jednocześnie była w stanie realizować cele ustawodawcy pomimo takiego rozwoju. Warto mocno podkreślić, że to właśnie  ostrość definicji może być kluczowa dla rynku, który musi mieć pewność czy podlega danej regulacji czy nie.

Czytaj: GLH 2018: firmy informatyczne wchodzą na rynek prawny>>

Podstawowe koncepcje prawne
Sztuczna inteligencja to duże wyzwanie także dla znanych dzisiaj w systemie prawa podstawowych koncepcji prawnych. Istnieją takie modele technologiczne sztucznej inteligencji, których ujęcie w znane dzisiaj ramy prawne może okazać się bardzo utrudnione. Dobrym przykładem takiego zagadnienia jest kwestia ważności oświadczenia woli wyrażanego przez lub za pomocą sztucznej inteligencji.  Kwestia ta może nabierać szczególnego znaczenia w przypadku sztucznej inteligencji, która wykazuje samodzielność w podejmowaniu decyzji.

Polska nauka prawa oraz orzecznictwo stosunkowo spójnie akceptuje tzw. obiektywne teorie oświadczeń woli wskazujące na to, że to zewnętrzny objaw oświadczenia i jego odbiór jest decydujący dla jego oceny. Niemniej jednak wydaje się, że nawet najbardziej liberalne teorie oświadczeń woli nie przewidują sytuacji w której to maszyna (np. algorytm samouczący) w wyniku autonomicznego (tj. bez czynnego udziału człowieka) działania podejmie decyzję oraz wyrazi tę decyzję w stosunku do podmiotu prawa cywilnego.



Od interpretacji tego, czy wyrażone w taki sposób oświadczenie woli można uznać za oświadczenie określone w polskim prawie cywilnym, zależeć będzie ważność realizowanej z jego wykorzystaniem czynności prawnej. Oznacza to, że przy najmniej korzystnej interpretacji, np. w przypadku działania chatbota podejmującego decyzję w sposób autonomiczny, interakcja takiego chatbota z klientem w celu zawarcia umowy może oznaczać, że zawarta w ten sposób umowa jest nieważna. Ten jeden tylko przykład pokazuje wyraźnie, że lista potencjalnych tematów prawnych do rozstrzygnięcia w kontekście sztucznej inteligencji jest ciągle otwarta i wymaga stosownego uregulowania

Problematyczna odpowiedzialność
Autonomiczne działanie sztucznej inteligencji stwarza też szereg wyzwań pod kątem odpowiedzialności. Polskie prawo cywilne pozwala na przypisanie odpowiedzialności danemu podmiotowi w przypadku możliwości zidentyfikowania tak zwanego adekwatnego związku przyczynowego pomiędzy działaniem tego podmiotu a zdarzeniem skutkującym szkodą. Wydaje się, że przypisanie odpowiedzialności jakiemukolwiek podmiotowi za działalność autonomicznej sztucznej inteligencji może być więc bardzo utrudnione. Taka sztuczna inteligencja działać może bowiem w znacznym stopniu niezależnie od swojego właściciela. Z całą pewnością rozważyć należy, czy korzystanie z określonych rodzajów sztucznej inteligencji nie powinno zostać objęte np. odpowiedzialnością opartą o zasady ryzyka.

Czy będzie regulacja
Rezolucja Parlamentu Europejskiego wskazuje wprost, że Komisja Europejska powinna zająć się tematyką sztucznej inteligencji. Poruszane zarówno przez Parlament Europejski, jak i przez Europejski Komitet Ekonomiczno-Społeczny, tematy wymagające regulacji dotykają szerokiej gamy dziedzin. Z opublikowanych dokumentów wnioskować można, że przyszła regulacja dotyczyć będzie mogła np. obowiązkowej rejestracji czy też wdrożenia odpowiednich zabezpieczeń działalności sztucznej inteligencji.

Podczas gdy na poziomie organów Unii Europejskiej regulacje sztucznej inteligencji nie ujrzały jeszcze konkretnego kształtu ustawodawczego i pozostają w fazie konsultacji, istnieją już jurysdykcje, w których inicjatywy ustawodawcze przybierają konkretne kształty.

Z informacji medialnych płynących z Estonii wynika, że tamtejszy rząd pracuje nad konkretną regulacją, która między innymi miałaby wskazywać granice, których samodzielnym programom (lub robotom) nie wolno przekraczać czy też zreformować kształt prawa prywatnego w kierunku dostosowania do wyzwań wynikających z AI.

Regulatorzy europejscy dostrzegają więc zarówno zagrożenia, jak i korzyści płynące ze sztucznej inteligencji. Taka odpowiedzialna regulacja mogłaby położyć fundamenty pod rozwój branży w danym kraju. Jej całkowity brak może rodzić dalsze wątpliwości prawne, a w ekstremalnym wypadku zahamować rozwój branży. Z całą pewnością finalny kształt ewentualnych regulacji podlegać będzie jeszcze wielomiesięcznym szerokim dyskusjom. Warto więc, aby branża technologiczna zaangażowała się w proces konsultacyjny oraz legislacyjny.

Autor: Łukasz Łyczko, radca prawny w PwC Legal