O tym, że technologia rozwija się w zawrotnym tempie nikogo nie trzeba przekonywać. Urządzenia, które dziś wydają się być nieodłączną częścią naszego życia, jeszcze kilkanaście czy kilkadziesiąt lat temu zdawały się być jedynie wymysłem futurologów. Potrzebne do tego dobre prawo, które powinno być stabilne i przewidywalne, ale założenie to niejednokrotnie powoduje, że nie nadąża ono za nowymi technologiami.

Jak zatem znaleźć równowagę między stanowieniem dobrego prawa, ochroną obywateli przed nadużyciami, zapewnieniem uczciwej konkurencji na rynku, a wspieraniem innowacyjności, otwarciem gospodarki na nowe technologie i sprostaniem wymaganiom współczesnego świata?

Czytaj: Autonomiczne pojazdy raczej nieprędko na polskich drogach>>
 

Maszyna parowa z internetu

Historia pokazuje, że przełomowe momenty w dziejach ludzkości budziły tyleż ciekawość, co lęk. Chęć zminimalizowania, czy uniknięcia ryzyka niejednokrotnie prowadziły do absurdalnych sytuacji i pozostawiały nadmiernie ostrożnych daleko w tyle. Jednym z najbardziej spektakularnych przykładów jest brytyjski Locomotive Act z 1861 roku, a właściwe jego poprawka z 1865 roku, zwana potocznie Ustawą o czerwonej fladze (ang. Red Flag Act). Zakładała ona, że pojazd mechaniczny musiał być prowadzony przez trzy osoby, przy czym jedna z nich była zobowiązana biec z czerwoną flagą lub – w nocy – latarnią w ręku ok. 55 metrów przed pojazdem i w ten sposób ostrzegać innych użytkowników dróg. Dopuszczalna prędkość w miastach wynosiła 2 mile na godzinę (ok. 3 km/h), a poza miastem do 4 mil na godzinę (ok. 6 km/h), zapewne z uwagi na kondycję i zdrowie biegnącego przed pojazdem człowieka.

Najbardziej restrykcyjne zapisy ustawy uchylono 31 lat później, ale rozwój motoryzacji w Wielkiej Brytanii został skutecznie zahamowany. Kiedy francuscy i niemieccy inżynierowie opracowywali nowe modele pojazdów parowych i spalinowych, Brytyjczycy nadal poruszali się powozami. Tak oto, wprowadzając nadmiernie restrykcyjne regulacje dla nowej technologii i przemysłu, Wielka Brytania pozbawiła się udziału w narodzinach motoryzacji, a zaległości z XIX wieku de facto nigdy nie zostały nadrobione.

 


Nadążać za wyzwaniami

Jaki z tej lekcji płynie wniosek? Nowe regulacje były z pewnością niezbędne, ale te, które wprowadzono, nie szły z postępem. Utrwalały przeszłość, zamiast kształtować przestrzeń dla przyszłości. We współczesnym świecie, jeszcze bardziej niż w tym z XIX wieku, oznacza to dla instytucji odpowiedzialnych za aparat legislacyjny konieczność dynamicznego dostosowywania się do bieżących wyzwań.

Dla branży transportowej i logistycznej będą to zmiany wynikające z pojawienia się pojazdów autonomicznych. To, obok zaawansowanych robotów, druku 3D i nowych materiałów, kluczowy element fizycznego megatrendu technologicznego dzisiejszych przemian cywilizacyjnych, o którym w 2016 roku pisał Klaus Schwab, założyciel Światowego Forum Ekonomicznego w Davos, w książce The Fourth Industrial Revolution. Drugi megatrend dotyczy przemian cyfrowych z internetem, urządzeniami mobilnymi, dostępnością mocy obliczeniowych, gromadzeniem i przetwarzaniem danych. Trzeci związany jest biologią, a zwłaszcza zrozumieniem kodu DNA człowieka i możliwościami jego modyfikacji. Z prawnego punktu widzenia każde z tych zjawisk trzeba zdefiniować, określić dla niego odpowiednie normy prawne, wyznaczyć ich zakres i sankcje za zachowanie niezgodne z prawem.

Czytaj: Kierowcy ciężarówek nie będą potrzebni?>>
 

Pojazd autonomiczny, czyli między smartfonem a maluchem

Jak dotąd nie ma prawnej definicji samochodu autonomicznego. Według amerykańskiej National Highway Traffic Safety Administration istnieje sześć poziomów autonomiczności pojazdów, od pełnej kontroli kierowcy, poprzez częściową automatyzację, po pełną autonomiczność, w której zadaniem kierowcy jest tylko wprowadzenie adresu miejsca docelowego. Zgodnie z tym podziałem prawdziwie autonomicznych pojazdów jeszcze nie ma, choć proces automatyzacji trwa i dynamicznie się rozwija.

W Unii Europejskiej istnieje zbliżona do amerykańskiej klasyfikacja poziomów automatyzacji SAE (International Society of Automotive Engineers) z 2014 roku, wyróżniająca sześć podzielonych na dwie kategorie poziomów: 0-2, w których kierowca jest odpowiedzialny za monitorowanie otoczenia oraz musi być gotów na przejęcie kontroli, i 3-5, w których kierowca nie musi już obserwować otoczenia, a pojazd przejmuje kontrolę nad wszystkimi aspektami jazdy. Póki co jednak, w art. 8 Konwencji wiedeńskiej o ruchu drogowym czytamy, że „każdy pojazd w ruchu lub zespół pojazdów w ruchu powinien mieć kierującego” i „każdy kierujący powinien stale panować nad swoim pojazdem”.

Ustawa pozwala na testowanie pojazdów autonomicznych

Od 22 lutego 2018 r. w polskiej ustawie z 20 czerwca 1997 r. Prawo o ruchu drogowym są przepisy dotyczące testowania samochodów autonomicznych. W Oddziale 6 dotyczącym wykorzystania dróg na potrzeby prac badawczych nad pojazdami autonomicznymi, art. 65k mówi, że „Ilekroć w niniejszym rozdziale jest mowa o pojeździe autonomicznym, należy przez to rozumieć pojazd samochodowy, wyposażony w systemy sprawujące kontrolę nad ruchem tego pojazdu i umożliwiające jego ruch bez ingerencji kierującego, który w każdej chwili może przejąć kontrolę nad tym pojazdem”.

Profesor Marta Litwińska-Werner podkreśla, że problem jest znacznie szerszy. Brakuje przede wszystkim legalnej definicji robota w naszym systemie prawa, co z perspektywy pojawienia się pojazdów autonomicznych wydaje się mieć podstawowe znaczenie. Najpopularniejsze zasady funkcjonowania inteligentnych urządzeń w świecie rządzonym przez człowieka sformułował amerykański pisarz science-fiction i profesor biochemii Isaac Asimov, na długo zanim przestały one być jedynie wytworem fantastyczno-naukowej wyobraźni.

Trzy prawa robotów

  • Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  • Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  • Robot musi chronić sam siebie, chyba że stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
    (Isaac Asimov, Zabawa w berka, 1942)


Kto odpowie za kolizję robota?

Wizja oddania robotom pełnej kontroli nad transportem wydaje się być jeszcze odległa. Należy jednak mieć świadomość tego, że technologia sztucznej inteligencji rozwija się dynamicznie, a pytania dziś jeszcze czysto teoretyczne stają się niemal z dnia na dzień coraz ważniejsze. Zanim w pełni zautomatyzowane pojazdy zaczną poruszać się po naszych drogach, trzeba rozstrzygnąć chociażby kwestie odpowiedzialności za szkody powstałe w wyniku wypadków i kolizji. Według obecnych przepisów, odpowiedzialność tę ponosi jeden z uczestników ruchu drogowego. Co jednak, jeśli pojazd autonomiczny porusza się bez udziału człowieka? Czy winę ponosi autonomiczny system, czy może człowiek, który ten system zaprojektował i zaprogramował? I jak obliczyć wysokość składek? Jakie kryteria zastąpią dotychczasowy czynnik związany z doświadczeniem kierowcy? Zdaniem prof. Marty Litwińskiej-Werner możliwe są trzy rozwiązania – odpowiedzialność producenta, odpowiedzialność posiadacza, a w modelach teoretycznych rozważa się także odpowiedzialność robota.

Dotychczasowe testy pojazdów autonomicznych w normalnym ruchu drogowym pokazują, że przyczyną niemal każdej kolizji jest błąd ludzki, bowiem pojazdy te poruszają się wyłącznie w granicach oprogramowania wymyślonego przez człowieka. W nieodległej jednak przyszłości, systemy oparte na sztucznej inteligencji, tj. samouczące się i mające zdolność analizowania informacji z prędkością znacznie większą niż ludzki mózg, będą umiały zareagować na nieprzewidziane sytuacje i komunikować między sobą.

Adwokat dr Marcin Radwan-Röhrenschef podkreśla, że na dzisiaj sądy nie pozostawiają złudzeń – ostateczna odpowiedzialność spoczywa na człowieku. W wyroku Sądu Rejonowego dla m. st. Warszawy z 5 stycznia 2016 r., V W 2488/15 czytamy: „W przypadku prawidłowej obserwacji drogi obwiniona nie powinna dostrzec samochód marki H. przed zaistnieniem zderzenia, powinna się wówczas zatrzymać i ustąpić pierwszeństwa przejazdu samochodowi marki H. Zaś w razie wystąpienia trudności z właściwą obserwacją drogi obwiniona winna zapewnić sobie pomoc innej osoby, np. jednego z pasażerów jej pojazdu. Wskazać należy przy tym, że system wspomagający parkowanie, tj. kamery cofania oraz czujki parkowania, nie gwarantują uniknięcia kolizji”.

Także Parlament Europejski w rezolucji z 16 lutego 2017 o przepisach prawa dotyczących robotyki stwierdza w pkt. 53, że w zakresie odpowiedzialności „przyszły instrument prawny powinien być oparty na szczegółowej ocenie (…), czy należy zastosować odpowiedzialność na zasadzie ryzyka czy też podejście zakładające zarządzanie ryzykiem”. W kolejnych punktach zaznacza, „że odpowiedzialność na zasadzie ryzyka wymaga jedynie dowodu powstania szkody oraz ustalenia związku przyczynowo-skutkowego pomiędzy szkodliwym funkcjonowaniem robota a szkodą, jaką poniosła dana osoba”. Natomiast podejście zakładające zarządzanie ryzykiem nie skupia się na osobie, która działała w sposób niedbały jako ponoszącej odpowiedzialność indywidualną, ale na osobie, która może, w określonych okolicznościach, zminimalizować ryzyko i podjąć działania w odniesieniu do negatywnych skutków”. Parlament Europejski „jest zdania, że po wskazaniu ostatecznie odpowiedzialnych stron ich odpowiedzialność powinna zasadniczo być proporcjonalna do poziomu instrukcji, jakie wydano robotowi, i stopnia jego autonomii; (…) przynajmniej na obecnym etapie odpowiedzialność musi spoczywać na człowieku, a nie na robocie; (…) ewentualnym rozwiązaniem złożonego problemu ustalania odpowiedzialności za szkody spowodowane przez coraz bardziej autonomiczne roboty może być ubezpieczenie obowiązkowe, na wzór ubezpieczeń samochodowych”.

 


Rewolucja przemysłowa także w prawie

Czwarta rewolucja przemysłowa jest faktem i nic jej nie powstrzyma. Rozwój najnowszych technologii opartych na sztucznej inteligencji postępuje szczególnie dynamicznie w Stanach Zjednoczonych i w Chinach. By dotrzymać im kroku i nie popełnić błędu Wielkiej Brytanii sprzed 150 lat, Unia Europejska uruchamia dodatkowe środki finansowe – 20 mld euro rocznie – na prace nad sztuczną inteligencją. Rezolucja Parlamentu Europejskiego i komunikat Komisji Europejskiej „Sztuczna inteligencja dla Europy” określają ramy prac instytucji unijnych w tym obszarze. Jednak większe wydatki nie zastąpią ram prawnych, a zwłaszcza określenia zasad bezpieczeństwa i odpowiedzialności korzystania z technologii, która może stanowić bardzo niebezpieczne narzędzie. Wiąże się to z udostępnianiem danych i prywatnością, warunkami korzystania  ze zautomatyzowanych urządzeń i ryzykiem konsekwencji ich wad bądź uszkodzeń, odpowiedzialnością producenta, właściciela bądź użytkownika za ewentualne nieprzewidziane wydarzenia.

Adwokat dr Justyna Tokarzewska zaznacza, że nowe technologie wiążą się z potężną dysproporcją wiedzy konsumenta o technologii a jego oczekiwaniami. Ustawodawca będzie stał przed dylematem, jak uregulować ochronę konsumenta przy korzystaniu z narzędzi opartych o sztuczną inteligencję uwzględniając tę dysproporcję, poprzez np. wprowadzenie obowiązkowych szkoleń, instrukcji, ale także ograniczania odpowiedzialności producenta w przypadku nierealistycznych oczekiwań konsumenta wobec technologii.

Jak zatem kształtować prawo, by w dziesiątkach tysięcy stron publikowanych rocznie aktów prawnych nadążać za wyzwaniami współczesnego świata i dynamicznego rozwoju technologicznego? To problem, z którym boryka się cały świat, nie tylko Polska. Dla nas jednak, kraju wciąż rozwijającego się, brak pewnych regulacji bądź skostniałe podejście do istniejących przepisów może zahamować wzrost gospodarczy i technologiczny, albo też doprowadzić do szeregu nadużyć.

Już w 2016 roku, w raporcie analizującym wpływ innowacji technologicznych na rynek pracy i gospodarkę, bank UBS ostrzegał, że robotyzacja, automatyzacja i sztuczna inteligencja wywrą dużo większy wpływ na kraje rozwijające się i rynki wschodzące, niż na państwa rozwinięte. Przed negatywnymi skutkami może uchronić je szeroko pojęte zróżnicowanie i elastyczność w dostosowywaniu systemu prawnego do dynamicznie zmieniającej się rzeczywistości, nie wspominając o edukacji czy infrastrukturze. Kiedy nowa technologia zdobywa rynek, musi wkroczyć prawo. To nieuniknione. Jednak kilkuletnie opóźnienia prawodawstwa wobec wyzwań współczesnej cywilizacji może uniemożliwić rozwój gospodarczy i technologiczny w kontekście wyzwań współczesnego świata.