Atak na roboty, poza atakiem na mienie, może być atakiem na różne dobra chronione prawnie. Sytuacje takie opisał dr Kamil Mamak z Katedry Prawa Karnego Uniwersytetu Jagiellońskiego oraz Departamentu Filozofii Praktycznej Uniwersytetu Helsińskiego.

- W mojej nowej książce p.t. „Robotics, AI and Criminal Law: Crimes Against Robots” (Routledge 2023) proponuję właśnie spojrzenie na ataki na roboty jako atak na wartości, które istotne są dla ludzi. Jako roboty mam na myśli urządzenia przypominające kształtem ludzi lub zwierzęta, innymi słowy, takie, które imitują życie – wyjaśnia dr Kamil Mamak.

Czytaj: Skarbówka zmienia stanowisko w sprawie ulgi na robotyzację>>

Autor przedstawia szereg postulatów, w tym delege ferenda. Uważa np., że przemoc wobec robotów w publicznym miejscu powinna być zakazana, ze względu – nie na roboty – lecz na moralność publiczną. - Uważam, że uzasadnienie tego typu zakazu podobne jest do oceny spożywania alkoholu czy przebywania nago w miejscach publicznych. Zachowania takie nie są ze swej natury złe, ale nabierają negatywnego kontekstu ze względu na miejsca ich wykonywania. Z tego punktu widzenia – proponuję wpisać takie zachowania przeciwko robotom do kodeksu wykroczeń – postuluje dr Mamak.

Ataki na samotne roboty

Znamy jest przypadek robota, który podróżował autostopem przez różne kraje. I ten robot został zniszczony krótko po tym jak tylko przekroczył granicę Stanów Zjednoczonych, co wywołało wielkie oburzenie i negatywne emocje. Ludzie sympatyzowali z robotem. Innym przykładem są reakcje na kopanie psów-robotów firmy Boston Dynamics, w tej sprawie zawiadomiono organizację broniącą praw zwierząt z prośbą o interwencję. Atak na roboty nie jest traktowany jako zwykły wandalizm, ale coś kategorialnie innego. Co też potwierdzają badania z zakresu Human-Robot Interactions. 

- W istocie roboty w starciu z człowiekiem nie mają szans – mówi warszawski adwokat Wojciech Korpetta, specjalizujący się w sprawach karnych. – Na obecnym etapie pojmowania prawa karnego w Polsce nie mamy równości między kopaniem psa-robota a prawdziwego psa, czy uderzeniem policjanta i robota-policjanta. Robot nawet jeśli jest humanoidem, jest nadal sztuczną inteligencją i nie posiada ludzkich uczuć ani ludzkich emocji. Robot jest tylko rzeczą i podlega innym reżimom prawa karnego za zniszczenie lub uszkodzenie rzeczy, a w prawie cywilnym – za kwestie odszkodowawcze czy utratę korzyści  – dodaje adwokat. – Nie bardzo sobie wyobrażam jak ataki na roboty-ludzi mielibyśmy skodyfikować - dodaje.

 


Gdzie przebiegałaby granica między robotem-humanoidem a inteligentnym odkurzaczem? - Czy będę odpowiadał za znieważenie uczuć innych osób, bo zepsułem piękny kształt? Teoria o włączeniu wykroczeń przeciwko robotom do kodeksu jest interesująca i nowatorska i może być inspiracją dla naszych legislatorów. Ale nie zaraz i nie natychmiast – zastrzega adwokat Korpetta.

Ataki na rzeczy, np. pomniki czy karykatury osób świętych są w polskim prawie karane, ale traktuje się je jako atak na wartości.  

Czytaj w LEX: Fik Piotr, Staszczyk Piotr - Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>>

Nie trzeba zmieniać prawa, by karać osoby, które uszkodzą mechanizmy sztucznej inteligencji. W art. 288 kodeku karnego przewiduje, że kto cudzą rzecz niszczy, uszkadza lub czyni niezdatną do użytku, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.

Nie ma problemu z odpowiedzialnością karną sprawców zniszczenia robotów. Robot zatem może być ofiarą jako przedmiot, a nie jako podmiot – wskazują prawnicy. Chociaż mechanizm nie ma statusu moralnego, jak np. zwierzęta.

Czytaj w LEX: Problematyka sztucznej inteligencji w świetle prawa autorskiego >>

Czytaj także: Sztuczna inteligencja to przyszłość, ale w służbie społecznej>>

Wykorzystanie seksualne 

Czy można karać za wykorzystanie seksualne robotów? Są propozycje, aby zakazać produkcji robotów imitujących gwałt czy robotów w kształcie dzieci.

Argument, który podaje się jako przemawiający za produkcją tego typu robotów, to możliwość zaspokojenia seksualnego przez ludzi, którzy mają tego typu skłonności, których nie można zrealizować zgodnie z prawem. Jednak wskazuje się także na możliwość wzmocnienia popędów, dlatego też dominujące stanowisko w literaturze, ze względu na ostrożność, postuluje zakazanie tego typu robotów. - Zatem nie chodzi o to, że krzywdzi się robota, bo robot nic nie czuje, ale, o to, że poprzez dostępność takich robotów może dojść do działań na ludziach, co już stanowi przestępstwo – wyjaśnia dr Mamak.  

Zobacz w LEX: Prawne aspekty sztucznej inteligencji >>>

Nie jest tak, że takie roboty są zupełnie poza zakresem prawa. Przykładowo, w polskim kodeksie karnym jest przestępstwo jak propagowanie pedofili. Jeśli producent czy importer próbowałby się reklamować i mówić o zaletach robota - dziecka, związanych z ich posiadaniem, to mogłoby to wyczerpywać znamiona tego przestępstwa.

Zdarzało się już, że służby celne w innych krajach zatrzymywały na granicy osoby, które przewoziły podobne roboty ze względu na zakaz wwozu materiałów zakazanych i nieprzyzwoitych. Sfera seksualna jest tak szeroko uregulowana, że niektóre zachowania ludzi w związku z robotami podpadałyby pod istniejące przepisy karne dotyczące sfery moralności.

Tematem dyskutowanym w literaturze są również tzw. roboty miłosne. Wskazuje się, że część osób, nie mogąc znaleźć ludzkiego partnera, może uczucia lokować w robocie. - Uważam, że ze względu na znaczenie miłości w życiu moralnym i w prawie, tego typu (jednostronne) relacje powinny podlegać ochronie prawnej – twierdzi dr Mamak.

Czytaj w LEX: Sztuczna inteligencja i jej wynalazki - studium przypadku >>

Symulacja gwałtu

Problem z robotami miłosnymi nie jest wcale czystą abstrakcją. Bo oto w 2017 roku android „płci żeńskiej” o imieniu Sophia otrzymał w Arabii Saudyjskiej status obywatela. Następnie Japonia nadała status rezydenta chatbotowi o imieniu Mirai, który jest wyposażony w sztuczną inteligencję w postaci osobowości siedmioletniego chłopca. Z karnoprawnego punktu widzenia, dopóki robot nie uzyska w Polsce statusu osoby, symulacja gwałtu na lalce nie będzie uznana za czyn zabroniony – uważa dr Maria Pawińska z Uniwersytetu Śląskiego.

- Klasyfikacja prawna ulegnie zmianie w sytuacji, w której podmiot dopuści się gwałtu na sekslalce, sądząc, że odbywa stosunek płciowy z żywą kobietą. I nie jest to scenariusz nadmiernie futurystyczny, zważywszy na fakt, że starania producentów sekslalek ukierunkowane są na wytworzenie robota o cechach możliwie najbardziej zbliżonych do człowieka. W takim przypadku, zgodnie z klasyfikacją prawnokarną, doszłoby do usiłowania nieudolnego, zdefiniowanego w art. 13 par. 2  – Kodeksu karnego.  To byłaby sytuacja, w której „sprawca nie uświadamia sobie, że dokonanie jest niemożliwe ze względu na brak przedmiotu nadającego się do popełnienia na nim czynu zabronionego lub ze względu na użycie środka nienadającego się do popełnienia czynu zabronionego”.

Przestępstwo zgwałcenia to czyn zabroniony, który jest wymierzony przeciwko obyczajności i moralności społecznej. Wydaje się, że symulacja gwałtu na humanoidalnym robocie obdarzonym sztuczną inteligencją, przypominającym do złudzenia żywą kobietę, może być zachowaniem, które będzie oceniane przez ogół społeczeństwa jako niezgodne z moralnością społeczną, mimo że sam czyn nie jest wykonany „wbrew woli robota”- dodaje dr Pawińska.

Czytaj w LEX: Irytowska Katarzyna - Pułapki sztucznej inteligencji >>>