Rozwój sztucznej inteligencji (AI, z ang. artificial intelligence) w ostatnich latach znacząco oddziałuje na funkcjonowanie niemal wszystkich sektorów życia społeczno-gospodarczego. Systemy algorytmiczne coraz częściej wspomagają, a niekiedy wręcz zastępują człowieka w procesach decyzyjnych – zarówno w przemyśle, technologii, jak i w obszarach szczególnie wrażliwych, takich jak medycyna czy transport. Wielu z nas nie wyobraża już sobie życia bez Chata GPT gotowego udzielić odpowiedzi na niemalże każde pytanie.

Wraz z postępującą autonomizacją tych rozwiązań pojawia się jednak istotne zagadnienie prawne: kto ponosi odpowiedzialność, gdy system sztucznej inteligencji zawiedzie? Czy wyłącznym sprawcą pozostaje człowiek? A jeśli tak, to kto? Projektant, operator czy może nadzorca? A może należy rozważyć możliwość przypisania odpowiedzialności samemu AI? Wreszcie – czy obowiązujące regulacje prawne, w tym przepisy polskiego prawa karnego, nadążają za postępem technologicznym?

Odpowiedzialność karna jedynie w tle 

W ostatnich latach obserwuje się stopniowy rozwój regulacji prawnych dotyczących sztucznej inteligencji, zarówno na poziomie krajowym, jak i unijnym. Tendencja ta świadczy o rosnącym zapotrzebowaniu ujęcia w ramy prawne technologii, która odgrywa coraz większą rolę w funkcjonowaniu współczesnych społeczeństw. W świetle aktualnych regulacji, większość przepisów dotyczących odpowiedzialności za szkody związane z nowoczesnymi technologiami koncentruje się jednak na płaszczyźnie prawa cywilnego, w zasadzie pozostawiając kwestię odpowiedzialności karnej zagadnieniem niemalże pomijalnym. 

Zobacz również: Prof. Markiewicz: Prawo autorskie i sztuczna inteligencja

Najbardziej kompleksowy akt prawny na poziomie unijnym - Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. (tzw. AI Act) – nie przyznaje systemom AI podmiotowości prawnej i opiera się na założeniu, że odpowiedzialność za ich działanie ponosi człowiek: producent, dostawca lub użytkownik. Rozporządzenie nie zawiera jednak odniesień do odpowiedzialności karnej, koncentrując się na kwestiach zgodności, bezpieczeństwa i odpowiedzialności administracyjnej lub cywilnej. Brak ten sprawia, że pytanie o penalizację zachowań związanych z autonomicznym działaniem AI pozostaje otwarte, a tym samym – szczególnie aktualne.

Na gruncie prawa krajowego sytuacja nie przedstawia się lepiej. Polski porządek prawny nie zawiera obecnie przepisów, które wprost odnosiłyby się do problematyki odpowiedzialności karnej w kontekście działania systemów sztucznej inteligencji. Brakuje nie tylko definicji legalnej AI, ale i regulacji, które podejmowałyby próbę rozwiązania złożonego problemu przypisania winy w przypadkach, gdy skutki przestępne są wynikiem działania lub zaniechania związanego z funkcjonowaniem takich systemów.

Polecamy też praktyczny komentarz w LEX: Flisak Damian, Akt w sprawie sztucznej inteligencji> 

Rola AI w kontekście przestępstw 

W literaturze wyróżnia się trzy zasadnicze modele udziału sztucznej inteligencji w realizacji czynów zabronionych. Po pierwsze, AI może stanowić narzędzie przestępstwa – system wykorzystywany jest przez człowieka jako środek do osiągnięcia przestępnego celu. W takim przypadku sztuczna inteligencja pełni jedynie funkcję instrumentalną, a sprawcą czynu pozostaje człowiek, który świadomie posługuje się AI w celu popełnienia przestępstwa.

Druga kategoria dotyczy sytuacji, w których przestępstwo jest wynikiem nienależytego nadzoru nad funkcjonowaniem AI – na przykład, gdy aplikacja medyczna oparta na algorytmie błędnie kwalifikuje chorego jako pacjenta niskiego ryzyka, skutkując zaniechaniem diagnostyki, co prowadzi do ciężkiego uszczerbku na zdrowiu lub nawet śmierci. Jeśli można wykazać, że nie wdrożono należytych środków kontrolnych, odpowiedzialność karna zostanie przypisana tzw. gwarantowi, o którym mowa w art. 2 k.k.

Trzeci, najbardziej kontrowersyjny przypadek, obejmuje sytuacje, w których system AI podejmuje działania formalnie samodzielnie, bez bieżącego udziału człowieka, prowadząc do realizacji czynu zabronionego. W tego rodzaju przypadkach kluczowym problemem staje się przypisanie odpowiedzialności konkretnemu podmiotowi. W złożonych strukturach tworzenia, trenowania i wdrażania systemów AI – obejmujących twórców oprogramowania, podmioty szkolące modele na określonych zbiorach danych, dostawców technologii oraz końcowych użytkowników – niezwykle trudno jest precyzyjnie ustalić, kto rzeczywiście ponosi odpowiedzialność za działanie systemu. W efekcie rodzi się ryzyko tzw. rozproszenia odpowiedzialności, które osłabia skuteczność klasycznych konstrukcji prawa karnego.

 

Sztuczna inteligencja nie ma świadomości 

Dość oczywistym zdaje się kategoryczne stwierdzenie, iż na gruncie obowiązujących przepisów prawa karnego nie jest możliwe przypisanie AI odpowiedzialności karnej. Kluczową przeszkodą o charakterze dogmatycznym jest brak zdolności do ponoszenia winy, która stanowi niezbędny element konstrukcji przestępstwa. Zgodnie z art. 1 par. 3 k.k., odpowiedzialność karną ponosi jedynie ten, komu w chwili popełnienia czynu można przypisać winę – tj. zarzucić, że w danych okolicznościach mógł i powinien był zachować się zgodnie z normą prawną.

Wina, w przeciwieństwie do umyślności lub nieumyślności – które w przypadku działań sztucznej inteligencji, analizowanych z perspektywy zewnętrznej, mogłyby pozornie zostać przypisane stosunkowo łatwo – dotyczy nie tyle charakteru samego zachowania, ile możliwości postawienia danemu podmiotowi zarzutu zawinionego naruszenia normy prawnej. Jej istota opiera się na założeniu, że sprawca dysponuje zdolnością rozumienia znaczenia własnych działań, możliwością motywacyjnego podporządkowania się normie oraz świadomością bezprawności czynu. Brak tych elementów wyklucza możliwość oceny danego zachowania jako karygodnego w sensie prawnokarnym, a tym samym – przypisania winy.

Polecamy też w LEX: Marszałek Joanna, Skwarcow Marek, Użycie sztucznej inteligencji w postępowaniu karnym>

Wykładnia rozszerzająca nie wchodzi w grę 

Systemy sztucznej inteligencji nie dysponują świadomością ani wolą w znaczeniu prawnym, nie posiadają zdolności rozumienia normy prawnej ani zdolności kierowania swoim postępowaniem w sposób autonomiczny. Działają w oparciu o algorytmy i dane wejściowe, których przetwarzanie nie ma charakteru świadomego aktu decyzyjnego. Z tego względu nie sposób przypisać im winy w sensie normatywnym, a co za tym idzie – uznać za sprawcę przestępstwa.

Chociaż obecnie trudno wyobrazić sobie sytuację, w której system sztucznej inteligencji samodzielnie zasiadłby na ławie oskarżonych jako sprawca czynu zabronionego, z całą pewnością nie zwalnia to ustawodawcy ani praktyki wymiaru sprawiedliwości z obowiązku poszukiwania skutecznych narzędzi reakcji na zagrożenia generowane przez AI. W aktualnym stanie prawnym konieczne jest zatem operowanie wyłącznie tymi typami czynów zabronionych, które zostały już przewidziane w ustawie, przy jednoczesnym stosowaniu ogólnych zasad odpowiedzialności – w szczególności w zakresie winy, strony podmiotowej, czy instytucji zaniechania.

Takie podejście ma jednak charakter doraźny i w dłuższej perspektywie może okazać się niewystarczające. Zgodnie z zasadą nullum crimen sine lege nie jest dopuszczalne stosowanie wykładni rozszerzającej przepisów prawa karnego na niekorzyść sprawcy, co istotnie ogranicza możliwości elastycznego dostosowywania istniejących regulacji do nowych, nietypowych stanów faktycznych wywoływanych przez autonomiczne systemy decyzyjne.

Aleksandra Knapik, adwokat z kancelarii prawnej Octo Legal

Polecamy też praktyczny komentarz w LEX: Gumularz Mirosław, Relacja AI Act i RODO> 

Nowość
Sztuczna inteligencja w wymiarze sprawiedliwości
-80%

Cena promocyjna: 37.8 zł

|

Cena regularna: 189 zł

|

Najniższa cena w ostatnich 30 dniach: 18.9 zł