LEX Dział Prawny Połączenie wiedzy prawniczej z nowoczesną technologią AI
Włącz wersję kontrastową
Zmień język strony
Włącz wersję kontrastową
Zmień język strony
Prawo.pl

Prof. Burdziak: Prawo musi być gotowe na wykorzystywanie sztucznej inteligencji przez przestępców

Polskie prawo karne w dużej mierze jest przygotowane na wyzwania związane ze sztuczną inteligencją, ponieważ posługuje się rozwiązaniami o charakterze abstrakcyjnym, które pozwalają na ich „dopasowanie” do zmieniających się potrzeb życia społecznego – mówi prof. Konrad Burdziak z Uniwersytetu Szczecińskiego. Przyznaje jednak, że ta technologia stwarza warunki przestępcom do osiągania swoich celów w „białych rękawiczkach” oraz „obchodzenia” niektórych rozwiązań prawnokarnych, wymykając się obowiązującym przepisom prawnym i zawartym w nim normom.

konrad burdziak

Krzysztof Sobczak: Czy przeznaczenie jednego z paneli podczas tegorocznego zjazdu uniwersyteckich katedr prawa karnego tematyce sztucznej inteligencji to znak czasu? Sygnał, że coś trzeba w tej dziedzinie robić?

Konrad Burdziak: Oczywiście tak! To znak, że karniści dostrzegają ryzyka i szanse związane ze sztuczną inteligencją i chcą te kwestie poddać możliwie szczegółowej analizie. Wspomnieć należy przy tym, że w trakcie Zjazdu Katedr spotkają się ze sobą prawnicy, którzy prawem karnym zajmują się nie tylko naukowo, ale także praktycznie - są adwokatami, prokuratorami, sędziami, stąd oczekiwać można, że debaty na temat sztucznej inteligencji nie będą oderwane od rzeczywistości, lecz mocno osadzone w rzeczywistych problemach - aktualnych i przyszłych - polskiego prawa karnego.

Czytaj: Czy prawo nadąży za sztuczną inteligencją?>> 

Czy polskie prawo jest przygotowane na to zjawisko? Bo często pada argument, że nie ma w nim nawet legalnej definicji sztucznej inteligencji. Jest potrzebna?

Polskie prawo karne w dużej mierze jest przygotowane na wyzwania związane ze sztuczną inteligencją. Nasz ustawodawca posługuje się rozwiązaniami o charakterze abstrakcyjnym, które pozwalają na ich „dopasowanie” do zmieniających się potrzeb życia społecznego. Nie jest jednak tak, że jesteśmy w pełni przygotowani na to, co przyniesie przyszłość. Sztuczna inteligencja stwarza znakomite warunki przestępcom do tego, by osiągać swoje cele w „białych rękawiczkach” oraz „obchodzić” niektóre rozwiązania prawnokarne, wymykając się aktualnie obowiązującym przepisom prawnym i zawartym w nim normom. Organy ścigania zaś i wymiar sprawiedliwości nie w pełni nadążają za zamieniającą się rzeczywistością. Żyjemy zatem w czasach, w których konieczne jest podjęcie pilnych działań - dokonanie analizy sytuacji, przygotowanie rozwiązań i ich wprowadzenie w życie. Liczymy, że XIII Zjazd Katedr Prawa Karnego, który odbędzie się w Szczecinie w dniach 19–20 marca 2026 r., zakończy się konkretnymi postulatami de lege ferenda, które wprowadzone w życie zwiększą bezpieczeństwo istotnych dla społeczeństwa dóbr.

 

Czy zgadza się Pan z opinią, że sztuczna inteligencja zrewolucjonizowała krajobraz przestępczości, działając jako "obosieczny miecz". Z jednej strony, zaawansowane algorytmy umożliwiają przestępcom automatyzację i skalowanie nielegalnych działań, z drugiej – dają organom ścigania dobre narzędzia do śledzenia i wykrywania zagrożeń. To oznacza więcej szans czy zagrożeń?

Słusznie zwraca Pan uwagę, że jest to miecz obosieczny, a więc narzędzie generujące zarówno szanse, jak i ryzyka. Tym, co niestety nie ulega wątpliwości, jest jednak fakt, że w „wyścigu zbrojeń” przewagę zawsze mają przestępcy. Dysponują oni wszakże nieograniczonym arsenałem możliwości, co do których decyzja o ich wykorzystaniu oraz sposobie ich wykorzystania nie jest obwarowana żadnymi warunkami. Organy ścigania i wymiaru sprawiedliwości związane są tymczasem, zresztą słusznie, ograniczeniami wynikającymi chociażby z rozwiązań konstytucyjnych, a wykorzystywane przez nie narzędzia i sposób wykorzystania tych narzędzi wymagają spełnienia licznych wymogów ustawowych. W tym stanie rzeczy to przestępcy mają większe szanse na szybkie wdrożenie nowoczesnych rozwiązań cyfrowych w praktyce. 

Czytaj: Sztuczna inteligencja to przyszłość, ale w służbie społecznej>> 

Sztuczna inteligencja to z prawnego punktu widzenia podmiot czy przedmiot? Czy prawo karne jest przygotowane na wypadek spowodowany przez autonomiczny samochód? Kto jest sprawcą – producent pojazdu, jego konstruktor, autor oprogramowania sterującego, ten, kto wypuścił taki pojazd na ulicę?

Z punktu widzenia prawa karnego sztuczna inteligencja długo jeszcze stanowiła będzie wyłącznie przedmiot analizy w kontekście odpowiedzialności karnej podmiotu tej odpowiedzialności w postaci osoby fizycznej, a nie bezpośredni podmiot tej odpowiedzialności. Na ten moment jest to przedmiot martwy, a takiego - podobnie jak, nie przymierzając, kamienia - z racjonalnych względów do odpowiedzialności karnej nie pociągniemy. Nie oznacza to jednak, że za wadliwe rozwiązania związane z tworzeniem i stosowaniem sztucznej inteligencji nie będzie można aktualnie i w przyszłości ponieść odpowiedzialności karnej. W kontekście pojazdów autonomicznych sprawa jest jednak wyjątkowo skomplikowana. Po pierwsze - sam pojazd autonomiczny odpowiedzialności karnej nie poniesie - nie jest w końcu osobą fizyczną. Osoba prawna będąca producentem pojazdu odpowiedzialności karnej nie poniesie, jako że może ona co najwyżej ponieść odpowiedzialność za czyn zabroniony popełniony przez osobę fizyczną na gruncie ustawy o odpowiedzialności podmiotów zbiorowych. Operator pojazdu autonomicznego odpowiedzialność karną zasadniczo ponieść może, konieczne jest jednak przeprowadzenie w tym zakresie dokładnych ustaleń w zakresie realizacji przezeń znamion poszczególnych, określonych w szczególności w Kodeksie karnym, typów czynów zabronionych pod groźbą kary. Co zaś się tyczy konstruktorów czy autorów oprogramowania, to wydaje się, że trudno byłoby wykazać wypełnienie przez nich znamion podmiotowych i przedmiotowych poszczególnych typów czynów zabronionych pod groźbą kary przewidzianych w polskim prawie karnym, chyba że rzeczywiście doszłoby do sytuacji, w której np. autor oprogramowania celowo wprowadziłby do niego rozwiązanie, które doprowadzić miało do wypadku komunikacyjnego i do wypadku takiego doprowadziło; wydaje się to jednak mało prawdopodobne i wyjątkowo trudne do dowiedzenia w toku postępowania karnego.

 Czytaj: Sztuczna inteligencja to dla kancelarii szanse i zagrożenia>>

Jeśli sztuczna inteligencja jest narzędziem, to winne jest narzędzie, czy człowiek, który go używa? Czy prawo powinno zainteresować się ludźmi wytwarzającymi narzędzia wykorzystywane do działań niezgodnych z prawem? Producenci noży czy broni palnej nie są ścigani, ale producenci narkotyków już tak, chociaż to nie oni osobiście podają je ofiarom.

Zawsze winny jest człowiek. Sztuczna inteligencja jest na ten moment tylko narzędziem - lepszym lub gorszym, ale narzędziem. To człowiek jest jednocześnie odpowiedzialny za jakość tego narzędzia i winien ponosić odpowiedzialność za luki pozwalające na jego wykorzystanie w działalności przestępczej. Nie sądzę jednak, by niezbędna była w tym zakresie odpowiedzialność karna. Polski system prawny dysponuje innymi narzędziami, które winny być wykorzystywane zanim pomyślimy o prawie karnym, stanowiącym przecież środek ultima ratio. Trudno jednocześnie porównywać sztuczną inteligencję - narzędzie zasadniczo społecznie opłacalne i akceptowalne - do narkotyków, które z założenia są społecznie szkodliwe. Nie można jednak wykluczyć kryminalizacji zachowań, polegających na wytwarzaniu narzędzi opartych na AI służących z założenia wyłącznie popełnianiu przestępstw.

Sztuczna inteligencja jest coraz bardziej obecna na platformach internetowych, które nie ponoszą konsekwencji prawnych i finansowych za to, co dzieje się na nich. Trwają prace nad przepisami nakładającymi na te firmy różne obowiązki, ale czy prawo karne też powinno zareagować na ten problem?

Jak wspomniałem, prawo karne winno być środkiem ultima ratio, a co za tym idzie - wdrożyć należy odpowiednie rozwiązania pozakarne i zweryfikować, jak zareaguje na nie społeczeństwo - czy będą wystarczające, czy też nie, i dopiero wtedy rozważać ewentualną ingerencję prawnokarną.

Na ile potrzebne są zamiany w prawie, a na ile znalezienie odpowiednich sposobów korzystania z tego istniejącego? Trzeba też mówić o nowych wyzwaniach dla organów ścigania i wymiaru sprawiedliwości?

Zmiany w prawie na pewno będą niezbędne. Rzecz jasna, odpowiednia, zgodna z prawem, wykładnia poszczególnych, istniejących regulacji prawnych na ten moment jest jakimś ratunkiem, ale wraz z rozwojem AI okaże się niewystarczająca. Natomiast organy ścigania i wymiaru sprawiedliwości już teraz muszą się zastanawiać, jak wdrożyć nowoczesne narzędzia do swojej działalności, bo - jak wspomniałem - w tym zakresie przestępcy zawsze będą krok przed nimi. 

Czytaj: Sztuczna inteligencja rozwija się tak szybko, że nawet najnowsze prawo może za nią nie nadążyć>> 

Jakie jeszcze tematy będą omawiane podczas zjazdu?

W trakcie Zjazdu podejmiemy dyskusję łącznie w pięciu panelach, kluczowych z perspektywy wyzwań współczesności. Będziemy dyskutować o problematyce strony podmiotowej, będziemy poszukiwać spójnego modelu niewykonawczych form współdziałania przestępnego, będziemy analizować kwestie związane z prawem gospodarczym, w tym w szczególności odpowiemy na pytanie, czy powinniśmy posługiwać się konstrukcją przestępstwa podmiotu kolektywnego, wreszcie - podejmiemy próbę udzielenia odpowiedzi, jak ochronić przed przemocą domową najbardziej wrażliwych członków naszego społeczeństwa.

Czytaj także: Prof. Burdziak: Umorzenie mediacyjne może być przydatne, ale musi zostać lepiej skonstruowane>

 

Polecamy książki prawnicze