To, że prawnicy widzą w narzędziach opartych na AI szansę na usprawnienie i przyspieszenie pracy, pokazuje choćby raport „Prawo w nowej rzeczywistości AI – szanse i wyzwania” autorstwa Wolters Kluwer i Law4AI. Potencjał dostrzega również Ministerstwo Sprawiedliwości – trwa pilotażowy program cyfrowego asystenta sędziego (na razie w sprawach frankowych), a także planowane jest m.in. stworzenie Centralnego Systemu Repertoryjno-Biurowego. Projekt zakłada budowę jednolitej przeglądarki akt elektronicznych zintegrowanej z lokalnymi systemami, automatyzację kategoryzacji dokumentów, weryfikację ich poprawności oraz prowadzenie spraw wyłącznie w formie cyfrowej.

Część sędziów już teraz przyznaje, że korzysta z AI w swojej pracy – eksperci jednak podkreślają, że bez wytycznych, zaleceń czy szkoleń to działanie na zasadzie „wolnej amerykanki”. Z drugiej strony pojawiają się pytania o to, czy i w jakim zakresie AI jest wykorzystywana przy rozpatrywaniu spraw. Z jednym z nich – w ramach dostępu do informacji publicznej – zwróciła się do Prokuratury Okręgowej Warszawa-Praga Marcelina Lech, asystentka sędziego w SN. Dotyczyło to konkretnej sprawy, w której postawiono zarzuty liderom ruchu „Rodacy Kamraci”. Asystentka pytała o narzędzia AI, z których skorzystano, ich dostawcę, podstawę dopuszczenia tak przeprowadzonego dowodu oraz czy były to narzędzia zaprojektowane i wdrożone na potrzeby prokuratury. 

Czytaj: AI Act bez zębów. Prace nad ustawą o sztucznej inteligencji ugrzęzły>>

Zobacz więcej informacji o obowiązujących  przepisach prawa i planowanych regulacjach dotyczących AI>

Brakuje standardów, ale przede wszystkim systemów

Adwokat Piotr Krzak z Komisji Informatyzacji Naczelnej Rady Adwokackiej podkreśla, że w skali Unii Europejskiej jeszcze nie ma standardów korzystania z AI dla wymiaru sprawiedliwości. – W Wielkiej Brytanii takie standardy zaczęto tworzyć na podstawie tego, co powstało dla przedstawicieli innych zawodów prawniczych. Wytyczne te zawarte są w dokumencie Courts and Tribunals Judiciary „Artificial Intelligence (AI) – Judicial Guidance” (2023). Kluczowe elementy wytycznych to: zrozumienie AI i jej zastosowań, zachowanie poufności i prywatności, zachowanie przejrzystości i uczciwości oraz przykłady potencjalnych zastosowań i ryzyk – mówi Prawo.pl.

I dodaje, że kwestie wymogów dotyczących stosowania AI w wymiarze sprawiedliwości są regulowane przez ogólnie obowiązujące przepisy, takie jak AI Act – tj. Rozporządzenie (UE) 2024/1689. – W akcie tym znajdują się też ogólne ramy etyczne dla systemów AI oraz zachęta do opracowywania kodeksów etycznych, dotyczą one wszystkich dostawców i użytkowników systemów AI. Nie mam żadnych wątpliwości, że takie zalecenia lub standardy w kontekście wymiaru sprawiedliwości powinny powstać. Co prawda na dzień dzisiejszy nie ma systemów opartych na sztucznej inteligencji w wymiarze sprawiedliwości, ale systemy takie na pewno powstaną – mówi.

Czytaj: Radcy mają już swoje rekomendacje w zakresie korzystania z AI>>

Czytaj komentarz praktyczny w LEX: Lubasz Dominik, Nadzór człowieka nad systemami AI - wymóg godnej zaufania AI>

Sędziowie korzystają z AI „na własną rękę”

Mecenas przyznaje, że już teraz zdarza się, iż sędziowie lub prokuratorzy korzystają z AI samodzielnie. – Niestety, w takim przypadku mamy do czynienia z całkowitą „wolną amerykanką”. Podczas szkoleń dla sędziów uczulam, by korzystać z AI odpowiedzialnie, szczególnie nie pracować na danych wrażliwych. Już dziś ogólnodostępne rozwiązania mogą wspomagać formułowanie tez czy fragmentów uzasadnień – mówi Krzak.

Zastrzega jednak, że świadomość tego, co dzieje się z danymi w systemie AI, jest zbyt mała, by mówić o powszechnym korzystaniu z takich narzędzi. – Potrzebne są szkolenia, a Krajowa Szkoła Sądownictwa i Prokuratury planuje ich uruchomienie. AI może zwiększyć efektywność pracy sędziów i pracowników sądów, ale musi być wykorzystywana zgodnie z zasadami. Nie może być tak, że każdy tworzy standardy na własną rękę – powinny powstać jednolite zalecenia dla całego wymiaru sprawiedliwości. Być może powinien powstać specjalny zespół do ich opracowania – dodaje.

Sędzia Katarzyna Orłowska-Mikołajczak, prezeska Fundacji Edukacji Prawnej „Iustitia”, również widzi potrzebę wypracowania standardów korzystania z AI w sądach. – Powinny powstać zalecenia dotyczące praktyki stosowania AI, szczególnie w zakresie przejrzystości, transparentności i ochrony danych. Obowiązuje już częściowo Rozporządzenie o sztucznej inteligencji – AI Act – przypomina.

Zaznacza, że obecnie praca w polskich sądach opiera się na pracy ludzi. – Orzekamy na podstawie papierowych akt. AI nie jest systemowo wprowadzone, głównie ze względu na bezpieczeństwo danych stron i spraw, ale też ograniczenia technologiczne. Nie ma też systemowego uregulowania korzystania z AI przez sędziów. Taka regulacja jest potrzebna – choćby po to, by wskazać, jakie praktyki są właściwe, a jakie nie – mówi.

Zobacz szkolenie w LEX: Flisak Damian, Wykorzystanie AI w pracy prawnika ze szczególnym uwzględnieniem analizy orzecznictwa>

 

Podkreśla, że jako sędzia nie pracuje z AI na danych. – Jeśli Ministerstwo Sprawiedliwości wprowadzi odpowiednie narzędzia, AI mogłoby być wykorzystywane w zarządzaniu referatem, doręczaniu pism, kalendarzu rozpraw, kwalifikacji pism pod względem formalnym – czy pozew zawiera wszystkie elementy, czy wniosek jest kompletny. Do orzekania – tylko w zakresie porządkowania danych, ale nie przy podejmowaniu decyzji. Nie jestem fanką predykcji. AI powinno dawać sędziemu więcej czasu na przemyślenie sprawy – zaznacza Orłowska-Mikołajczak.

 

Nowość
Digital HR. Czy AI to nasza przyszłość?  ebook
-10%
Nowość

Michał Chodkowski, Tomasz Karniewicz, Joanna Liksza

Sprawdź  

Cena promocyjna: 80.09 zł

|

Cena regularna: 89 zł

|

Najniższa cena w ostatnich 30 dniach: 62.3 zł


Systemy prokuratury bez AI, wytycznych też nie ma

Rzecznik Prokuratury Krajowej, prok. Przemysław Nowak, informuje Prawo.pl, że PK nie wydała wytycznych ani zaleceń dotyczących wykorzystywania przez prokuratorów narzędzi opartych na AI , ale – jak dodaje – prokuratura organizowała szkolenia dla prokuratorów dotyczące wykorzystywania sztucznej inteligencji przez sprawców przestępstw.

W systemach informatycznych prokuratury, dedykowanych do prowadzenia postępowań karnych, nie są wykorzystywane komponenty bazujące na sztucznej inteligencji. Oczywiście prokuratorzy mogą pomocniczo korzystać z ogólnodostępnych narzędzi opartych na sztucznej inteligencji, w tym generatywnych modeli językowych – zarówno do obróbki tekstu, jak i analizy danych. Jest to jednak ich indywidualna decyzja i odpowiedzialność, także w zakresie zapewnienia ochrony informacji prawnie chronionych – mówi.

Jako przykład podaje właśnie sprawę, o którą pytała asystentka Marcelina Lech. – W jednym z komunikatów prokurator poinformował o użyciu narzędzia AI do analizy i selekcji treści audiowizualnych – wskazuje.

Czytaj także artykuł  LEX: Rzymowski Jakub, Definicja prawnicza sztucznej inteligencji na podstawie rozporządzenia PE i Rady (UE) 2024/1689 w sprawie sztucznej inteligencji>

MS szykuje centra kompetencyjne 

MS, pytane o zalecenia, podkreśla, że wykorzystywanie sztucznej inteligencji w wymiarze sprawiedliwości to olbrzymi potencjał usprawniania jego działania, a także ułatwień dla obywateli, i zapewnia, że aktualnie przeprowadza działania pilotażowe.

– Jednakże w momencie przejścia na szerszą skalę konieczne będą adekwatne działania kompetencyjne, rozwojowe, standaryzujące. Wykorzystanie nowoczesnych technologii, w szczególności sztucznej inteligencji, bezdyskusyjnie wymaga regularnego wypracowywania jasnych, kierunkowych sugestii, dobrych praktyk oraz szkoleń dla polskiego sądownictwa – zaznacza i dodaje, że „podjęło inicjatywę zbudowania centrów kompetencyjnych w Warszawie, Gdańsku i Wrocławiu”.

– Wypracowanie kierunkowych rozwiązań wymaga dyskusji i analizy realizowanej z udziałem środowiska sądowego, akademickiego i organizacji pozarządowych. Te prace się toczą i de facto to będzie proces stały, ponieważ AI ewoluuje w szybkim tempie, a jej wpływ na wymiar sprawiedliwości będzie coraz większy i coraz bardziej wieloaspektowy. Jesteśmy świadomi, że to determinuje potrzebę nadzwyczajnych przygotowań i wsparcia. Strategiczną rolę będą odgrywały tu właśnie wspomniane centra kompetencyjne – podsumowuje.

Czytaj komentarz praktyczny w LEX: Dolniak Patrycja, Systemy AI wysokiego ryzyka w wymiarze sprawiedliwości – nowe regulacje, nowe wyzwania>

 

Wprowadzenie AI do sądów i prokuratur wymaga ujednolicenia

Także zdaniem Marceliny Lech, asystentki sędziego SN, proces wprowadzenia AI do sądów i prokuratur powinien być ujednolicony w skali całego kraju. – W tym celu należy opracować standardy korzystania z AI w wymiarze sprawiedliwości. Potencjalnie niebezpieczna jest obecna sytuacja w prokuraturze, w której prokuratorzy mogą korzystać z AI w ramach ogólnodostępnych narzędzi. Budzi to wiele pytań, m.in. pod względem ochrony danych osobowych. Takie podejście może również być odebrane negatywnie w społecznym odbiorze – mówi.

Widzi dwie możliwości wdrażania AI w wymiarze sprawiedliwości. – Główne rozwiązania powinny być wdrażane centralnie dla wszystkich jednostek. W przypadku potrzeb związanych ze specyfiką konkretnej jednostki, Ministerstwo Sprawiedliwości powinno mieć przewidzianą procedurę certyfikacji rozwiązań AI dla wymiaru sprawiedliwości. Po przejściu takiej procedury jednostka miałaby możliwość korzystania z systemu AI i byłoby pewne, że spełnia on wymagania stawiane takim narzędziom pod względem ochrony danych, przejrzystości działania, etyki itp. Uważam, że w zależności od potrzeb mogą być używane zarówno istniejące, bezpieczne narzędzia, a w przypadku ich braku – stworzone specjalnie dla ministerstwa – dodaje.

Kierunek dobry – korzystasz, informujesz

Mecenas Krzak nie ma wątpliwości, że informacja dotycząca korzystania ze sztucznej inteligencji przez sądy i prokuraturę powinna być dostępna dla obywateli.

Przepisy AI Act wymagają, by decyzje, które zapadły przy udziale AI, były wyjaśnialne. Artykuł 13 ust. 1 rozporządzenia mówi o tym, że „Systemy AI wysokiego ryzyka powinny być projektowane i rozwijane w taki sposób, aby ich działanie było w wystarczającym stopniu przejrzyste, umożliwiając wydawcom interpretację wyników systemu i właściwe ich wykorzystanie.” Trzeba przy tym zaznaczyć, że – według mojej oceny – nie jesteśmy gotowi na wprowadzenie systemów predykcyjnych z uwagi na małą dostępność danych i ich słabą jakość, więc ryzyko podejmowania decyzji przez AI jest odległe. Ważne jest, by aktualnie pracować nad systemami wspomagającymi, po to by uzyskać dobrą jakość danych – zaznacza.

Dowiedz się więcej o raporcie „Prawo w nowej rzeczywistości AI”! Dr Dominik Lubasz jest jednym z jego współautorów. Pobierz raport i odkryj, jakie wyzwania i szanse niesie rozwój sztucznej inteligencji w kontekście prawnym.>