Wyzwania stojące przed wymiarem sprawiedliwości i samorządami prawniczymi w zakresie m.in. AI były tematem debaty, która odbyła się w Wolters Kluwer Polska. Coroczne raporty pokazują bowiem, że właśnie w sztucznej inteligencji, obok nowych technologii, prawnicy widzą szanse na usprawnienie pracy, cięcie kosztów, wzmocnienie konkurencyjności i zyskanie czasu. Wskazuje na to zresztą zarówno tegoroczny raport Wolters Kluwer i Law4AI: "Prawo w nowej rzeczywistości AI - szanse i wyzwania", jak i ubiegłoroczny raport Future Ready Lawyer 2024 r. Z tego ostatniego badania wynikało, że aż 76 proc. prawników z działów prawnych i 68 proc. prawników z kancelarii korzysta z GenAI przynajmniej raz w tygodniu. Z kolei 18 listopada, podczas gali Rising Stars Prawnicy - liderzy jutra 2025 r., wydawnictwo zaprezentowało LEX Expert AI – zaawansowany czat oparty na generatywnej sztucznej inteligencji (GenAI), stworzony specjalnie dla prawników pracujących z przepisami polskiego prawa.
Czytaj: LEX Expert AI nowym narzędziem dla prawników>>
AI kusi prawników, samorządy stawiają na bezpieczeństwo
Krajowa Rada Radców Prawnych przygotowała swoje rekomendacje dla radców w zakresie korzystania z AI wiosną bieżącego roku. - Naszą olbrzymią rolą jest zapewnienie możliwości korzystania z wielu narzędzi i wsparcie zrozumienia przez prawników tego, jak działa i jak można korzystać z AI. Stąd liczne szkolenia, instrukcje, rekomendacje - mówi Włodzimierz Chróścik, prezes Krajowej Rady Radców Prawnych. I dodaje, że takie wsparcie jest istotne, jeśli zmiany związane czy z nowymi technologiami, czy właśnie z AI, mają być dla prawników bezbolesne.
Na sztuczną inteligencję patrzy zresztą optymistycznie. - Myślę, że tego typu narzędzia oparte na AI nie są zagrożeniem dla prawników. AI nas nie zastąpi, ale przesunie środek ciężkości w naszej pracy i spowoduje, że ci prawnicy, którzy będą potrafili z takich narzędzi korzystać, podobnie jak z nowej technologii, będą mieć łatwiej - wskazuje.
- Widać wyraźnie, że wprowadzając sztuczną inteligencję do pracy prawnika, potrzebujemy przede wszystkim jasnych standardów i szkoleń. Brak przygotowania może prowadzić do błędnej oceny, czy dane narzędzie jest godne zaufania, jakie ma możliwości, a czego nie potrafi. To z kolei może wpływać na jakość świadczonych usług. Dlatego kluczowe jest, aby prawnicy wiedzieli, jak korzystać z AI odpowiedzialnie – w granicach etyki i z poszanowaniem ochrony danych. Nasze doświadczenia pokazują, że rozwiązanie oparte na GenAI, bazujące na sprawdzonych danych i wdrożone transparentnie, gwarantuje bezpieczne i skuteczne wykorzystanie technologii w praktyce – mówi Marcin Kleina, prezes zarządu Wolters Kluwer Polska.
Prezes Chróścik przypomina, że samorząd radcowski w swoich rekomendacjach uczula radców, by korzystając ze sztucznej inteligencji, nie zapominać o interesie i bezpieczeństwie klienta. - Będziemy nasze rekomendacje rozwijać, myślę, że będziemy też testować konkretne produkty, opiniować możliwość korzystania z nich. Natomiast jeżeli chodzi o etykę, to wygląda na to, że udało nam się stworzyć normy, które na tę chwilę potrafią obsłużyć również ten obszar dotyczący sztucznej inteligencji - mówi prezes. Dodaje, że w Sejmie jest mała nowelizacja ustawy o radcach prawnych, przygotowywana jest też obszerna zmiana radcowskiej ustawy, która powinna również uwzględniać to, jakie jest miejsce radców nie tylko w wymiarze sprawiedliwości, ale też w zakresie technologicznej obsługi wymiaru sprawiedliwości.
Adwokatka Paulina Rzeszut, dyrektor w Instytucie LegalTech przy Naczelnej Radzie Adwokackiej, również podkreśla, że korzystanie z AI będzie coraz częstsze i bardziej popularne. - W związku z tym samorząd musi również stać na straży podstawowych zasad etycznych, jak i również zasad dotyczących wykonywania zawodu. Nasz zawód się zmienia, nasza etyka się zmienia i zarówno Instytut Legal Tech, jak również zespół do spraw zmian w kodeksie etyki, pracuje nad kwestiami związanymi ze sztuczną inteligencją - mówi.
Dodaje, że w szczególności chodzi o ochronę tajemnicy zawodowej, danych klientów, poufność tych danych. - Musimy nauczyć naszych adwokatów, aplikantów adwokackich, jak poruszać się po tej ścieżce od samego początku, jakie dane mogą być wpuszczone do systemów opartych o sztuczną inteligencję, jak mogą być wykorzystywane i co musi adwokat zrobić, żeby zweryfikować to, co zostało wytworzone przez sztuczną inteligencję, bo na końcu i na początku tego procesu zawsze jest człowiek i to on jest za to odpowiedzialny - podsumowuje.
AI ma asystować, nie decydować
Rzeszut zwraca uwagę na jeszcze jedną kwestię.
Adwokatura stoi na straży praw i wolności obywatelskich i faktycznie w chwili obecnej jest ożywiona dyskusja dotycząca pytania, czy algorytmy powinny wspierać wymiar sprawiedliwości. Jeżeli stwierdzimy, że powinny wspierać, należy sobie zadać kolejne pytanie: jak chronić dane obywateli, jak zapewnić poufność tych danych, jak zapewnić ochronę życia prywatnego uczestników postępowania, zwykłych obywateli, ale również jak zachować kwestie dostępności do sądu - w przypadku osób, które mają powierzchowną wiedzę dotyczącą nowych technologii - jak zachować inkluzywność w naszym wymiarze sprawiedliwości - wskazuje.
W wymiarze sprawiedliwości krok po kroku
Grzegorz Polak, dyrektor Departamentu Informatyzacji i Rejestrów Sądowych Ministerstwa Sprawiedliwości przyznaje, że i w zakresie sądów, i prokuratury, powinno być przygotowane swoiste vademecum, dotyczące korzystania z programów opierających się na sztucznej inteligencji. - Nie ukrywam, że najlepszym rozwiązaniem byłoby wykorzystywanie w polskim sądownictwie, w sądach, rozwiązań opartych o AI, które sami byśmy budowali, bo wiemy, w jakim zakresie mogą być wykorzystywane, a po drugie ustalenie na jakich danych może się opierać - wskazuje. Jak dodaje, w tym momencie priorytetem jest cyfryzacja wymiaru sprawiedliwości, digitalizacja akt. - Sztuczna inteligencja, jak sama nazwa wskazuje, jest sztuczna, więc od tego, jakie dane jej dostarczymy, zależy to, jakie otrzymamy wyniki - mówi, dodając, że chodzi m.in. o takie kwestie jak orzeczenia, dokumenty.
Podobnego zdania jest Marcin Kleina, który również podkreśla, że jakość i bezpieczeństwo informacji będą kluczowe dla skutecznej cyfryzacji wymiaru sprawiedliwości. Wskazuje, że systemy muszą opierać się na rzetelnych i kompletnych danych, bo od tego zależy poprawność uzyskanych wyników. - Dotyczy to przede wszystkim treści takich jak orzeczenia czy dokumenty. AI może usprawnić analizę i organizację pracy, ale nie wyłączy odpowiedzialności sędziego. Najważniejsze, aby rozwiązania AI były bezpieczne, zgodne z prawem i oparte na sprawdzonych źródłach. Przyszłość wymiaru sprawiedliwości to odpowiedzialne wykorzystanie technologii i właśnie w tym kierunku powinniśmy podążać - uważa.
- Zaczęliśmy już pracę, ale to jest jeszcze wstępny etap, bo nie ukrywam, że gros siły i środków, które posiadamy, koncentrujemy na tym, żeby zbudować narzędzia do pracy na dokumentach cyfrowych, zdefiniować, jak z nimi postępować, żebyśmy to mogli przygotować na pierwszy kwartał przyszłego roku. Natomiast wypracujemy również rekomendacje dla sądownictwa odnośnie tych rozwiązań opartych o AI, które są już dostępne na rynku. Czy z nich korzystać, jak z nich korzystać, do czego korzystać, a przede wszystkim - jakie zagrożenia wiążą się z tym, że ktoś będzie chciał z nich korzystać do pracy czy wykonywania zadań w sądach - mówił podczas debaty dyrektor Polak, zastrzegając równocześnie, że sędzia jest niezależny, niezawisły w tym, co robi, więc takie zalecenia mogą być dla niego jedynie wsparciem.
Wskazywał również, że nieautoryzowane korzystanie z publicznie dostępnych narzędzi opartych na AI – dopóty, dopóki dotyczy prywatnej działalności i osobistych, prywatnych danych, jest decyzją osoby, której to dotyczy. - Natomiast jeżeli mówimy już o delikatnych czy naprawdę superwrażliwych danych, jak te, które w jakikolwiek sposób zahaczają o akta sądowe, to w mojej ocenie korzystanie czy wykorzystywanie publicznie dostępnych, komercyjnych rozwiązań, które są dostępne dla każdego, nieautoryzowane w jakikolwiek sposób przez resort sprawiedliwości, nie powinno mieć miejsca - podsumowuje dyrektor Polak.
Jakie priorytety dla sądów?
Dyrektor Polak wśród priorytetów w zakresie cyfryzacji wymiaru sprawiedliwości wymienia cyfrowe akta, kolejnym krokiem ma być narzędzie umożliwiające ich przeglądanie w wersji właśnie elektronicznej.
Przed nami początek 2026 roku, kiedy zakładam, że udostępnimy je pilotażowo Sądowi Ochrony Konkurencji i Konsumentów – tak jak zapowiadaliśmy – jako pierwszemu sądowi, który będzie mógł operować właśnie w wersji cyfrowej na dokumentach cyfrowych. Ale już za chwilę - myślę o marcu przyszłego roku - wchodzą w życie zmiany przepisów i prawa cywilnego, i prawa karnego, które m.in. pełnomocnikom zawodowym pozwolą składać dokumenty w wersji elektronicznej w drugiej instancji za pośrednictwem portalu informacyjnego sądów - mówi i dodaje, że celem MS jest to, by już wtedy sądy miały narzędzie, które pozwoli im pracować na tych cyfrowych dokumentach w komfortowy i wygodny sposób, z wykorzystaniem już teraz funkcjonujących systemów repertoryjno-biurowych. To z kolei - jak precyzuje - wiązać się będzie też z połączeniem opracowanego narzędzia, przeglądarki, infrastruktury, w której będą przechowywane akta sądowe czy dane sądowe, właśnie z tymi systemami, które już teraz funkcjonują w poszczególnych sądach.
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.









