Z AI coraz częściej korzystają radcy prawni, adwokaci, ale także sędziowie. W sądach trwa aktualnie pilotaż związany z cyfrowym asystentem sędziego, który ma wspierać sprawy frankowe. Krajowa Rada Radców Prawnych (KRRP) od pewnego czasu opracowywała rekomendacje w zakresie korzystania ze sztucznej inteligencji. Zostały one przygotowane we współpracy z firmą Microsoft oraz prawnikami z kancelarii Sołtysiński Kawecki & Szlęzak i upublicznione 13 maja.
- Hasłem przewodnim tego roku jest właśnie rewolucja technologiczna. Pokazujemy, w czym AI może nas wspierać. Nie potrafi jeszcze sporządzić w całości prawidłowej umowy — przynajmniej jeszcze nie — ale świetnie radzi sobie z analizą tekstów, zestawianiem danych, wskazywaniem niespójności w zeznaniach świadków. To ogromne wsparcie, zwłaszcza przy pracy z dużą ilością materiałów. Wydaje mi się, że wszyscy, którzy chcą świadczyć usługi na wysokim poziomie, w jakimś zakresie z tych narzędzi już korzystają - mówi Prawo.pl Włodzimierz Chróścik, prezes KRRP.
Czytaj artykuł w LEX: Zbiciak Adrian, Wybrane aspekty wykorzystywania nowoczesnych technologii w pracy sędziego orzekającego w sprawach karnych. Stan obecny i perspektywa na przyszłość>
Radca musi być świadomy zagrożeń
Prezes Chróścik podkreśla, że opracowana publikacja nie tylko przybliża tematykę generatywnej AI, lecz także pomaga rozwiać ewentualne obawy i dostarcza praktycznych wskazówek, jak korzystać z nowych technologii bez naruszania zasad etyki zawodowej i bezpieczeństwa prawnego klientów.
Czytaj: Chróścik: Jesienią propozycje kompleksowych zmian w ustawie o radcach prawnych>>
- Świadome podejście do AI pozwala w pełni wykorzystać jej potencjał, jednocześnie minimalizując związane z nią ryzyko. Wraz z dynamicznym rozwojem technologii AI prawnicy muszą mierzyć się z nowymi wyzwaniami, takimi jak kwestie związane z ochroną danych, tajemnicy zawodowej czy odpowiedzialnością za treści generowane przez sztuczną inteligencję. Warto podkreślić, że przedstawione rekomendacje nie są ostateczne – wraz z rozwojem AI będą one podlegać dalszej ewolucji i uściśleniu. Jesteśmy dopiero na początku drogi związanej z wdrażaniem tej technologii w praktyce prawniczej. W najbliższych latach pojawi się orzecznictwo, które zacznie kształtować praktyczne standardy stosowania AI, a regulacje dotyczące tej technologii staną się systematyczniejsze i precyzyjniejsze - wskazuje.
Jego zdaniem dlatego właśnie te rekomendacje powinny być traktowane jako „żywy dokument”, którego treść będzie aktualizowana i dostosowywana do zmieniającego się otoczenia prawnego i technologicznego. - Mamy nadzieję, że przedstawione rekomendacje okażą się wartościowe w codziennej pracy radców prawnych. Ich zasadniczym celem jest bowiem praktyczna przydatność – dostarczenie konkretnych wskazówek, które pomogą bezpiecznie i efektywnie korzystać z narzędzi AI w codziennych zajęciach radców prawnych - podkreśla.
W rekomendacjach zaproponowano konkretne standardy ostrożności i dobrych praktyk – w szczególności w obszarach związanych z odpowiedzialnością zawodową, poufnością informacji czy kontrolą nad treścią generowaną przez narzędzia AI. Rekomendacje obejmują również tematy, które dopiero będą przedmiotem intensywnych debat, takie jak wpływ AI na obowiązek osobistego świadczenia pomocy prawnej, granice dopuszczalnej automatyzacji procesów prawniczych czy odpowiedzialność za decyzje podejmowane z udziałem narzędzi technologicznych – podsumowuje dr Damian Flisak, radca prawny, współautor rekomendacji.
Zobacz także szkolenie w LEX: Flisak Damian, Okoń Zbigniew, AI w praktyce prawniczej – krok w nowoczesność czy skok w przepaść?>
Po pierwsze - przygotowanie do korzystania z AI
Pierwsza część rekomendacji to te dotyczące przygotowania do korzystania z narzędzi AI. I tak, zgodnie z nimi radca prawny powinien określić cele, dla których będzie wykorzystywał narzędzie AI, bo to pozwoli na wybór narzędzia AI, które będzie odpowiadać na konkretne potrzeby, ale też pozwoli zidentyfikować regulacje prawne, które należy wziąć pod uwagę, żeby zapewnić zgodne z prawem ich wykorzystanie, w tym zapewnienie odpowiednich środków bezpieczeństwa i ochrony danych. Powinien również zidentyfikować obszary, w których AI może mu przynieść najwięcej korzyści w pracy, np. do poprawienia szybkości czy jakości pracy.
Następnie - zgodnie z publikacją - trzeba ustalić, jakie informacje wykorzystuje dane narzędzie AI, jaka jest ich jakość, jak są one przetwarzane, czy chodzi o rozwiązanie chmurowe, czy i jak filtrowane są zawartości wejściowe i wyjściowe.
Powyższe informacje są niezbędne do oceny zgodności takiego rozwiązania z przepisami (np. dotyczącymi ochrony danych osobowych czy zachowania tajemnicy radcowskiej) oraz do dokonania ewentualnej oceny ryzyka - czytamy w rekomendacjach. Co więcej, zgodnie z nimi, radca powinien też zweryfikować umowę na korzystanie z określonego narzędzia AI wraz z powiązaną dokumentacją techniczną udostępnianą przez dostawcę narzędzia AI.
Kolejną kwestią jest zapewnienie, w ramach rozpatrywanego narzędzia poufności - tak by bezpieczna była radcowska tajemnica zawodowa. Jak wskazano, chodzi o to, że w przypadku braku odpowiednich zabezpieczeń umownych czy technicznych przed ujawnieniem tych informacji może dojść do naruszenia powszechnie obowiązujących przepisów prawa, w tym dotyczących ochrony tajemnicy zawodowej, czy postanowień umowy zobowiązującej do zachowania określonych informacji w poufności wiążącej użytkownika. Powinno być również zweryfikowane - czy użytkownik zachowuje prawo do tak pozyskanych danych, czy też przekazuje je dostawcy, ponieważ co do zasady radca prawny nie powinien korzystać z narzędzi, które przekazują prawa do danych zawartych w zawartości wyjściowej lub wejściowej podmiotom trzecim.
Wśród nich jest także rekomendacja, by radca sprawdzał, czy postanowienia umowy z dostawcą narzędzia AI regulują kwestie praw autorskich oraz przykładowo, czy dostawca narzędzia AI zobowiązuje się chronić użytkowników przed roszczeniami osób trzecich. Wybrane narzędzia AI ocenić powinien również pod względem RODO.
Czytaj: AI kusi prawników - brakuje jednak edukacji, szkoleń i dobrych przepisów>>
Słowo klucz? Bezpieczeństwo
Duża część rekomendacji dotyczy bezpieczeństwa. I tak, zgodnie z opracowaniem, radca prawny, sięgając po AI, powinien ustalić, jakie środki bezpieczeństwa ma wdrożyć czy stosować lub skonfigurować podczas korzystania z wybieranego narzędzia. - Jest to szczególnie istotne, ponieważ na radcy prawnym ciąży obowiązek zachowania poufności i tajemnicy zawodowej. Obowiązek przestrzegania tajemnicy zawodowej oznacza konieczność zapewnienia przez radcę prawnego odpowiednich środków technicznych, organizacyjnych mających zabezpieczyć przed jej ujawnieniem - uzasadniono.
I tak przykładowo prawnik powinien ocenić przydatność zastosowania agentów AI w automatyzacji procesów w swojej kancelarii. - Agent AI to program komputerowy lub system oparty na sztucznej inteligencji, który jest zaprojektowany do wykonywania określonych zadań w sposób autonomiczny. W przypadku tworzenia agentów AI konieczne jest opisanie procesu tworzenia oraz ocena skutków pracy agenta AI. Dokumentacja agenta AI powinna być na bieżąco aktualizowana - wskazano.
Cena promocyjna: 179.1 zł
|Cena regularna: 199 zł
|Najniższa cena w ostatnich 30 dniach: 139.29 zł
Co powinien wiedzieć klient?
Jak już radca wybierze odpowiednie dla siebie narzędzie AI, to zgodnie z rekomendacjami powinien zweryfikować umowy z klientami pod kątem ograniczeń lub zasad korzystania z nich. - Radca prawny, świadcząc usługi na rzecz klientów, powinien kierować się należytą starannością oraz ochroną interesu klienta i powierzonych mu przez klienta informacji (tajemnica zawodowa) - uzasadniono. Chodzi m.in. o sprawdzenie, czy:
- umowa nie zawiera zakazu wykorzystania narzędzi AI do świadczenia usług, albo ograniczeń/obszarów, w których takie wykorzystanie jest zakazane, lub obowiązku informowania klientów o korzystaniu z takich rozwiązań;
- jeśli umowa zawiera ograniczenia w zakresie wykorzystania narzędzi AI, to należy ustalić, czy narzędzie AI i sposób jego wykorzystania są zgodne z tymi ograniczeniami oraz ewentualnie jakie działania dostosowawcze są konieczne;
- jakie są zasady odpowiedzialności w przypadku błędnych wyników wygenerowanych przez AI.
To w jakich przypadkach należy informować klienta o korzystaniu z AI? Jak wskazano w rekomendacjach, należy to każdorazowo ustalić. - Na podmiocie stosującym narzędzia AI mogą spoczywać ograniczone obowiązki informacyjne wobec osób trzecich, określone w art. 50 Aktu o AI, w tym obowiązek informowania o generowaniu lub modyfikowaniu z pomocą AI tekstu publikowanego w celu informowania społeczeństwa o sprawach leżących w interesie publicznym (art. 50 ust. 4 Aktu o AI) lub o interakcjach z AI, np. w przypadku udostępniania czatbota bazującego na AI klientom w celu uzyskiwania informacji o prowadzonych sprawach (art. 50 ust. 1 Aktu o AI). Niezależnie od obowiązków wskazanych wprost w Akcie o AI radca prawny powinien ocenić, czy obowiązek wykonywania usług prawnych z należytą starannością również nie wymaga powiadomienia klienta o stosowaniu narzędzi AI oraz czy takie powiadomienie powinno nastąpić w sposób sformalizowany (np. w formie zapisu w umowie lub oficjalnego powiadomienia), czy też może być dokonane w toku bieżącego świadczenia usług (np. przed rozpoczęciem nagrania i transkrypcji spotkania w celu przygotowania jego podsumowania - wskazano w uzasadnieniu).
Czytaj także komentarz w LEX: Szpyt Kamil, Odpowiedzialność cywilna za szkody wyrządzone klientom w wyniku wykorzystywania przez radców prawnych systemów sztucznej inteligencji>
Kiedy potrzebna zgoda klienta?
Co więcej, zgodnie z rekomendacjami, przed korzystaniem z narzędzia należy ustalić, w jakich przypadkach potrzebna jest zgoda klienta na korzystanie z AI. - Radcowie prawni powinni dokonać przeglądu realizowanych usług oraz oceniać przy przyjmowaniu nowych zleceń, czy z uwagi na sensytywną naturę zlecenia lub rodzaj stosowanego narzędzia AI i jego planowane wykorzystanie konieczne jest powiadomienie klienta. Ocena powinna brać pod uwagę ryzyko dla klienta. Stosowanie standardowych narzędzi AI zgodnie z przeznaczeniem w rutynowych sprawach nie wymaga co do zasady powiadomienia klienta. W przypadku spraw istotnych, które w przypadku ujawnienia mogłyby niekorzystnie wpłynąć na klienta, radca prawny powinien powiadomić o korzystaniu i zakresie wykorzystania narzędzia - czytamy w rekomendacjach. Dlatego też radca powinien ocenić, w jakich przypadkach, oprócz poinformowania klienta o wykorzystaniu narzędzi AI, zalecane jest pozyskanie jego zgody na korzystanie z narzędzia AI.
Co w tym zakresie należy wziąć pod uwagę? - Zgoda klienta na wykorzystanie narzędzia AI może być wymagana w szczególności w przypadku, gdy klient wymagał osobistego zaangażowania konkretnego prawnika, a narzędzie AI ma przejąć istotną część tych funkcji; gdy dane klienta mają być wykorzystane do trenowania modelu AI czy gdy narzędzie AI ma być wykorzystane do przewidywania wyników postępowań bez weryfikacji przez człowieka - podsumowano.
Klient, w pewnych sytuacjach, jak wskazuje KRRP, może też z powodu AI oczekiwać obniżenia radcowskiego wynagrodzenia, a konkretnie obniżenia kosztów, jeśli rozlicza się z radcą prawnym na podstawie ryczałtu (np. ryczałt za każdą sprawę). - W przypadku rozliczeń na podstawie stawek godzinowych korzystanie z narzędzi AI będzie w interesie klienta, gdyż będzie on obciążany mniejszą liczbą godzin. Z drugiej strony korzystanie z narzędzia AI wymaga zwykle dodatkowych zasobów lub licencji, które zwłaszcza w przypadku specjalistycznych programów mogą być drogie. Rozliczenie oparte tylko na stawce godzinowej może nie rekompensować w pełni kosztów takich narzędzi i może uzasadniać wprowadzenie dodatkowych opłat od klienta (podobnych do opłat za korzystanie z określonych baz danych czy infrastruktury technicznej) - dodano.
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.










