Prawnicy, używając narzędzi AI od zewnętrznych dostawców, powinni więc zakładać, że ujawniają wszelkie informacje, które dostarczają modelowi. - Co ważniejsze, dostęp do nich potencjalnie ma nie tylko dostawca danego narzędzia AI, ale również każdy inny użytkownik z niego korzystający. Jednocześnie ewentualne usunięcie takich danych z modelu może być co najmniej trudne – nie ma on bowiem jednej „bazy” ze wszystkimi informacjami i danymi, które taki model wykorzystuje - wskazuje w opinii dla Prawo.pl prof. Michał Jackowski, adwokat, partner zarządzający DSK Kancelaria.

Informacje o tym, jak poruszać się po świecie nowych technologii, ale też radzić sobie ze sztuczną inteligencją, znajdują się też na platformie Prawnik360.

 

Czytaj: Prawnik przed nowymi technologiami nie ucieknie, bo klient tego wymaga>>

Prawnicy powinni trzymać rękę na pulsie ChatGPT

W USA ChatGPT poradził sobie ze zdaniem egzaminu adwokackiego, rozmówcy Prawo.pl podkreślają jednak, że to nie oznacza bezpośredniego zagrożenia dla adwokatów i radców. - Na pewno AI nieźle poradzi sobie z wykonywaniem powtarzalnych czynności, tworzeniem podstawowych umów, czy dokumentów korporacyjnych. Myślę, że w przyszłości będą one przygotowywane właśnie przez te narzędzia, zresztą w pewnym zakresie już tak się właśnie dzieje. Natomiast oczywiście nie uważam, że AI zastąpi prawników, ani w pracy z klientem, ani w pracy koncepcyjnej i dokonywaniu pogłębionych analiz. Uważam, że na razie możemy spać spokojnie - zaznacza dr hab. Marcin Wujczyk, radca prawny, partner Wardyński i Wspólnicy sp.k.

Zobacz w LEX: Cyberbezpieczeństwo kancelarii prawnych >>

W jego ocenie prawnicy powinni brać udział w tworzeniu algorytmów, które będą wykorzystywane przez sztuczną inteligencję. - Natomiast jeszcze ważniejsze jest to, by istniał sposób weryfikacji tych procedur. To będzie główna rola prawników i wykrystalizuje się w chwili, gdy te narzędzia wejdą do powszechnego stosowania, wtedy prawnicy powinni wkroczyć, by uregulować ten rynek i wpłynąć na ile to możliwe na sposób uczenia tej sztucznej inteligencji tak, by zostały uwzględnione kwestie, które są ważne z punktu widzenia prawa, a w sytuacji, gdyby faktycznie sztuczna inteligencja miała przejąć pewne obowiązki wymiaru sprawiedliwości, by był to system wolny od wypaczeń. Czyli podsumowując - konieczne jest stworzenie procesu weryfikacyjnego i ewentualnie ustalenie, kiedy AI sama może rozstrzygać sprawę, a kiedy powinna trafić ona do człowieka - dodaje.

Sprawdź w LEX: Jak powinna wyglądać klauzula informacyjna dla pracownika zatrudnionego w Polsce, którego dane osobowe są przekazywane do kancelarii prawnej na Ukrainie? >>

AI przygotuje, sędzia orzeknie

W podobnym tonie wypowiada się zresztą sędzia Katarzyna Orłowska-Mikołajczak z Sądu Rejonowego w Koszalinie. - Przykładowo jako sędzia, który pracuje w wydziale gospodarczym i tworzy plany rozpraw, żmudne, pracochłonne, wymagające czasu, uważam że pomocne byłoby gdyby wszystkie pisma były w wersji plików tekstowych i - co więcej - żeby na podstawie pozwu, odpowiedzi na pozew system automatycznie generował plan rozprawy - wskazując o co strony wnoszą, jakie mają zarzuty wobec siebie, jakie wnioski dowodowe. Sędzia rozstrzygałby jedynie ile czasu na to poświęcić. Tak naprawdę  plan rozprawy  jest jak "mind map", mówi nam co musimy zrobić żeby sprawę rozpoznać i wydać ostateczne rozstrzygniecie. Gdyby te plany rozprawy tworzyły się automatycznie to zaoszczędziłoby dużo czasu - mówi sędzia. Dodaje, że kolejnym obszarem, w których program mógłby nam pomagać, jest pisanie uzasadnień, ale tylko w zakresie stanu faktycznego i żądań stron. - Rozważania prawne wolę - jako sędzia - sama pisać, bo wiem co doprowadziło mnie do wydania wyroku w sprawie. Pamiętajmy jednak, że uzasadnienie składa się z trzech części - wstęp, stan faktyczny i rozważania prawne. Uważam, że sztuczna inteligencja mogłaby nam pomagać właśnie w tych dwóch pierwszych obszarach. Ale wydanie wyroku w sprawie, co do tego czy udzielić ochrony prawnej czy też nie stronie, czy racje ma powód czy pozwany, zawsze powinno należeć do sędziego. To jest minimalny standard gwarancji procesowych w obszarze praw człowieka  - dodaje sędzia Orłowska-Mikołajczak. 

Czytaj w LEX: Tajemnica obrończa i adwokacka oraz radcy prawnego >>

W jej ocenie można by też usprawnić samo wyszukiwanie orzeczeń, bo w tej chwili - w jej ocenie - narzędzia, które są są zbyt mało precyzyjnie. - I kolejna kwestia każde uzasadnienie powinno być automatycznie zaciągane do bazy w sposób zanonimizowany i... analizowane. Dlaczego? Bo nadal orzecznictwo w zależności od sądu się różni - mówią nam o tym pełnomocnicy.  Gdyby był system, który by zbierał informacje jakie są przykładowo rozstrzygnięcia w sprawie  zadośćuczynień w zbliżonych stanach prawnych  w  poszczególnych apelacjach, czy jak sędziowie orzekają w sprawach dotyczących ubezpieczeniowych i innych, można by to orzecznictwo w większym zakresie ujednolicać  - mówi.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

 

Uwaga na dane - ChatGPT może się coś wymsknąć

Profesor Michał Jackowski, adwokat, partner zarządzający DSK Kancelaria i Mikołaj Wiza, radca prawny, LexDigital i kancelaria DSK zwracają uwagę na kwestie poufności (cała opinia zostanie opublikowana na Prawo.pl 19 maja). - ChatGPT jest trenowany na ogromnych zbiorach danych tekstowych, które pochodzą z różnych źródeł, takich jak książki, artykuły czy strony internetowe. Dzięki temu, model uczy się struktury języka, gramatyki, stylu i kontekstu. Model analizuje informacje, ucząc się, jakie słowa i frazy występują razem oraz jakie są najbardziej prawdopodobne odpowiedzi na różne pytania czy prośby. Uczenie się przez wzmacnianie: Polega to na ocenianiu wygenerowanych odpowiedzi i dostosowywaniu parametrów modelu, aby poprawić jego działanie. Model dostaje "nagrody" za poprawne odpowiedzi i "kary" za niepoprawne, co pozwala mu lepiej dopasować się do oczekiwań użytkownika - zaznaczają eksperci.

Czytaj w LEX: Wpływ rozwoju sztucznej inteligencji na proces stanowienia prawa w Polsce >>

Jak dodają, to z kolei oznacza, że używając narzędzi AI od zewnętrznych dostawców prawnicy muszą zakładać, iż ujawniają wszelkie informacje, które dostarczają modelowi. - Co ważniejsze dostęp do nich potencjalnie ma nie tylko dostawca danego narzędzia AI ale również każdy inny użytkownik z niego korzystający. Jednocześnie ewentualne usunięcie takich danych z modelu może być co najmniej trudne – nie ma on bowiem jednej „bazy” ze wszystkimi informacjami i danymi które taki model wykorzystuje. Dlatego zdrową zasadą, szczególnie na obecnym etapie rozwoju tej technologii jest bazowanie na dwóch założeniach: każda informacja wprowadzona do modelu AI przestaje być poufna; każda informacja wprowadzona do modelu AI jest nieusuwalna - podkreślają. 

Czytaj w LEX: Wymogi RODO kierowane do radców prawnych i adwokatów - przegląd obowiązków i wyłączeń >>

To z kolei oznacza - w ich ocenie, że schematyczna polityka prywatności nie wystarcza. - Potencjalne korzyści dla branży prawnej są ogromne, ryzykiem jest jednak złamanie podstawowych zasad dotyczących bezpieczeństwa i ochrony danych powierzonych prawnikom. Sztuczna inteligencja może jednak stanowić nie tylko zagrożenie w tym obszarze ale również wsparcie. Można sobie bowiem wyobrazić narzędzie, które pozwalałoby na automatyczne usuwanie danych identyfikujących, takich jak imiona, adresy e-mail i numery telefonów z dokumentów i innych zbiorów danych. Takie osobne AI z zablokowaną możliwością wykorzystywania danych które anonimizuje mogłoby stanowić pierwszą warstwę ochrony informacji w kancelariach korzystających z innym rozwiązań opartych o sztuczną inteligencję. Innym przykładem może być wykorzystanie AI do monitorowania systemów informatycznych w poszukiwaniu nieautoryzowanego dostępu do danych, naruszeń zasad prywatności czy potencjalnych zagrożeń. Systemy AI mogą bowiem szybko analizować duże ilości danych i w czasie rzeczywistym identyfikować zagrożenia, które mogą ewentualnie prowadzić do naruszenia prywatności - podsumowują.