Branża prawa nie jest tu wyjątkiem. Wykorzystanie AI może przyspieszyć analizę danych, ułatwić pisanie i weryfikację umów i pism czy pomóc w efektywnym podejmowaniu decyzji. Są to obiecujące perspektywy, które prawnicy mogą wykorzystać by zwiększyć szybkość i jakość świadczonych usług.

Jednakże, wraz z rosnącą popularnością AI i pierwszymi przykładami jej implementacji do świata prawa (takie jak np. polski startup AnyLawyer) pojawiają się poważne obawy dotyczące ochrony prywatności i danych. Jak wyważyć innowacyjność i wydajność z etyką i tajemnicą zawodową czy odpowiedzialnością za treść i jakość świadczonych usług? Czy sztuczna inteligencja może narazić poufności danych klientów lub przyczynić się do naruszenia praw prywatności?

Czytaj w LEX: RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>

Zacznijmy jednak od początku i wyjaśnijmy podstawowe aspekty funkcjonowania sztucznej inteligencji na przykładzie najgłośniejszego obecnie przypadku.

Czytaj:
Sztuczna inteligencja to przyszłość, ale w służbie społecznej>>
Apel o przyjęcie przepisów chroniących przed nadużywaniem sztucznej inteligencji>>

ChatGPT działa w oparciu o uczenie maszynowe, które w dużym uproszczeniu polega na analizie danych i dopasowywaniu się do wyuczonych w ten sposób wzorców, aby osiągnąć określone cele. W przypadku ChatGPT celem jest zrozumienie i generowanie odpowiedzi na tekst wprowadzany przez użytkownika.

Zobacz w LEX: Cyberbezpieczeństwo kancelarii prawnych >>

Uproszczony proces działania ChatGPT wygląda następująco:

  1. Nauka: ChatGPT jest trenowany na ogromnych zbiorach danych tekstowych, które pochodzą z różnych źródeł, takich jak książki, artykuły czy strony internetowe. Dzięki temu, model uczy się struktury języka, gramatyki, stylu i kontekstu. Model analizuje informacje, ucząc się, jakie słowa i frazy występują razem oraz jakie są najbardziej prawdopodobne odpowiedzi na różne pytania czy prośby.
  2. Uczenie się przez wzmacnianie: Polega to na ocenianiu wygenerowanych odpowiedzi i dostosowywaniu parametrów modelu, aby poprawić jego działanie. Model dostaje "nagrody" za poprawne odpowiedzi i "kary" za niepoprawne, co pozwala mu lepiej dopasować się do oczekiwań użytkownika.
  3. Przetwarzanie danych: Gdy użytkownik wprowadza tekst, ChatGPT analizuje go i próbuje zrozumieć kontekst oraz intencje. Model przetwarza informacje sekwencyjnie, słowo po słowie, uwzględniając wcześniejsze słowa i frazy, aby lepiej zrozumieć znaczenie i związek z aktualnym pytaniem czy prośbą.
  4. Generowanie odpowiedzi: Na podstawie analizy tekstu i wiedzy nabytej podczas treningu, ChatGPT generuje odpowiedź, która jest najbardziej prawdopodobna i adekwatna do kontekstu. Model wybiera słowa i frazy, które mają największe prawdopodobieństwo wystąpienia w danej odpowiedzi, a następnie łączy je w logiczny i spójny tekst.

Podsumowując, ChatGPT to sztuczna inteligencja, która uczy się na podstawie danych tekstowych, analizuje wprowadzone przez użytkownika teksty, a następnie generuje odpowiedzi oparte na swojej wiedzy i zrozumieniu języka.

Czytaj w LEX: Czy unijna regulacja odpowiedzialności cywilnej za sztuczną inteligencję jest potrzebna? >>

Nowość
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Ujawniają się informacje dostarczane modelowi

To oznacza, że używając narzędzi AI od zewnętrznych dostawców prawnicy muszą zakładać, iż ujawniają wszelkie informacje, które dostarczają modelowi. Co ważniejsze dostęp do nich potencjalnie ma nie tylko dostawca danego narzędzia AI ale również każdy inny użytkownik z niego korzystający. Jednocześnie ewentualne usunięcie takich danych z modelu może być co najmniej trudne – nie ma on bowiem jednej „bazy” ze wszystkimi informacjami i danymi które taki model wykorzystuje. Dlatego zdrową zasadą, szczególnie na obecnym etapie rozwoju tej technologii jest bazowanie na dwóch założeniach:

  • każda informacja wprowadzona do modelu AI przestaje być poufna;
  • każda informacja wprowadzona do modelu AI jest nieusuwalna.

Jest to oczywiście wyolbrzymienie, ale taka jest rola założeń, szczególnie w przypadku tak nowej i przełomowej technologii jak AI.

Czytaj w LEX: Pułapki sztucznej inteligencji >>

Czytaj też: Sztuczna inteligencja dużo może, także rozpowszechnić firmowe tajemnice>>

Przypomnijmy, że dane osobowe muszą być przetwarzane w sposób zapewniający odpowiednie bezpieczeństwo, w tym ochronę przed niedozwolonym lub niezgodnym z prawem przetwarzaniem oraz przypadkową utratą, zniszczeniem lub uszkodzeniem, za pomocą odpowiednich środków technicznych lub organizacyjnych. Dane osobowe nie mogą być ujawniane, przekazywane ani udostępniane osobom trzecim bez zgody osoby, której dane dotyczą, chyba że istnieje inny uzasadniony powód, na przykład obowiązek prawny lub wykonywanie umowy. Karmienie modeli sztucznych inteligencji danymi naszych klientów trudno jest uznać za „uzasadniony powód” w przypadku umowy o świadczenie usług obsługi prawnej. Dane osobowe muszą też być przetwarzane w taki sposób aby prawo do ich usunięcia były wykonywalne. To są tylko przykłady ze znanego wszystkim ogólnego rozporządzania o ochronie danych. Zawodowych prawników obowiązuje jeszcze tajemnica zawodowa i obowiązek zachowania w tajemnicy zawodowej wszystkiego, o czym dowiedział się w związku z udzieleniem pomocy prawnej.

Czytaj w LEX: Użycki Dariusz - Czym grozi sztuczna inteligencja? >>>

Czytaj: Prawo autorskie tylko dla ludzi, nawet gdy algorytm namaluje lepiej>>

Schematyczna polityka prywatności nie wystarczy

Wskazanie powyższych okoliczności może wydawać się truizmem. Jest to jednak niezwykle bowiem ochrona danych, szczególnie tak wrażliwych jak te do których mają prawnicy, nie może być oparta tylko o schematyczną politykę prywatności na stronie kancelarii czy politykę bezpieczeństwa danych osobowych która była ostatni raz widziana w maju 2018 r. Należy przy tym podkreślić, że nie tylko dane osobowe użytkowników takie jak imię i nazwisko podlegają ochronie, ale wszelkie dane pozwalające na ich identyfikacje. Zatem szczegółowy opis stanu faktycznego, choć zanonimizowany, ale pozwala na identyfikację danej osoby, również wymaga odpowiedniego stopnia ochrony.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

A potencjał jest olbrzymi, pierwszymi z brzegu przykładami zastosowania AI w branży prawnej są chociażby:

  1. Automatyczne klasyfikowanie dokumentów na podstawie ich treści, co znacząco ułatwi prawnikom zarządzanie dużą ilością informacji. Rozwiązanie to może być szczególnie efektywne dla dużych kancelarii gdzie w morzu przygotowanych pism, opinii i wniosków leżą olbrzymie pokłady niewykorzystanej wiedzy, niejednokrotnie z gotowymi odpowiedziami dla bieżących problemów i spraw.
  2. Research: AI może pomóc w procesie analizy prawnej który polega często na wyszukiwaniu, identyfikacji i gromadzeniu elektronicznych informacji istotnych dla spraw sądowych pytań prawnych. Zaawansowane algorytmy mogą analizować duże zbiory danych, wykrywając istotne dokumenty oraz zautomatyzowanie procesu segregacji informacji.
  3. Analiza i generowanie umów i innych dokumentów prawnych, a także weryfikacja zgodności z przepisami prawnymi oraz wykrywania potencjalnych problemów czy punktów spornych. 
  4. Wsparcie w podejmowaniu decyzji: AI może analizować dane, takie jak orzeczenia sądowe czy regulacje, aby wspierać prawników w procesie podejmowania decyzji czy przewidywaniu szans procesowych w danej sprawie. Analiza to może również dotyczyć czasu trwania postępowania czy kosztu procesu z uwzględnieniem charakterystyki poszczególnych sądów/urzędów.
  5. Przeglądanie i zarządzanie zgłoszeniami patentowymi czyli wsparcie prawników i specjalistów w przeglądaniu zgłoszeń patentowych, porównując je z istniejącymi patentami, aby uniknąć dublowania lub naruszenia praw własności intelektualnej.

Czytaj w LEX: Wpływ rozwoju sztucznej inteligencji na proces stanowienia prawa w Polsce >

Korzyści i zagrożenia

Potencjalne korzyści dla branży prawnej są zatem ogromne, ryzykiem jest jednak złamanie podstawowych zasad dotyczących bezpieczeństwa i ochrony danych powierzonych prawnikom. Sztuczna inteligencja może jednak stanowić nie tylko zagrożenie w tym obszarze ale również wsparcie. Można sobie bowiem wyobrazić narzędzie, które pozwalałoby na automatyczne usuwanie danych identyfikujących, takich jak imiona, adresy e-mail i numery telefonów z dokumentów i innych zbiorów danych. Takie osobne AI z zablokowaną możliwością wykorzystywania danych które anonimizuje mogłoby stanowić pierwszą warstwę ochrony informacji w kancelariach korzystających z innym rozwiązań opartych o sztuczną inteligencję. Innym przykładem może być wykorzystanie AI do monitorowania systemów informatycznych w poszukiwaniu nieautoryzowanego dostępu do danych, naruszeń zasad prywatności czy potencjalnych zagrożeń. Systemy AI mogą bowiem szybko analizować duże ilości danych i w czasie rzeczywistym identyfikować zagrożenia, które mogą ewentualnie prowadzić do naruszenia prywatności.

WZORY dokumentu w LEX: Umowa o korzystanie ze sztucznej inteligencji (na przykładzie programu dla rejonowych sądów karnych) >

Świadomość ryzyk, jakie niesie wykorzystanie nowych technologii

Prawnicy nie muszą być specjalistami od technologii czy sposobu funkcjonowania AI. Muszą być natomiast świadomi ryzyk jakie niesie wykorzystanie nowych technologii w ich pracy. Obecnie trwające prace w Komisji Europejskiej nad Rozporządzeniem dotyczącym sztucznej inteligencji (AI Act) nie skończą się prawdopodobnie przed końcem 2023 r. Istnieją już jednak przepisy wymagające zachowania odpowiednich zabezpieczeń i odpowiedzialności za powierzone dane i informacje. Należy zatem mieć świadomość, że ich ochrona nie może polegać tylko na przygotowaniu odpowiednich procedur, szczególnie, że w świecie rozwijającej się sztucznej inteligencji mogą być one już przestarzałe.

Czytaj w LEX: Cyberzagrożenia w cyberprzestrzeni. Cyberprzestępczość, cyberterroryzm i incydenty sieciowe >

Istotne jest zatem zastosowanie podejścia kompleksowego, uwzględniającego zarówno aspekty prawne, jak i techniczne, aby skutecznie zarządzać ryzykami związanymi z zastosowaniem AI. Dotyczyć to musi zarówno w codziennej obsługi jak i całego systemu prawnego. Współpraca między prawnikami, twórcami AI, organami regulacyjnymi i innymi zainteresowanymi stronami będzie kluczowa dla identyfikacji, monitorowania i minimalizowania tych ryzyk, jednocześnie umożliwiając korzystanie z pełnego potencjału korzyści płynących z sztucznej inteligencji.

Czytaj w LEX: O problemach prawa autorskiego w kontekście twórczości sztucznej inteligencji >>>

Autorzy:
Profesor Michał Jackowski, adwokat, partner zarządzający DSK Kancelaria

Michał Jackowski
Mikołaj Wiza, radca prawny, LexDigital i kancelaria DSK. 

Mkołaj Wiza