Sztuczna inteligencja staje się coraz bardziej powszechnie wykorzystywanym narzędziem w firmach – również w praktyce kancelarii prawnych. O szansach, ale i ryzyku, które się z tym wiąże, wypowiadają się eksperci podczas konferencji „Legal Tech – czyli nowe technologie w praktyce prawniczej” organizowanej na Wydziale Prawa, Administracji i Ekonomii Uniwersytetu Wrocławskiego. Wydarzenie zostało podzielone na dwa dni wystąpień – dziś wypowiadają się prawnicy i eksperci, natomiast jutrzejszy panel poprowadzą studenci, aplikanci i doktoranci. Wolters Kluwer Polska jest patronem medialnym wydarzenia.

Czytaj też: ChatGPT prawnikom może pomóc, ale jest ryzyko dla tajemnic klientów​ >>

Czat GPT z prostym wzorem umowy sobie poradzi, ale… poda nieistniejące źródła

Radca prawny dr Gabriela Bar z kancelarii Szostek_Bar i Partnerzy, adiunkt na WPiA Uniwersytetu Śląskiego, podczas swojego wystąpienia pokazała wygenerowany przez czat GPT wzór umowy sprzedaży. Okazało się, że sztuczna inteligencja bardzo dobrze poradziła sobie z tym zadaniem – umowa wymagała jedynie drobnych korekt i uzupełnienia danych. Tym samym coś, co młodszemu prawnikowi zajęłoby zapewne średnio ok. dwóch godzin, czat GPT stworzył w dwie minuty. Czy to oznacza, że prawnicy powinni zacząć obawiać się o swoją pracę? Niekoniecznie.
Jak podkreśliła w trakcie swojego wystąpienia prawniczka, narzędzia oparte o sztuczną inteligencję w przyszłości mogą być bardzo przydatne w kancelaryjnej praktyce, nie zmienia to jednak faktu, że wciąż trzeba do nich podchodzić z dużą dozą ostrożności i rezerwy. A więc przede wszystkim – weryfikować poprawność, jakość i źródła. Bo w innym przypadku, w którym czat GPT miał wygenerować informację wraz ze źródłami, źródła zostały co prawda wskazane, tyle że… nie istniały. Wygenerowany link nie prowadził do żadnego dokumentu, na którym rzekomo sztuczna inteligencja się opierała.

Zobacz w LEX: Cyberbezpieczeństwo kancelarii prawnych >>

 

Wciąż brakuje dostosowanych przepisów

Problemem nadal jest również to, że wciąż nie wiadomo, jak traktować „dzieła” stworzone przez sztuczną inteligencję. Nie są one bowiem typowym utworem, ani utworem zależnym, w rozumieniu prawa autorskiego. Na poziomie Unii Europejskiej są już tworzone akty prawne, które mają uregulować większość tych kwestii, ale na ich przyjęcie trzeba jeszcze poczekać. Jak zaznaczyła dr Gabriela Bar, dużym zagrożeniem, z którym trzeba się mierzyć, jest na przykład naruszanie praw twórców. Mowa tu przede wszystkim o „dziełach” inspirowanych stylem malarskim lub pisarskim znanego autora. Legalność tzw. sztuki generatywnej jest już kwestionowana na przykład w Stanach Zjednoczonych. Potencjalne naruszenia mogą dotyczyć też np. prawa ochronnego znaków towarowych czy przyczynić się do działania w ramach nieuczciwych praktyk rynkowych. Problemem jest również to, że treści udostępnione np. czatowi GPT mogą stać się wręcz powszechnie dostępne – dlatego kancelaria nie powinna wykorzystywać generatorów w sytuacji, gdy wymagałoby to udostępnienia poufnych informacji.

Sprawdź w LEX: Jak powinna wyglądać klauzula informacyjna dla pracownika zatrudnionego w Polsce, którego dane osobowe są przekazywane do kancelarii prawnej na Ukrainie? >>

Niedoceniana wartość weryfikacji dwuetapowej

Radca prawny Maciej Groń z Naukowej i Akademickiej Sieci Komputerowej (NASK) wskazywał z kolei na konieczność upowszechniania kultury cyberbezpieczeństwa i zabezpieczania danych, również w kancelariach prawnych. Często bowiem zdarza się, że w przypadku ataków hakerskich to prawnik jest słabym ogniwem – ze względu na niedostateczne zabezpieczenie poufnych danych klienta. Co można zrobić? Podstawową zasadą jest oddzielanie spraw prywatnych od służbowych, a więc korzystanie ze sprzętów służbowych do pracy, a prywatnych – w wolnym czasie. Jak podkreślił w wystąpieniu, zwłaszcza dla prawników prowadzących własne kancelarie nie jest to łatwe zadanie, ale przekłada się na znaczne zwiększenie bezpieczeństwa. Ważne jest też: regularne aktualizowanie systemu, dokładne sprawdzanie adresów domen i instalacja programu antywirusowego. Istotne są oczywiście również prawidłowo skonstruowane hasła. Największe bezpieczeństwo zapewnia tzw. weryfikacja dwuetapowa – dzięki jej zastosowaniu ryzyko przejęcia danych przez hakerów spada aż o 99,9 proc.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

 

Nowość
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Blockchain i sztuczna inteligencja w postępowaniach sądowych na panelu studenckim

Konferencja odbywa się w dniach 25 – 26 maja br. Podczas jutrzejszego panelu, prowadzonego przez studentów, doktorantów i aplikantów, pojawią się wystąpienia dotyczące m.in.: legal design, blockchain, wykorzystywania AI w postępowaniach sądowych i przy wydawaniu interpretacji podatkowych. Konferencja jest transmitowana również online – wciąż można się rejestrować pod tym linkiem.

Czytaj w LEX: Wpływ rozwoju sztucznej inteligencji na proces stanowienia prawa w Polsce >>