Konferencja odbyła się z inicjatywy Wolters Kluwer Polska i partnera strategicznego Legora. To nazwa firmy, ale też zestawu narzędzi prawnych wykorzystujących AI. Legora powstała dla jednej z wiodących szwedzkich kancelarii, obecnie ma biura w Sztokholmie, Londynie i Nowym Jorku oraz ponad 400 klientów. Marcus Rajkowski, szef firmy na Polskę i Europę Środkowo-Wschodnią, zapewniał, że system integruje się z najlepszymi na rynku modelami AI.

Dużo pytań wywołała prezentacja praktycznych możliwości systemu, który potrafi np. analizować wzory umów i na ich podstawie stworzyć listę czerwonych flag lub pytań do zadania. Jako najważniejszą funkcję Marcus Rajkowski przedstawił wtyczkę do programu MS Word, która m.in. analizuje modyfikacje dokumentu naniesione przez różne osoby w trybie śledzenia zmian i na tej podstawie proponuje poprawki albo treść komentarza, jaki prawnik powinien dodać (i się pod nim podpisać).

AI jako kwestia strategiczna

Uczestnicy panelu „Nowe technologie – AI w Dziale Prawnym” zastanawiali się, czy prawnicy in-house muszą zacząć stosować narzędzia wykorzystujące sztuczną inteligencję. – Nie mamy wyjścia – mówiła Ewa Adamska-Pietrzak, prawniczka in-house z Wolters Kluwer Polska.

Tomasz Prus, head of innovation w CMS, zastrzegł jednak, że niektóre podejścia do tematu nie są słuszne. – Albo podchodzimy do AI w taki sposób, że całkowicie zastąpi prawników, albo odkładamy ten temat na półkę i z nim czekamy – mówił. – Można zacząć tę przygodę od drobnych usprawnień: tłumaczeń maszynowych, sprawdzania maili – proponował.

– To jest strategiczna kwestia, tak jak kiedyś chmura – przekonywał zaś Marcus Rajkowski.

Zgodził się z nim prowadzący debatę Marcin Zręda, dyrektor strategiczny rynku usług prawnych i przedsiębiorstw w Wolters Kluwer Polska. – Gdy wchodziła chmura, były podobne dylematy dotyczące bezpieczeństwa, compliance. Prawnicy nie zgadzali się na narzędzia chmurowe, a jednocześnie wysyłali dokumenty darmowym Gmailem – mówił.

– Chmura była prawdziwą rewolucją. Pamiętam pytania, które zadawali radcowie prawni i adwokaci: czy to rozwiązanie jest bezpieczne, czy tajemnica zawodowa zostanie zachowana. Wydaje mi się, że poziom tolerancji wobec nowych technologii wzrósł, dlatego z AI może być łatwiej – mówiła Ewa Adamska-Pietrzak. Jej zdaniem pytania o bezpieczeństwo danych i lokalizację serwerów nadal powinny się jednak pojawiać, i prawnicy in-house powinni je zadawać dostawcom usług AI.

– Warto zapytać, czy nasze prompty są przetwarzane, archiwizowane, analizowane oraz czy dostawca wykorzystuje je w jakikolwiek sposób. Jeśli wprowadzane są dane osobowe, należy pytać, gdzie są przetwarzane – kontynuowała prawniczka.

 

Nowość
Bestseller
Obrazy generowane z wykorzystaniem sztucznej inteligencji
-30%

Cena promocyjna: 139.29 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 119.4 zł


Narzędzia AI a bezpieczeństwo danych

Ewa Adamska-Pietrzak zwróciła też uwagę, że korzystanie z rozwiązań AI może oznaczać wprowadzanie do systemu informacji stanowiących tajemnicę przedsiębiorstwa, dane osobowe, a także informacje objęte tajemnicą zawodową radcy prawnego lub adwokata. – Dlatego trzeba sięgnąć do ogólnych warunków umowy, regulaminu oraz polityki prywatności. I to jest nasza rola – mówiła. – Zdrowy rozsądek podpowiada, by zwracać uwagę, kto dostarcza dane narzędzie AI i czy jest ono darmowe. Nie ma nic za darmo – jeśli nie płacę za narzędzie, to oznacza, że dzielę się danymi – dodała.

Marcus Rajkowski mówił, że są dwa sposoby działania narzędzi AI. Pierwszy wykorzystuje dane do treningu modelu językowego. Drugi, zwany agnostycznym, opiera się na zapewnieniu dostępu do innych dostępnych na rynku modeli i niewykorzystywaniu danych do ich trenowania. Jak zapewnił, Legora działa w sposób agnostyczny, a danych wprowadzanych przez Europejczyków nie transferuje poza UE.

– Model ćwiczący na danych to największe ryzyko. To jest jak gotowanie zupy: gdy wrzucę przyprawę, to już jej nie wyciągnę – mówił Marcus Rajkowski.

Marcin Zręda zwrócił uwagę na jeszcze jedno zagrożenie: zjawisko niekontrolowanego wykorzystywania AI przez pracowników. Nawet jeśli firma wprowadza wewnętrzne regulacje odnoszące się do sztucznej inteligencji, nie ma gwarancji, że żaden pracownik nie sięgnie po nieautoryzowane systemy.

– Ludzie i tak znajdą sposób, by korzystać z tych narzędzi. Każdy może nawet wyciągnąć prywatny telefon, zrobić zdjęcie ekranu i wkleić do innego systemu AI – wtórował mu Tomasz Prus. Jak dodał, w CMS obowiązują procedury określające, kto i w jaki sposób powinien korzystać z danych rozwiązań. – Aby dostać dostęp np. do Copilota, musimy przejść e-learning. Jedna wersja od drugiej może się różnić, nie każda pozwala na przesyłanie dowolnych dokumentów – tłumaczył.

Inne niebezpieczeństwo związane z narzędziami AI polega na tym, że użytkownik może nie mieć świadomości, do czego będą wykorzystane wprowadzone przez niego dane. - Najlepiej zacząć używanie takich narzędzi od wejścia w ustawienie prywatności i odhaczanie opcji, które nam nie pasują - radził Marcin Zręda.

Wykorzystanie AI a zarobki prawnika

Panel wywołał wiele pytań z sali. Jedno dotyczyło tego, jakie zadania prawnika w pierwszej kolejności wspomoże sztuczna inteligencja. – Zakładając, że mamy dobrego dostawcę AI, na pewno powierzę mu research. Czekam na rozwiązanie na rynku, które będzie integrowało system informacji prawnej z nowymi narzędziami AI. Druga rzecz to proste umowy handlowe – mówiła Ewa Adamska-Pietrzak.

Dyskusję wywołał sposób współpracy z zewnętrzną kancelarią, która korzysta z AI. Padło pytanie o to, czy kancelaria musi ten fakt ujawnić i jak wpływa to na aspekty finansowe. Tomasz Prus odpowiedział, że wszystko zależy od oczekiwań klientów: niektórzy zastrzegają, że nie życzą sobie AI, inni wręcz przeciwnie. Jedna z uczestniczek stwierdziła, że jeśli wykonała jakąś czynność z użyciem AI przez trzy godziny, to oczekuje wynagrodzenia za trzy godziny pracy. Bez AI ta sama praca zajmie zaś sześć godzin i za tyle będzie musiał zapłacić klient.

In-House Lawyer Innovation Forum 2025

Patronat merytoryczny nad konferencją objęło Polskie Stowarzyszenie Prawników Przedsiębiorstw (PSPP). Frekwencja dopisała – w wydarzeniu wzięło udział 130 szefów działów prawnych największych przedsiębiorstw w Polsce.

Tematy pozostałych trzech paneli obejmowały:

  • regulacje dostępności (EAA) i ich wpływ na prawo, IT i biznes [prowadzący: Michał Żmijewski, senior associate w Lubasz i Wspólnicy – Kancelaria Radców Prawnych sp.k.]
  • zarządzanie danymi (Data Act, Data Governance) [prowadzący: Mirosław Gumularz, radca prawny, Kancelaria NTL (NewTechLaw.eu)],
  • cyberbezpieczeństwo (NIS2, DORA) [prowadząca: Małgorzata Milewicz-Stobińska – Wolters Kluwer Polska].

Podczas wydarzenia zaprezentowano również innowacyjne rozwiązania partnerów platformy LEX HUB, zaś w ramach pitch session można było się przekonać, jak startupy i partnerzy technologiczni odpowiadają na realne wyzwania rynku.

W dyskusjach wzięli też udział: Agnieszka Sławek-Helwin (Allegro | senior compliance specialist | Risk & Compliance), Dariusz Sojka LL.M. (director & counsel, CEE General Counsel’s Organisation, American Express), Joanna Kieszek (kierownik Zespołu Compliance i rzeczniczka etyki w Totalizatorze Sportowym), Bartosz Menz (head of legal operations w Grupie Żabka), Magdalena Soboń-Stasiak (compliance officer, senior legal counsel), Katarzyna Abramowicz (radczyni prawna, założycielka serwisów m.in.: Przelewy24.pl, Bilety24.pl, Specfile.pl, Specprawnik.pl, Sygnanet.pl), Mateusz Jakubik (compliance officer w Bonnier Business Polska oraz CIO w ODO Szkolenia), Marek Laskowski (IT Director Domański Zakrzewski Palinka sp.k.), Edyta Miaśkiewicz (prawnik, compliance officer), Rafał Tomasz Prabucki (COO w Szostek_Digital).

Zobacz zaufanych partnerów LEX Hub >>