Mity o AI, które szkodzą Twojej kancelarii. Wątpliwości rozwiewa Maria Dymitruk [Prawo na Oko #64]
Mity nie pojawiają się z dnia na dzień. Zwykle wyrastają z drobnych uproszczeń, które z czasem zaczynamy traktować jak fakty. Dokładnie w ten sposób funkcjonuje dziś wiele opinii o AI w kancelariach. Gościem kolejnego odcinka Prawo na Oko jest dr Maria Dymitruk - radczyni prawna, przewodnicząca Komisji ds. Nowych Technologii Federacji Adwokatur Europejskich (FBE), naukowczyni i praktyczka, która od lat zajmuje się wykorzystaniem AI w prawie. W rozmowie wyjaśnia, dlaczego to właśnie mity narosłe wokół AI mogą dziś generować większe ryzyko aniżeli sama technologia, a także czemu strategia „nicnierobienia” bywa jedną z najbardziej kosztownych decyzji, jakie może podjąć kancelaria.

AI w kancelarii niejedno ma imię - a każde z nich oznacza inne ryzyka i inne decyzje
Jednym z najbardziej szkodliwych uproszczeń jest traktowanie sztucznej inteligencji jako jednego, jednolitego rozwiązania. Tymczasem, jak podkreśla rozmówczyni:
Hasło ‘używamy AI’ może oznaczać bardzo różne rzeczy. Od niekontrolowanego korzystania z darmowych narzędzi, po dobrze zaprojektowane procesy albo własne, kancelaryjne rozwiązania. Każda z tych dróg wiąże się z innymi ryzykami oraz decyzjami.
Czy otwarta rozmowa o AI w kancelarii może kosztować utratę klienta?
Wielu prawników obawia się, że rozmowa z klientem o korzystaniu z AI może go zniechęcić albo nawet zakończyć współpracę. Doświadczenia z praktyki pokazują jednak coś innego. Sam fakt używania AI rzadko jest problemem. Dla klienta ważniejsze jest to, czy kancelaria ma nad tym kontrolę, wie, jak działa narzędzie i potrafi w prosty sposób wyjaśnić, w jaki sposób z niego korzysta.
Trzeba wyraźnie odróżnić sytuacje, w których deklarujemy korzystanie z AI i faktycznie robimy to w sposób przemyślany oraz odpowiedzialny, od tych, w których taka deklaracja idzie w parze z nieumiejętnym użyciem technologii. O tych drugich przypadkach było już głośno - natomiast o pierwszych wciąż właściwie się nie słyszy. Znam za to wiele sytuacji, w których po informacji o korzystaniu z AI klienci nie rezygnowali ze współpracy, lecz przeciwnie - oczekiwali pogłębionej rozmowy i dodatkowych wyjaśnień
zaznacza prawniczka.
Gdzie naprawdę przebiega granica odpowiedzialnego korzystania z AI?
Wbrew popularnym oczekiwaniom nie da się wskazać jednego momentu ani jednej reguły, która wyraźnie oddziela bezpieczne korzystanie z AI od ryzykownego. Ta niewidoczna granica zależy od kontekstu i obszaru, w którym korzystamy ze sztucznej inteligencji.
Odpowiedzialność materializuje się w różnych obszarach w różny sposób. Jeśli mówimy o ryzykach związanych z danymi klientów, granica przebiega tam, gdzie dane są bezpieczne i właściwie zabezpieczone. Z kolei w przypadku typowych problemów narzędzi generatywnych, takich jak halucynacje, granice wyznacza przede wszystkim świadomość ich istnienia i konieczność weryfikacji wyników. Dla mnie nie ma tu sztywnych, uniwersalnych granic
wyjaśnia gościni.
Mity o AI w kancelariach są nieprawdziwe, jednak mają prawdziwe i często poważne konsekwencje - wpływają na decyzje, procesy i ryzyko. Rozmowa z dr Marią Dymitruk przypomina, jak ważne jest odróżnienie faktów od uproszczeń, zanim te ostatnie zaczną decydować za nas.






