Przykłady z ostatnich miesięcy dobitnie pokazują, że z narzędzi generatywnej sztucznej inteligencji należy korzystać rozsądnie. W Polsce mieliśmy już przypadek firmy, która z dokumentacją będącą wytworem AI bezskutecznie starała się wygrać przetarg, a także pozew za komercyjne wykorzystanie głosu wygenerowanego przez tę technologię, przypominającego głos znanego lektora. O tym, by nie wprowadzać zwłaszcza do chatbotów AI (zwłaszcza darmowych, chociaż sama odpłatność nie gwarantuje jeszcze bezpieczeństwa) – poufnych danych firmy ani nas samych powiedziano już sporo, jednak ciągle niebezpieczeństwa bywają bagatelizowane, o czym mówili niedawno uczestnicy naszej redakcyjnej debaty (więcej: Firma nieumiejętnie korzysta z AI? Organ zastosuje politykę „zero litości”).
Nieporozumienia i problemy prawne zdarzają się też w świecie własności intelektualnej. – Przykładowo, klient przekazał nam ostatnio wyniki takiego badania, gdzie podawane były numery patentów, które nigdy nie istniały. Tak samo otrzymujemy pisma procesowe, w których powoływane są nieistniejące orzeczenia sądowe – mówi Paweł Kurcman, rzecznik patentowy, prezes Polskiej Izby Rzeczników Patentowych.
Czytaj też w LEX: Ubezpieczenia OC osób wykonujących wybrane zawody prawnicze w kontekście odpowiedzialności za korzystanie z rozwiązań AI >
Katalog zagrożeń związanych z nierozważnym stosowaniem genAI uzupełnił niedawno Urząd Patentowy RP. W komunikacie przestrzegł, by nie wprowadzać do czatów informacji poufnych, w szczególności dotyczących istotnych elementów wynalazku, których ujawnienie może spowodować utratę przymiotu nowości. - Wszelkie dane wpisane w pole konwersacji mogą zostać użyte do dowolnych celów, w tym wykorzystane do trenowania modeli AI i przez to stać się publicznie dostępne – przestrzega UPRP.
Czytaj też w LEX: Odpowiedzialność za korzystanie przez pracowników z narzędzi AI >
Czym jest powszechność w rozumieniu pwp
Na poparcie swojego stanowiska Urząd Patentowy przywołał art. 25 ustawy – Prawo własności przemysłowej (dalej: pwp). Zgodnie z ust. 1, wynalazek uważa się za nowy, jeśli nie jest on częścią stanu techniki. Ust. 2 definiuje zaś stan techniki jako „wszystko to, co przed datą, według której oznacza się pierwszeństwo do uzyskania patentu, zostało udostępnione do wiadomości powszechnej w formie pisemnego lub ustnego opisu, przez stosowanie, wystawienie lub ujawnienie w inny sposób”.
UPRP tłumaczy, że powszechność udostępnienia wynalazku w rozumieniu tego przepisu nie oznacza „powszechnej znajomości tego, co zostało udostępnione”, lecz „możliwość zapoznania się z upublicznionym rozwiązaniem przez osoby trzecie, nawet gdyby w rzeczywistości nikt się z nim nie zapoznał”.
Problem przynajmniej dziś wydaje się jeszcze teoretyczny. Praktycy nie słyszeli, by ktoś miał kłopot z uzyskaniem ochrony wynalazku z powodu nieświadomego dzielenia się wiedzą z AI – zresztą nie każdy taki przypadek da się w ogóle udokumentować. Zgadzają się natomiast z interpretacją przepisu art. 25 ust. 2 pwp, podaną przez UPRP.
Czytaj też w LEX: Budowa systemu zarządzania ryzykiem wdrażania mechanizmów opartych o AI w organizacji zgodnie z normami ISO i dobrymi praktykami >
Czat jak osoba trzecia
- Zagrożenie jest jak najbardziej realne – ocenia Paweł Kurcman. Jak tłumaczy, dotyczy ono różnych systemów AI, przede wszystkim zaś systemów otwartych, w których zasad zachowania poufności nie ma lub są dość ograniczone. - Tym samym w sytuacji wykorzystywania takiego narzędzia np. do sporządzenia zastrzeżeń patentowych, może ujawnić szczegóły techniczne, które mogą być potem ujawniane osobom trzecim – komentuje prezes Kurcman.
Czytaj też w LEX: Wybrane aspekty prawa patentowego a unijna polityka i regulacje w obszarze sztucznej inteligencji >
Natalia Basałaj, radca prawny z Kancelarii Hansberry Tomkiel, ocenia, że UPRP nieco dmucha na zimne, przyznaje jednak, że warto zachować ostrożność, zwłaszcza przy korzystaniu z darmowych modeli językowych (LLM). - Do czasu złożenia zgłoszenia patentowego nie należy wprowadzać do narzędzi generatywnej sztucznej inteligencji jakichkolwiek informacji technicznych dotyczących wynalazku, w szczególności opisów cech istotnych z punktu widzenia zastrzeżeń patentowych, jeżeli narzędzie to nie gwarantuje pełnej poufności danych – mówi Natalia Basałaj.
Zobacz też w LEX: Kto w organizacji powinien wiedzieć o wykorzystywaniu narzędzi AI? >
- Jeśli model AI „przyswoi” nasz wynalazek i w przyszłości wygeneruje podobną wskazówkę innemu użytkownikowi, nowość wynalazku zostaje zniweczona. Co więcej, nawet jeśli sztuczna inteligencja nie powtórzy naszych słów bezpośrednio, może zasugerować konkurencji właściwy kierunek badawczy, co niweczy tzw. poziom wynalazczy rozwiązania – wskazuje Marietta Poźniak, radca prawny prowadząca kancelarię pod własnym nazwiskiem.
Natalia Basałaj dodaje, że konkurencja może też wystąpić z wnioskiem o unieważnienie patentu, podnosząc zarzut braku zdolności patentowej - z uwagi na wcześniejszą publiczną dostępność identycznego lub równoważnego rozwiązania (za pośrednictwem narzędzi genAI).
Cena promocyjna: 228.65 zł
|Cena regularna: 269 zł
|Najniższa cena w ostatnich 30 dniach: 201.75 zł
Płatny czat to za mało, sam regulamin to za mało
Nie sposób zakładać, że innowatorzy przestaną korzystać z AI. Na co powinni uważać? Często pierwszą podpowiedzią jest korzystanie z płatnej wersji narzędzi AI. - Większość użytkowników, zwłaszcza darmowych wersji tych narzędzi, nie analizuje ich regulaminów, w których dostawcy technologii zastrzegają sobie prawo do wykorzystywania wpisanych treści w celu trenowania modeli. W momencie wysłania zapytania (promptu), informacja przestaje być poufna – tracimy nad nią faktyczną kontrolę, a dostawca zyskuje prawo do jej przetwarzania – przestrzega Marietta Poźniak.
Czytaj też w LEX: Sztuczna inteligencja i jej wynalazki - studium przypadku >
Jak jednak przestrzega Paweł Kurcman, chociaż płatne narzędzia zazwyczaj zapewniają poufności danych, to sam fakt odpłatności nie daje jeszcze dostatecznej gwarancji. - W zasadzie w każdym takim przypadku należy zapoznać się warunkami jakie gwarantuje podmiot odpowiedzialny za wprowadzanie danego narzędzia – mówi.
Natalia Basałaj dodaje, że ocena ryzyka, jaką należy przeprowadzić przy wyborze narzędzia AI, powinna obejmować:
- analizę bezpieczeństwa danych oraz sposobu ich przetwarzania i ochrony,
- możliwość ich dalszego wykorzystania przez dostawcę,
- realną dostępność danych dla osób trzecich,
- zgodność stosowanych rozwiązań AI z wymogami AI Act, w tym w zakresie zarządzania treścią,
- wykorzystania mechanizmów zabezpieczających oraz kontroli prowadzenia konwersacji.
Ocenia, że najbezpieczniejsze wydaje się korzystanie z rozwiązań lokalnych (on-premises). Jeśli jednak ktoś korzysta z narzędzi chmurowych, sam regulamin nie zagwarantuje bezpieczeństwa.
- Konieczne jest dokładne sprawdzenie postanowień dotyczących własności i kontroli nad danymi oraz ich bezpieczeństwa, w tym zasad klasyfikacji, blokowania, kierowania do odpowiednich repozytoriów i polityk uprawnień dostępu – wylicza prawniczka.
Jak dodaje, warto zwrócić uwagę na takie elementy jak: politykę prywatności dostawcy, zakres licencji, odpowiedzialność kontraktową, stosowane standardy szyfrowania, dostępność i kontrolę logów systemowych, zapewnienie odpowiednich mechanizmów bezpieczeństwa (tzw. guardrails). Niekiedy warto rozważyć zawarcie dodatkowych umów lub klauzul poufności (NDA).
Czytaj też w LEX: Memoryzacja utworów przez modele AI w świetle unijnego prawa autorskiego >
Brakuje świadomości i procedur
Pytanie tylko, czy firmy i uczelnie są świadome tych problemów. Natalia Basałaj ocenia, że procedury w zakresie korzystania z AI wprowadziły głównie duże przedsiębiorstwa. – Małe i średnie przedsiębiorstwa najczęściej nie posiadają takich procedur, co może zwiększać ryzyko niekontrolowanego ujawnienia wyników badań – mówi.
Marietta Poźniak przytacza zaś raport NASK z 2025 r., według którego ponad 2/3 pracowników nie otrzymało żadnych wytycznych dotyczących korzystania z narzędzi generatywnej sztucznej inteligencji w swoim miejscu pracy.
Czy muszę informować klientów o korzystaniu z narzędzi AI? - zobacz w LEX >
Paweł Kurcman zachęca natomiast, by korzystać z procedur obchodzenia się z AI, które opracują dla swoich klientów rzecznicy patentowi. - To przecież nie tylko kwestia utraty nowości wynalazku, to także ochrona praw autorskich, możliwość uzyskiwania błędnych wyników generowanych przez narzędzia AI i posługiwania się nimi w obrocie, obowiązek komunikowania o wykorzystaniu AI tak aby nie wprowadzać w błąd itp. – wylicza prezes PIRP.
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.














![AI dla prawników. Sztuczna inteligencja w praktyce zawodów prawniczych [PRZEDSPRZEDAŻ]](/gfx/prawopl/_thumbs/produkty_foto/83262/978-83-8438-070-3_,mn6D62SdolTgn7bKqdfXjIVm.jpg)
