Pytanie brzmi, czy operatorzy systemów mają prawo do korzystania z dostępnych publicznie zbiorów danych? Zarzuca się im bowiem, iż bezprawnie dokonują one pozyskania i przetworzenia dostępnych danych w sposób masowy i automatyczny, które następnie są wykorzystywane do tworzenia własnych wyników. Uznaje się bowiem, iż takie działania mogą stanowić naruszenie praw oryginalnych twórców lub innych podmiotów uprawnionych. Problem ten staje się kluczowy, bowiem to właśnie operatorów narzędzi takich jak Chat GPT dotyczyć będzie ryzyko wynikające ze zgłaszanych roszczeń, zarówno przez użytkowników systemu, twórców, jak i podmioty uprawnione do poszczególnych utworów wykorzystywanych w ramach procesu generowania odpowiedzi przez system.
Czytaj: Apel o przepisy chroniące przed nadużywaniem sztucznej inteligencji>>
Jaki status posiadają odpowiedzi Chat-u GPT?
W pierwszej kolejności wskazać należy na główną wątpliwość towarzyszącą kwalifikacji wytworów sztucznej inteligencji, w tym Chatu GPT, jako utwory w rozumieniu polskiej ustawy o prawie autorskim i prawach pokrewnych. Wskazuje się, iż jednym z niezbędnych kryteriów uznania danego elementu za utwór w rozumieniu prawa autorskiego jest jego stworzenie przez człowieka. Prawo autorskie w swoim podstawach ma bowiem chronić efekty ludzkiej działalności twórczej.
Czytaj w LEX: Problematyka sztucznej inteligencji w świetle prawa autorskiego >>>
W związku z tym przyjmuje się, że nawet jeśli dany element wygenerowany przez ChatGPT posiada cechy tożsame jak materiał stworzony przez ludzkiego twórcę, to i tak nie będzie on uznawany za utwór w rozumieniu prawa autorskiego – gdyż nie spełnia ustawowej przesłanki, jaką jest ludzkie autorstwo. Skutkiem przyjęcia takiego podejścia jest uznanie braku ochrony prawnoautorskiej, co może umożliwić ich swobodną eksploatację, a więc między innymi kopiowanie, modyfikację, udostępnianie takich wyników.
Czytaj: Sztuczna inteligencja tworzy, ale czy to legalne?>>
Podnoszone są również odmienne stanowiska, zgodnie z którymi elementy wytwarzane przez ChatGPT mogą być uznawane za utwory na gruncie obowiązujących przepisów prawa autorskiego ze względu na fakt, że finalnie posiadają one ludzkiego twórcę bądź w perspektywie czasu, iż wytwór nie jest możliwy do rozróżnienia i przypisania twórcy jako osobie fizycznej lub też narzędziu podobnemu do ChatGPT.
Przy prezentowanym podejściu jako twórcę wskazuje się co do zasady użytkownika końcowego (jako określającego kryteria tworzonego przez system elementu, a przez to wnoszącego fundamentalny element twórczy do powstającego wyniku).
Na ten moment powyższa kwestia jest nierozstrzygnięta. Wydaje się, że do usunięcia wątpliwości niezbędna będzie regulacja ustawowa.
WZORY dokumentów w LEX:
- Warunki adekwatnej wyjaśnialności AI >
- Analiza poprawności zastosowania AI >
- Analiza modelu biznesowego, w którym będzie wykorzystywany system AI >
- Zestawienie podstawowych ryzyk dla ochrony danych osobowych w związku z zastosowaniem systemu AI >
Konsekwencje przyjęcia wytworów Chat-u GPT za utwory?
Warto wskazać, że uznanie wytworów Chat-u GPT lub podobnych systemów za utwory otwiera kolejne obszary dyskusji obejmujące relację tych elementów do utworów, na podstawie których dany system został wytworzony. Część stanowisk wskazuje, że elementy generowane przez AI powinny być uznane za utwory zależne w stosunku do utworów, z których korzystał przy wytworzeniu odpowiedzi. Przy takim założeniu wykorzystanie wyników generowanych przez dany system wymaga więc chociażby uzyskania zgody twórców utworów pierwotnych, co w praktyce wiązałoby się z koniecznością dopełnienia niezbędnych formalności oraz zapłatą wynagrodzenia na ich rzecz.
Czytaj: ChatGPT prawnikom może pomóc, ale jest ryzyko dla tajemnic klientów>>
Przyjęcie takiego założenia wywołuje poważne skutki dla użytkowników końcowych ChatGPT, gdyż wykorzystanie przez nich wyników generowanych przez AI we własnej działalności mogłoby stanowić naruszenie praw twórców utworów pierwotnych i w konsekwencji skutkować powstaniem bezpośredniej odpowiedzialności (niezależnie od odpowiedzialności dostawcy systemu).
Czytaj w LEX: O problemach prawa autorskiego w kontekście twórczości sztucznej inteligencji >>>
Jak wykorzystać materiały wygenerowane przez ChatGPT?
Zgodnie z Terms of Use regulujących pracę Chat-u GPT, w zakresie prawnie dozwolonym OpenAI (właściciel narzędzia) przenosi na użytkownika prawa do wszystkich treści wygenerowanych przy użyciu udostępnionego narzędzia. Warunki wskazują wprost na prawo do korzystania z wygenerowanych odpowiedzi Chat-u GPT w dowolnym celu, w tym w celach komercyjnych, takich jak sprzedaż lub publikacja, pod warunkiem przestrzegania obowiązujących warunków.
Co istotne, wskazano, że użytkownik ponosi odpowiedzialność za treść komunikatów, zarówno wprowadzonych do narzędzia, jak i przez niego wygenerowanych, w tym za zapewnienie, że nie narusza ona obowiązującego prawa ani warunków korzystania z narzędzia. Ponadto wskazano, że wygenerowane treści nie muszą mieć unikalnego charakteru i wielu użytkowników może uzyskać takie same lub bardzo zbliżone rezultaty.
Czytaj w LEX: Pułapki sztucznej inteligencji >>
Reasumując powyższe, dostawca ChatGPT stoi na stanowisku, zgodnie z którym prawa do generowanych treści w pierwszej kolejności przysługują właśnie jemu, a następnie przenosi on je w maksymalnym zakresie na użytkownika końcowego. Oczywiście powyższe rodzi szereg wątpliwości na gruncie prawa polskiego, jak już zostało wskazane powyżej, w tym w zakresie skuteczności przeniesienia majątkowych praw autorskich. W konsekwencji na gruncie prawa polskiego należy uznać, iż dostawca udzielił użytkownikowi szerokiej licencji na korzystanie z wytworzonych materiałów.
Czytaj też: Komentarz do dyrektywy o prawach autorskich w ramach jednolitego rynku cyfrowego >>
Należy jednak pamiętać, że nawet korzystne uregulowania zawarte w umowie z dostawcą ChatGPT nie będą stanowiły wystarczającej ochrony w przypadku uznania, że wygenerowane utwory naruszają prawa osób trzecich, w szczególności twórców utworów, z których korzystał chat przy wygenerowaniu odpowiedzi. Dlatego zawsze warto zachować ostrożność w korzystaniu z tych elementów, przede wszystkim w przypadku ich publikacji w niezmienionej formie.
Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>
W jaki sposób zminimalizować ryzyka?
Wskazane ryzyka związane z korzystaniem z narzędzia, warto już na obecnym etapie rozważyć wprowadzenie rozwiązań, które zabezpieczą interes przedsiębiorstw, w tym wprowadzenie stosownych postanowień umownych do stosowanych wzorów umów z pracownikami, współpracownikami czy zewnętrznymi wykonawcami regulujących dopuszczalność korzystania z ChatGPT i podobnych narzędzi oraz konsekwencje użycia generowanych przez nie wyników w toku realizacji umowy, w tym na wypadek ujawnienia, że korzystanie z tych elementów narusza prawa osób trzecich.
Czytaj w LEX: Wpływ rozwoju sztucznej inteligencji na proces stanowienia prawa w Polsce >>
Zaimplementowanie takich postanowień możliwie najwcześniej przyczyni się do zmniejszenia kosztów i ograniczenia ryzyka powstania poważnych problemów w przyszłości, zwłaszcza biorąc pod uwagę obecne tempo rozwoju narzędzi wykorzystujących sztuczną inteligencję.
Autorka: Katarzyna Ożga radca prawny w Deloitte.
Zobacz w LEX: Cyberbezpieczeństwo kancelarii prawnych >>
Cena promocyjna: 199 zł
Cena regularna: 199 zł
Najniższa cena w ostatnich 30 dniach: 149.25 zł
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.