Sztuczna inteligencja potrafi dziś pisać, malować, komponować i projektować. Jej zdolność do uczenia się na podstawie istniejących danych sprawia jednak, że granice między inspiracją a naruszeniem praw autorskich zaczynają się zacierać.
W grudniu 2023 r. amerykański „The New York Times” pozwał OpenAI i Microsoft za nieuprawnione wykorzystanie milionów artykułów prasowych do trenowania modeli językowych. Rok później głośno zrobiło się o sprawie SHEIN, giganta branży fast fashion, który miał wykorzystywać sztuczną inteligencję do śledzenia i kopiowania projektów niezależnych twórców, publikowanych przez nich w sieci.
Z uwagi na pojawiające się zarzuty o nieuprawnione kopiowanie i wykorzystywanie treści chronionych prawnie, korporacje technologiczne takie jak Meta, zaktualizowały regulaminy w zakresie korzystania z postów i zdjęć użytkowników, które wykorzystują do trenowania systemów generatywnych. Miało to realny wpływ na wykorzystywanie i przetwarzanie treści publikowanych przez użytkowników, czego nie byli, a bardzo często nadal nie są, świadomi. W rzeczywistości oznacza to utratę kontroli nad publikowanymi treściami, zdjęciami, czy własną twórczością. Otwiera też zupełnie nową przestrzeń sporów o ochronę praw autorskich, danych osobowych, czy dóbr osobistych.
Przykładowe postępowania sądowe o „kradzież twórczości” przez AI
The New York Times przeciwko OpenAI & Microsoft
W grudniu 2023 r. The New York Times wytoczył pozew przeciwko OpenAI i Microsoftowi, zarzucając, że ich modele np. ChatGPT były trenowane na milionach artykułów NYT bez pozwolenia i że generują one treści bardzo bliskie oryginałom, co stanowi naruszenie praw autorskich. NYT domaga się m.in. ujawnienia danych treningowych, identyfikacji, w jaki sposób artykuły były użyte, a także odszkodowania i nakazu zaprzestania trenowania modeli na jego treściach. Pozwani bronią się, powołując na amerykańską koncepcję „fair use” – dozwolone użycie m.in. w celach edukacyjnych. W toku sporu pojawił się spór o dowody – NYT twierdzi, że OpenAI usunęło część danych, które mogły być kluczowe, co utrudniło analizę tego, czy dane NYT były użyte i w jakim zakresie. W drodze zabezpieczenia sąd nakazał jednak pozwanym bezterminowe przechowywanie historycznych czatów użytkowników, w których mogło dojść do rozpowszechnienia materiałów prasowych The New York Times. W przeciwieństwie do europejskiego systemu zamkniętych wyjątków, amerykańska doktryna fair use opiera się na ocenie proporcjonalności i celu wykorzystania, co pozwala na szersze interpretacje w kontekście AI. Sprawa jest w toku.
Cena promocyjna: 127.2 zł
|Cena regularna: 159 zł
|Najniższa cena w ostatnich 30 dniach: 111.3 zł
Getty Images przeciwko Stability AI
Getty Images, lider w branży licencjonowania zdjęć, zarzuciła twórcom modelu Stable Diffusion, że generujący obrazy na podstawie tekstu, wykorzystał wysokiej jakości zasoby Getty, zachowując nawet zdjęcia oznaczone znakami wodnymi Getty Images. Wywołało to dodatkowe zarzuty o naruszenie znaków towarowych. Getty domaga się znacznych odszkodowań — według doniesień, firma żąda nawet 1,7 miliarda USD za naruszenia praw do ponad 11 383 prac. Stability podnosi, że choć zdjęcia mogły być tymczasowo kopiowane w trakcie procesu trenowania, ostateczne generowane obrazy nie są kopiami oryginalnych zdjęć, lecz nowe — stąd nie dochodzi do naruszenia praw autorskich w produkcie końcowym. Stability twierdzi, że generowane obrazy nie odzwierciedlają „istotnych części” oryginalnych dzieł Getty, a są wyłącznie inspirowane, co nie stanowi naruszenia praw autorskich. W niektórych dokumentach obrona wskazuje, że prawo do tworzenia imitacji (pastiche) może być stosowane – jeśli generowany obraz jest uznany za artystyczną reinterpretację a nie kopię. Sprawa jest w toku.
Czytaj też w LEX: Tworzenie dzieł przy użyciu AI a proces cywilny >
Projektantki modowe (Perry, Martinez & Baron) przeciwko SHEIN
W lipcu 2023 r. Projektantki modowe oskarżyły Shein o wykorzystywanie algorytmów sztucznej inteligencji do wyszukiwania trendów i kopiowania ich projektów z platform społecznościowych, a następnie masowo wprowadza do sprzedaży bez zgody twórczyń. SHEIN zaprzecza zarzutom, twierdząc, że modele generatywne jedynie analizują „dane statystyczne”, nie konkretne projekty. Sprawa jest w toku.
Zobacz też w LEX: AI w kancelarii prawnej – jak korzystać bezpiecznie i zgodnie z prawem? >
Andersen, McKernan, Ortiz przeciwko Stability AI / Midjourney / DeviantArt
Grupa artystów (Sarah Andersen, Kelly McKernan, Karla Ortiz) pozwała firmy takie jak Stability AI, Midjourney i DeviantArt, zarzucając, że ich systemy służące do generowania obrazów na podstawie tekstu, były trenowane na zebranych w sieci obrazach chronionych prawami autorskimi, bez zgody ich autorów. Autorzy wskazywali, że AI „zapamiętuje” fragmenty obrazów chronionych prawami autorskimi w bazach danych, a następnie generuje obrazy bardzo zbliżone do konkretnych ilustracji czy kompozycji. W toku postępowania to artyści muszą udowodnić, że ich dzieła rzeczywiście zostały użyte i że wygenerowane obrazy są istotnie podobne, nie tylko inspirowane — co w technologii AI jest trudne, a czasem nawet niemożliwe. Sprawa jest w toku.
Czytaj też w LEX: Pracownicze prawa autorskie a dzieła wytwarzane przy pomocy sztucznej inteligencji >
Naruszenie praw autorskich przez sztuczną inteligencję w świetle prawa unijnego i polskiego
Unia Europejska już od 2019 r. dostrzegała wyzwania związane z trenowaniem algorytmów. Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego na jednolitym rynku cyfrowym (DSM Directive) wprowadziła wyjątki dla Text Data Mining (TDM), czyli analizy danych w celach badawczych i komercyjnych. Twórca może jednak nie wyrażać zgody na wykorzystywanie jego utworów przez AI korzystając z zastrzeżenia opt out TDM.
Czytaj też w LEX: Czy chatboty mogą naruszać prawa wydawców do ich treści? Komentarz do pytań prejudycjalnych w sprawie C 250/25 (Like Company przeciwko Google Ireland Limited) >
Nie określono jednak konkretnego sposobu, w jaki to zastrzeżenie ma być dokonane, każdy kraj członkowski może te kwestie sprecyzować w regulacjach krajowych. Jak pokazuje praktyka - większość artystów i wydawców nie ma realnej kontroli nad tym, czy ich dzieła trafiają do zestawów treningowych. Nie istnieje żadne narzędzie ani procedura umożliwiająca weryfikowanie respektowania opt out’u ani egzekwowanie tego zastrzeżenia w sytuacji, gdy technologia algorytmiczna go nie respektuje.
Czytaj też w LEX: Oznaczanie treści wytworzonych z wykorzystaniem GenAI a ochrona prawnoautorska >
Kolejna regulacja - AI Act zobowiązuje dostawców modeli ogólnego przeznaczenia (GPAI) do publikowania streszczenia źródeł danych, obejmującego ogólne kategorie danych wykorzystywanych do trenowania modeli, na których trenowany był system. To ogromny krok w kierunku transparentności, ale nie rozwiązuje kwestii wynagrodzenia i licencji, za wykorzystywanie cudzej twórczości.
Na gruncie polskiego prawa art. 17 ustawy o prawie autorskim i prawach pokrewnych przyznaje twórcy wyłączne prawo do korzystania i rozporządzania utworem. Jeśli AI wykorzystuje chronione dzieła do trenowania modelu bez zgody, dochodzi do naruszenia tego prawa, co może stanowić podstawę żądania zaniechania, czy naprawnienia powstałej wskutek tego naruszenia szkody. Należy również wskazać, że zgodnie z art. 115 ust. 3 prawa autorskiego, nieuprawnione rozpowszechnianie cudzego utworu może stanowić przestępstwo. Tylko kto tę odpowiedzialność miałby ponieść? W praktyce odpowiedzialność użytkownika jest wyłączona lub ograniczona, gdy brak mu świadomości naruszenia i nie ma wpływu na dane treningowe, a nawet czasem jest zapewniany, że wygenerowana przez AI treść jest niepowtarzalna.
Czytaj też w LEX: Odpowiedzialność za korzystanie przez pracowników z narzędzi AI >
Jak roszczenia o „kradzież autorstwa przez AI” mogłyby być dochodzone na gruncie prawa polskiego i unijnego
Na gruncie prawa europejskiego i polskiego powyższe zagadnienia można byłoby analizować na trzech płaszczyznach:
Naruszenie praw autorskich (art. 17 i 79 ustawy o prawie autorskim)
Jeśli algorytm generuje wzór będący reprodukcją istotnych elementów dzieła, dochodzi do naruszenia majątkowych praw autorskich. Twórca mógłby dochodzić zaniechania naruszeń (art. 79 ust. 1 pkt 1 pr.aut.), usunięcia skutków naruszenia (pkt 2), naprawienia szkody lub wydania korzyści (pkt 3–4).
Czyn nieuczciwej konkurencji (art. 3 i 10 u.z.n.k.)
Czerpanie korzyści majątkowych na podstawie cudzej twórczości stanowi wprowadzające w błąd naśladownictwo produktów (art. 13 u.z.n.k.) oraz o działanie sprzeczne z dobrymi obyczajami w obrocie gospodarczym.
Czytaj też w LEX: Przypisanie autorstwa treści wygenerowanych z wykorzystaniem AI - perspektywa prawnoautorska >
Ochrona dóbr osobistych twórcy (art. 23 i 24 k.c.)
Naruszenie dóbr osobistych w postaci twórczości artystycznej, dobrego imienia, renomy, czy godności cyfrowej, w zakres której w mojej ocenie wchodzi integralność stylu twórczego, a której naruszenie sprowadza się do nieuprawnionego, utajnionego przetwarzania przez sztuczną inteligencję informacji ze sfery cyfrowej. Pojęcie „godności cyfrowej” można rozumieć jako prawo jednostki do kontroli nad własnym wizerunkiem, stylem twórczym i cyfrową tożsamością w środowisku algorytmicznym, co szerzej omówiłam w artykule pt. Godność cyfrowa jako nowe dobro osobiste – jak nadążyć za rewolucją technologiczną?
Na gruncie prawa polskiego i unijnego odpowiedzialność za naruszenia mógłby ponosić podmiot, który:
- prowadzi proces treningu technologii algorytmicznych na danych chronionych,
- komercjalizuje efekt generowania, lub
- umożliwia dostęp do narzędzia wykorzystywanego do kopiowania (art. 79 ust. 1 pr.aut. w zw. z art. 422 k.c.).
W praktyce oznacza to, że zarówno dostawca modelu (AI developer), jak i dystrybutor końcowy (np. Shein), mogliby ponosić solidarną odpowiedzialność za naruszenie praw autorskich. Nie miałoby znaczenia, że czynność kopiowania wykonuje system — ponieważ w świetle prawa brak jest podmiotowości prawnej AI, a odpowiedzialność spada na osoby zarządzające procesem uczenia i wykorzystania modelu.
Zobacz też w LEX: Profilowanie i automatyczne podejmowanie decyzji przy wykorzystaniu AI – mechanizmy ochrony w RODO i AIA >
Wina, ryzyko czy nowe pojęcie odpowiedzialności?
Tradycyjne konstrukcje prawne, takie jak odpowiedzialność na zasadzie winy czy ryzyka, nie przystają w pełni do działalności modeli generatywnych. Twórca modelu często nie wie, jakie konkretne dane zostały użyte w procesie treningu. Z drugiej strony, pozwalanie na całkowitą bezkarność prowadziłoby do systemowego wywłaszczenia artystów z ich dorobku i może negatywnie wpłynąć na rozwój kultury i sztuki.
Coraz częściej pojawia się więc koncepcja „licencji zbiorczych dla AI”, w ramach których twórcy mogliby udostępniać swoje prace do trenowania w zamian za wynagrodzenie – podobnie jak w przypadku opłat reprograficznych czy tantiem za odtwarzanie muzyki. To rozwiązanie wydaje się być najbardziej transparentnym, a jednocześnie najprostszym do wdrożenia. Zdaje się jednak nie dostrzegać indywidualności jednostki, jej prawa do kontroli nad sposobem wykorzystania twórczości, w szczególności jak i gdzie zostanie zwielokrotniona. Zbiorcza opłata zdaje się tego problemu nie rozwiązywać. Koncepcja ta ma obecnie charakter postulatu de lege ferenda.
Trwają również prace nad projektem AI Liability Directive, którego celem jest ujednolicenie zasad odpowiedzialności cywilnej za szkody wyrządzone przez systemy sztucznej inteligencji, co może w przyszłości stanowić podstawę do dochodzenia roszczeń za naruszenia praw autorskich dokonane w procesie trenowania modeli.
Czytaj też w LEX: Korzystanie z treści generowanych przez AI bez twórczego udziału człowieka a odpowiedzialność za naruszenie praw autorskich >
Potrzebna nowa równowaga
Świat stoi przed koniecznością stworzenia mechanizmów wynagradzania twórców za wykorzystanie ich dzieł w procesach uczenia maszynowego. O ile prawo unijne, krajowe, stanowe, czy federalne w przypadku USA, mają granice, to AI tych granic nie dostrzega. Z łatwością wykorzystuje dane i twórczość z całego świata. Globalny charakter AI jest jednocześnie jej największą wartością i największym wyzwaniem regulacyjnym. Błędem zasadniczym wydaje się być tworzenie regulacji ograniczonych terytorialnie do systemów, które terytorialnie ograniczone nie są. Z łatwością utwory powstałe przykładowo w Chinach będą bez żadnych ograniczeń wykorzystywane w Europie i na odwrót.
Równocześnie niezbędne będą narzędzia umożliwiające sprawdzenie źródeł danych i usunięcie utworów z baz treningowych. Jest to jednak działanie reakcyjne, a szkody tego, co już zostało wykorzystane, skopiowane, zainspirowane jest niezwykle trudne, a może wręcz niemożliwe do zweryfikowania.
Bez takiej równowagi między innowacją a ochroną twórczości, generatywna AI może zdemotywować całe środowiska artystyczne, a kultura cyfrowa zacznie przypominać „kopię kopii” – pozbawioną oryginalności, kontekstu i autorstwa.
Spory o wykorzystanie twórczości przez sztuczną inteligencję są nieuniknione i mają charakter globalny. Sztuczna inteligencja otwiera ogromne możliwości, ale też wymaga nowych gwarancji prawnych – nie tylko dla konsumentów, lecz przede wszystkim dla twórców, którzy nadają twórczości jej unikatowość, sens i wartość.
Czytaj też w LEX: Obowiązki dokumentacyjne przy wdrażaniu rozwiązań AI w przedsiębiorstwie – ocena ryzyka, zarządzanie jakością, procedury i informacje >
Wnioski de lege ferenda
- Wprowadzenie obowiązku jawności danych treningowych w stosunku do podmiotów wykorzystujących modele AI do generowania treści.
- Utworzenie rejestru twórców „opt-out” – system umożliwiający projektantom wyłączenie ich prac z baz danych (na wzór inicjatyw oddolnych takich jak „Do Not Train”, promowanych przez organizacje artystów w USA).
- Rozszerzenie kategorii ochrony dóbr osobistych o godność cyfrową, w zakres której będzie wchodzić m.in. integralność stylu twórczego – nowa kategoria naruszeń, obejmująca algorytmiczne kopiowanie twórczości.
Kradzież twórczości w erze sztucznej inteligencji przybiera nową, zautomatyzowaną, a nawet zmasowaną formę. Nie chodzi już o klasyczny plagiat, lecz o systemowe zawłaszczanie ludzkiej kreatywności i twórczości przez algorytmy.
W polskim i europejskim porządku prawnym brak jest jeszcze skutecznych mechanizmów, które chroniłyby projektantów, ilustratorów i twórców przed taką formą eksploatacji. Aktualny rozwój ustawodawstwa unijnego (AI Act, dyrektywa DSM, projekt AI Liability Directive) wskazuje wyraźny, słuszny kierunek: odpowiedzialność powinna podążać za człowiekiem, który uczy maszynę — a nie za samą maszyną.
Kluczowe jest jednak tempo zmian prawnych. Z pewnością nie osiągną one tempa rozwoju technologii i sztucznej inteligencji, jednak należy mieć na uwadze, iż zbyt późno wprowadzone zmiany prawne mogą być nieadekwatne już w momencie ich wprowadzania, a skala negatywnych skutków braku właściwych regulacji prawnych, może być już niemożliwa do odwrócenia.
Autor: adwokat Zuzanna Miąsko, Dubois i Wspólnicy Kancelaria Adwokacko-Radcowska sp.j.
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.









