Na zakończenie tego sporu czekało wielu przedstawicieli branży własności intelektualnej. 4 listopada br. Sąd Najwyższy Zjednoczonego Królestwa rozstrzygał nie tylko, czy bezprawne wykorzystanie utworów w procesie trenowania modeli AI i generowane wyniki mogą prowadzić do naruszenia praw autorskich, lecz także, czy w takich okolicznościach może dojść do naruszenia praw ochronnych na znaki towarowe. Jest to jedna z pierwszych tego typu spraw sądowych.

Sąd słusznie skonstatował, że ta sprawa doskonale pokazuje ważny społeczny i prawny problem „gdzie znaleźć równowagę między branżami kreatywnymi a sektorem sztucznej inteligencji”.

Getty kontra Getty - stan faktyczny

Renomowana amerykańska spółka Getty Images, założona w 1995 roku jest globalnym dostawcą treści wizualnych oraz wiodącą platformą licencyjną, oferującą prawa do fotografii, materiałów filmowych i treści redakcyjnych wykorzystywanych na całym świecie.

Natomiast Stability AI to jedna z wiodących brytyjskich spółek, zajmująca się sztuczną inteligencją, która oferuje nowoczesne narzędzia do tworzenia i edycji multimediów (obrazy, filmy, materiały 3D czy dźwięk). W jej zarządzie zasiada m.in. James Cameron, reżyser „ Avatara” i „Titanica”. Najbardziej znana jest z modelu sztucznej inteligencji do generowania obrazów o nazwie Stable Diffusion.

W styczniu 2023 roku podmioty z grupy Getty Images wniosły przeciwko spółce Stability AI pozew do brytyjskiego Sądu Najwyższego początkowo zarzucając, że przy tworzeniu i trenowaniu modelu generatywnej sztucznej inteligencji Stable Diffusion wykorzystało miliony zdjęć z ich baz danych, w tym obrazy opatrzone znakami wodnymi „Getty Images” oraz „iStock”. Według powódek, skutkiem tego, model generował obrazy zawierające te znaki lub ich zniekształcone wersje, co miało stanowić naruszenie praw autorskich oraz praw do znaków towarowych.

Getty podniosła w pozwie dwa główne zarzuty:

  1. Naruszenie praw autorskich poprzez: skopiowanie fotografii Getty podczas trenowania Stable Diffusion; wtórne naruszenie praw autorskich przez wdrożenie modelu Stable Diffusion w Wielkiej Brytanii; naruszenie praw autorskich w wynikach generowanych przez Stable Diffusion,
  2. Naruszenie znaków towarowych poprzez pojawianie się znaku wodnego „Getty Images” oraz „iStock” w obrazach generowanych przez model, co mogło wprowadzać odbiorców w błąd co do pochodzenia lub udzielenia licencji przez Getty.

 

Rozstrzygnięcie sądu

4 listopada 2025 r. brytyjski Sąd Najwyższy wydał wyrok (sygn. IL-2023-000007), w którym:

  • oddalił zarzut Getty dotyczący naruszenia praw autorskich, uznając, że nie doszło do tzw. wtórnego naruszenia praw autorskich poprzez wdrożenie modelu Stable Diffusion w Wielkiej Brytanii;
  • częściowo uwzględnił zarzut dotyczący naruszenia praw ochronnych do znaków towarowych, wskazując, że generowanie wytworów zawierających znak wodny „iStock” może wprowadzać odbiorców w błąd co do pochodzenia wygenerowanego przez AI wytworu.

Pełna treść orzeczenia dostępna jest na stronie judiciary.uk.

Czytaj także: ​Prof. Markiewicz: „Pełzająca śmierć” Beksińskiego i AI

Nie ma przełomu w sprawie AI

Istotny jest fakt, że Getty wycofała część zarzutów, ponieważ choć udowodniono, że jej zdjęcia były użyte do trenowania modelu AI, to stało się to poza Wielką Brytanią. A więc nie doszło do naruszenia praw autorskich w tym kraju. Tym samym sprawa nie doprowadziła do przełomowego rozstrzygnięcia w zakresie odpowiedzialności twórców systemów sztucznej inteligencji za bezprawne wykorzystanie utworów w procesie trenowania modeli AI.

Ostatecznie w zakresie naruszenia praw autorskich pozostał tylko zarzut o tzw. wtórne naruszenie praw autorskich, a mianowicie, że Stability „zaimportowała, posiadała w toku działalności gospodarczej, sprzedała lub wynajęła, oferowała lub wystawiła na sprzedaż lub wynajem lub rozpowszechniała” artykuł (‘article’), będący Stable Diffusion, który jest, i o którym Stability wiedziała lub miała powody sądzić, że jest naruszającą prawa autorskie kopią utworów Getty.

Zwrot „artykuł” (przedmiot niematerialny) nie został zdefiniowany w brytyjskim prawie, a sąd zauważył, że jego znaczenie zależy od kontekstu, w jakim jest używany (np. artykuł konstytucji lub artykuł prasowy). Zastosowano zasadę elastycznej interpretacji przepisów i sąd przyznał rację Getty, uznając, że „artykuł” może obejmować również informacje niematerialne, a więc model AI.

Sąd uznał, że aby taki model (artykuł) mógł być uznany za „kopię naruszającą prawo”, musiałby dosłownie zawierać lub odtwarzać chronione utwory. W wyroku stwierdzono jednak, że Stable Diffusion nie przechowuje ani nie odtwarza takich dzieł, ponieważ uczy się wzorców i koduje je numerycznie w wagach modelu. Oznacza to, że sam model AI jest czymś odrębnym od procesu trenowania, w którym wykorzystywano chronione materiały (pkt 599 – 601 uzasadnienia wyroku), a więc nie stanowi owej kopii i nie doszło do wtórnego naruszenia praw autorskich Getty.

Naruszenie znaku towarowego

W ocenie sądu Getty udowodnili, że we wczesnych wersjach modelu faktycznie dochodziło do generowania obrazów z widocznym logo iStock, jednak późniejsze wersje oprogramowania nie powielały już tego błędu.

W praktyce użytkownicy modelu generowali obrazy zawierające znaki towarowe tej spółki, posługując się przypadkowymi poleceniami. Trudno zresztą zakładać, by użytkownicy mieli interes w tworzeniu obrazów z widocznymi znakami wodnymi, skoro większość z nich raczej nie chce, by takie oznaczenia pojawiały się na jego zdjęciach. Sąd uznał więc, że naruszenie znaku towarowego Getty miało charakter „historyczny i bardzo ograniczony” (pkt 757 uzasadnienia wyroku).

Najistotniejsze dla udowodnienia naruszenia praw ochronnych do znaków towarowych przez model AI okazały się dowody generowania obrazów cyfrowych ze znakami wodnymi „w warunkach rzeczywistych”, a nie eksperckie opinie czy eksperymenty własne przeprowadzone przez Getty.

Przykładowo wygenerowany przez użytkowników modelu AI pozwanej „Dreaming” (pkt 402 uzasadnienia wyroku):

Getty Images

 

A także „wiadomość SalesForce z października 2022 roku, która wyraźnie pokazuje konsumenta zadającego pytanie: ostatnio natknąłem się na komunikat, który powoduje, że ponad 50 proc. zdjęć ma znak wodny iStock. Czy używanie ich w moich projektach jest legalne? W jaki sposób Stable Diffusion licencjonuje materiały od Was?” (pkt 394 uzasadnienia wyroku).

Sąd stwierdził tożsamość znaku towarowego w odniesieniu do znaków ISTOCK, ale tylko przez starszy model Stable Diffusion 1.x (wersji 1.x przez API oraz wersji 1.4 dostęp przez DreamStudio) (por. 453 uzasadnienia Wyroku). Zdaniem Sądu Getty nie przedstawiła dowodów „rzeczywistego używania” wskazanych znaków GETTYIMAGES.

Według sądu całościowa analiza porównywanych oznaczeń wskazuje na prawdopodobieństwo wprowadzenia w błąd znacznej części odbiorców co do ich pochodzenia - ze względu na pojawienie się znaków wodnych Getty w wynikach modelu AI pozwanej (pkt 464 uzasadnienia). Niemniej jednak Getty nie udowodniło naruszenia renomy jej znaków towarowych i zamiaru pozwanej uzyskania jakiejkolwiek nienależnej korzyści ze spornych znaków wodnych wygenerowanych w wynikach jej modelu AI (pkt 537 uzasadnienia).

Sąd oddalił więc żądanie o odszkodowanie, wskazując, że nie stwierdzono szeroko występujących przypadków naruszenia znaków towarowych ani ryzyka dalszych naruszeń po wydaniu nowej wersji modelu Stable Diffusion. 

 

Przedsprzedaż
AI dla prawników. Sztuczna inteligencja w praktyce zawodów prawniczych [PRZEDSPRZEDAŻ]
-20%

Cena promocyjna: 127.2 zł

|

Cena regularna: 159 zł

|

Najniższa cena w ostatnich 30 dniach: 104.3 zł


Konsekwencje wyroku dla branży kreatywnej i AI

Decyzja Getty o wycofaniu większości zarzutów dotyczących naruszenia praw autorskich w związku z trenowaniem i wynikami działania modeli sztucznej inteligencji oznacza, że w Wielkiej Brytanii wciąż nie wydano pierwszego przełomowego rozstrzygnięcia, czy szkolenie modeli AI z wykorzystaniem utworów chronionych prawem autorskim stanowi naruszenie tych praw.

Dla branży kreatywnej i sztucznej inteligencji orzeczenie to ma charakter precedensowy, gdyż sąd wyraźnie wskazał, że przedmioty niematerialne (‘article’), takie jak modele sztucznej inteligencji, podlegają roszczeniom o naruszenie praw autorskich w taki sam sposób jak przedmioty materialne. To ważny aspekt dla przyszłych regulacji, które będą kształtować zasady przejrzystości i legalności danych wykorzystywanych w procesie trenowania systemów sztucznej inteligencji.

Wyrok wprowadza rozróżnienie między wykorzystaniem chronionych treści na etapie trenowania modeli sztucznej inteligencji a powielaniem znaków towarowych lub oznaczeń handlowych w treściach generowanych przez te modele, co może stanowić naruszenie prawa znaków towarowych. Rejestracja kluczowych dla marki oznaczeń słownych i słowno-graficznych ma zatem istotne znaczenie ochronne przed ich nieuprawnionym wykorzystaniem przez narzędzia generatywnej AI.

Choć większość roszczeń Getty została oddalona, spółka podkreśliła znaczenie stanowiska sądu, który potwierdził możliwość pociągnięcia twórców modeli sztucznej inteligencji do odpowiedzialności za naruszenia znaków towarowych (pkt 345 – 346, 357 uzasadnienia wyroku). Getty zapowiedziała wykorzystanie ustaleń z tej sprawy w postępowaniu przeciwko Stability AI w Stanach Zjednoczonych. Z zainteresowaniem będę śledzić dalszy rozwój tej sprawy, która może mieć istotne znaczenie dla praktyki w obszarze na pograniczu IP i AI.

 

Podstawa prawna:

Art. 10 ust. 1 i ust. 2 oraz art. 10 ust. 3 brytyjskiej ustawy o znakach towarowych z 1994 r. (Trade Marks Act 1994, c. 26),

Art. 16 17, 20, 22 i 23 brytyjskiej ustawy o prawie autorskim, wzorach i patentach z 1988 r. (Copyright, Designs and Patents Act 1988, c. 48).

 

Autor: Natalia Basałaj, radca prawny, Kancelaria Hansberry Tomkiel