Artyści chcą ochrony przed AI. Wizerunki i głosy wykorzystywane bez zgody
Sztuczna inteligencja może naruszać prawa twórców oraz wykonawców – alarmują organizacje artystyczne, przywołując głośną sprawę lektora Jarosława Łukomskiego i apelując do władz o zmianę przepisów. Zgłaszane postulaty są ciekawe, chociaż częściowo trudne do realizacji. Już dziś tarczą dla artystów chroniącą przed AI może być prawo własności intelektualnej, co pokazuje amerykańska piosenkarka Taylor Swift.

Trzy organizacje reprezentujące prawa artystów - Związek Artystów Scen Polskich (ZASP), Związek Zawodowy Twórców Dubbingu (ZZTD) oraz Związek Zawodowy Aktorów Polskich (ZZAP) – rozpoczęły akcję „Mój głos – moja własność”. Jednym z jej elementów jest apel o prawną i finansową ochronę twórców w związku z bezprawnym wykorzystywaniem ich głosów przez narzędzia sztucznej inteligencji i ich użytkowników.
- Nie wyrażamy zgody na tworzenie syntetycznych kopii głosu bez wiedzy i kontroli osoby, do której głos należy. Nie akceptujemy komercyjnego użycia wygenerowanych głosów np. w reklamach, kampaniach prosprzedażowych itp. bez wiedzy, zgody oraz odpowiedniego wynagrodzenia dla twórców, a także braku transparentności w zakresie źródeł danych treningowych – czytamy w stanowisku.
Organizacje wskazują też na inne zagrożenia dla twórców wynikających z rozwoju AI. Jednym z nich jest zastępowanie pracy aktorów wytworami sztucznej inteligencji, m.in. przy nagrywaniu audiobooków. Kolejnym – wykorzystywanie dorobku wykonawców do trenowania AI, często bez jakiegokolwiek wynagrodzenia lub za stawki znacząco niższe od rynkowych. Inne negatywne zjawisko polega na podsuwaniu aktorom umów, na mocy których producenci uzyskują bardzo szerokie uprawnienia do późniejszego wykorzystywania ich głosu, wizerunku lub artystycznych wykonań przy użyciu AI.
„Mój głos – moja własność” - postulaty środowiska twórców
ZASP, ZZTD i ZZAP w swoim apelu domagają się wprowadzenia:
- obowiązku uzyskania każdorazowej, świadomej i udokumentowanej zgody twórcy na wykorzystanie jego głosu w procesach trenowania modeli AI oraz generowania treści;
- pełnej przejrzystości pochodzenia danych treningowych, obejmującej jawność źródeł oraz obowiązek wykazania zgód wszystkich twórców, których głos lub wykonania artystyczne zostały użyte;
- prawa do usunięcia danych głosowych z systemów AI;
- skutecznych i transparentnych mechanizmów wynagradzania twórców za wykorzystanie ich głosu do trenowania modeli oraz w procesie generowania treści;
- realnej odpowiedzialności prawnej i finansowej firm za nadużycia technologiczne związane z nieuprawnionym wykorzystaniem głosu;
- obowiązku informowania odbiorców, że dana produkcja lub rola została wykonana z użyciem narzędzi AI;
- rozwiązań wspierających producentów korzystających z pracy aktorów, w szczególności poprzez system dotacji, dofinansowań lub instrumentów podatkowych;
- obowiązku stosowania w umowach z wykonawcami postanowień wyraźnie wyłączających lub ograniczających możliwość dalszego wykorzystywania ich głosu, wizerunku oraz artystycznych wykonań poza zakresem konkretnej produkcji i jej rozpowszechniania.
Uregulować użycie głosu przez AI? Inicjatywa słuszna, ale…
Natalia Basałaj, radca prawny z Kancelarii Hansberry Tomkiel, uważa, że obowiązujące przepisy pozwalają w dość szerokim zakresie przeciwdziałać nadużyciom związanym z wykorzystaniem wizerunku i głosu artystów, także w kontekście AI. Problemem jest jednak ich stosowanie w odniesieniu do realiów technologicznych.
- Jednocześnie są to rozwiązania o charakterze wtórnym – stanowią raczej „plaster na ranę”, oparty na adaptacji istniejących instytucji (takich jak dobra osobiste, prawo do wizerunku czy znaki towarowe), a nie kompleksową, systemową regulację projektowaną z myślą o zjawiskach generatywnej AI. Dyskusja oraz inicjatywy takie jak „Mój głos. Moja własność” są więc uzasadnione, jednak należy uwzględnić, że ramy prawne dotyczące AI pozostają nadal nie w pełni ukształtowane - komentuje mec. Basałaj.
- Apel środowisk twórczych trafnie wskazuje realny problem: głos aktora, lektora czy dubbingowca może zostać wykorzystany przez AI bez wiedzy, kontroli i wynagrodzenia osoby, dla której jest on narzędziem pracy i elementem zawodowej tożsamości - przyznaje Monika Susałko, radca prawny, partner w kancelarii Lubasz i Wspólnicy. Zaznacza jednak, że apel obejmuje bardzo szeroki zakres zagadnień. Gdy zaczniemy je analizować po kolei, zaczynają się schody.
Według mec. Susałko, postulat uzyskiwania każdorazowo zgody twórcy na wykorzystanie jego głosu przez AI stoi w kontrze do już obowiązujących przepisów prawa autorskiego w zakresie TDM (Text and Data Mining), jeśli uprawniony nie zastrzegł braku zgody. Z kolei usunięcie danych z modelu AI jest niezwykle trudne technologicznie. - Cofnięcie zgody już po wytrenowaniu i w konsekwencji konieczność re-treningu modelu prowadziłaby do olbrzymich kosztów - zwraca uwagę mec. Susałko.
Dodaje, że postulaty w zakresie przejrzystości są już częściowo spełnione przez przepisy unijnego rozporządzenia AI Act. Chodzi o obowiązki nałożone na dostawców modeli AI ogólnego przeznaczenia (art. 53 AI Act w zw. z załącznikiem XI) oraz oznaczania treści wygenerowanych przez AI, w tym w postaci syntetycznych dźwięków (art. 50 ust. 2 i ust. 4 AI Act). Przepisy te planowo mają być stosowane od 2 sierpnia 2026 r., chociaż spodziewane są przesunięcia.
RODO, własność intelektualna – różne sposoby na ochronę wizerunku
Nawet jeśli postulaty artystów nie zostaną szybko i w pełni zrealizowane, już obecne przepisy pozwalają podjąć działania w przypadku bezprawnego wykorzystania ich głosu i wizerunku.
Przede wszystkim prawo cywilne chroni wizerunek i głos jako dobra osobiste, natomiast prawo autorskie reguluje zasady rozpowszechniania wizerunku. Bezprawne wykorzystanie głosu, zwłaszcza w sposób umożliwiający identyfikację konkretnej osoby, może stanowić naruszenie jej dóbr osobistych - wskazuje mec. Natalia Basałaj.
Przywołuje wyrok Sądu Najwyższego z 7 marca 2023 r. (II CSKP 659/22) dotyczący podrobienia cudzego głosu za pomocą narzędzi cyfrowych oraz praktykę Urzędu Ochrony Danych Osobowych, według której cyfrowo przerobiony wizerunek może stanowić daną osobową.
Mec. Monika Susałko dodaje, że na gruncie RODO możliwe jest żądanie usunięcia danych lub wyrażenia sprzeciwu w zakresie ich przetwarzania. Zastrzega jednak, że w kontekście AI i głosu należy rozróżnić usunięcia materiału źródłowego, danych pochodnych, wpływu na model oraz możliwości dalszej syntezy lub imitacji głosu. - Aby realizacja tych praw była możliwa konieczna jest po stronie dostawcy modelu wiedza, gdzie głos występuje, realizowana np. przez opatrzenie każdej próbki głosu trwałym identyfikatorem jego pochodzenia. Jeśli nie zostało to zrealizowane dla istniejących modeli odwrócenie procesu jest praktycznie niewykonalne, ale nie wyłącza odpowiedzialności administracyjnoprawnej ani cywilnoprawnej twórców lub korzystających z modeli generatywnej sztucznej inteligencji - wskazuje.
Natalia Basałaj dodaje, że innym narzędziem ochronnym jest prawo własności przemysłowej, w szczególności prawo ochronne na znak towarowy.
- Ochrona wizerunku i głosu może obejmować znaki towarowe graficzne (np. charakterystyczny wizerunek sceniczny), a także znaki dźwiękowe (np. rozpoznawalne frazy głosowe lub sposób mówienia), jak również znaki niek/onwencjonalne, takie jak znaki multimedialne (łączące obraz i dźwięk) czy znaki ruchome (gesty, choreografia), o ile pełnią one funkcję identyfikującą źródło usług lub towarów - wylicza mec. Basałaj.
Jako przykład wykorzystania tych narzędzi podaje działania gwiazdy muzyki pop Taylor Swift. Media opisywały, że piosenkarka zastrzegła jako znak towarowy swój głos i wizerunek, by chronić się przed nadużyciami ze strony AI. W rzeczywistości jest to bardziej skomplikowane. Taylor Swift zgłosiła do ochrony w amerykańskim urzędzie patentowym znaki dźwiękowe obejmujące jej wypowiedzi (‘Hey, it’s Taylor Swift’ and ‘Hey, it’s Taylor.’) oraz znak graficzny przedstawiający jej rozpoznawalny wizerunek sceniczny – „zdjęcie Taylor Swift trzymającej różową gitarę z czarnym paskiem, ubranej w wielokolorowy, opalizujący kombinezon i srebrne buty. Stoi na różowej scenie przed wielokolorowym mikrofonem z fioletowymi światłami w tle”.
Natalia Basałaj przypomina, że prawo ochronne na znak towarowy nie odnosi się do samego kopiowania, lecz do ryzyka wprowadzenia odbiorców w błąd co do źródła przekazu. - W praktyce oznacza to, że może ono chronić przedsiębiorcę także wtedy, gdy treść wygenerowana przez AI jedynie imituje jego styl, głos lub wizerunek i sugeruje jego udział albo autoryzację, nawet jeśli nie wykorzystano bezpośrednio jego nagrań czy zdjęć - mówi prawniczka.
Sprawa Jarosława Łukomskiego i JFC Polska
ZASP, ZZTD oraz ZZAP w swojej akcji przywołują sprawę Jarosława Łukomskiego, lektora, który uważa, że jego głos został skopiowany przez AI i użyty bez jego wiedzy w reklamie.
W artykule „Sztuczna inteligencja ukradła głos lektora? Prawnicy o możliwych konsekwencjach” opisaliśmy wieloaspektowość tego problemu, który można rozpatrywać na gruncie prawa autorskiego, cywilnego, a także karnego, danych osobowych, a nawet prawa konkurencji.
Z częścią tych zagadnień zmierzy się zapewne Sąd Okręgowy w Warszawie. Rozpoznaje on pozew złożony przez reprezentującą lektora firmę Mikrofonika przeciwko firmie reklamującej się w kwestionowany sposób.
Pozwana firma JFC Polska sp. z o.o. przedstawia tymczasem swoje stanowisko.
Przedmiotem sporu nie jest „kradzież głosu”, lecz roszczenia z tytułu ochrony dóbr osobistych pana Jarosława Łukomskiego oraz roszczenia z tytułu zwrotu bezpodstawnego wzbogacenia. Sprawa sądowa jest w toku i nie została dotychczas rozstrzygnięta. Jej charakter wymaga pogłębionego postępowania dowodowego oraz opinii biegłych, w szczególności z zakresu fonoskopii - informuje portal Prawo.pl Monika Cieślak, radca prawny reprezentująca pozwaną.
Dodaje też, że JFC Polska nie jest producentem szamb (informacja taka pojawiła się, nim ujawniono, o którą firmę chodzi), lecz „międzynarodową firmą projektującą i wdrażającą innowacyjne rozwiązania w zakresie branży budowlanej, rolniczej, przeładunkowej i morskiej”.
Sprawa toczy się przed SO w Warszawie (XXII Wydział Własności Intelektualnej) pod sygn. akt XXII GW 724/25, kolejny termin wyznaczono na czerwiec.
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów LEX jest zależny od posiadanych licencji.








