Sprawa, opisana przez branżowy portal PolscyLektorzy.pl jako „pierwszy w Polsce pozew o kradzież głosu przy użyciu AI”,  jest komentowana przez prawników. Jarosław Łukomski, reprezentująca go firma Mikrofonika i jej właściciel Tomasz Bartos twierdzą, że głos znanego lektora został, bez jego wiedzy, wygenerowany przez sztuczną inteligencję „nie wiadomo gdzie, nie wiadomo jak, nie wiadomo z jakich materiałów ” i użyty w reklamie firmy z branży wodno-kanalizacyjnej. Nie powiodła się próba polubownego wyjaśnienia sporu. Mikrofonika poinformowała, że złożyła pozew w Sądzie Okręgowym w Warszawie.

 

Imitacja głosu, voice cloning i prawo

Dr Damian Flisak, radca prawny, of counsel w Kancelarii Lubasz i Wspólnicy uważa, że istotą tej sprawy jest spór o ochronę naturalnych, fizycznych atrybutów człowieka.

- W odniesieniu do głosu mówi się niekiedy o „wizerunku audialnym”. W prawodawstwie europejskim nie znajdziemy przepisu wprost odnoszącego się do kwestii ochrony głosu przed cyfrową imitacją, ponieważ dotychczas nie były one po prostu potrzebne. Nie istniał przecież technologiczny fenomen pozwalający na tak wierne naśladowanie cech osoby, takich jak jej głos. Teraz jednak ta sytuacja się zmieniła, i to zaledwie trzy lata po wejściu do powszechnego użycia ChataGPT – komentuje.

Natalia Basałaj, radca prawny z Kancelarii Hansberry Tomkiel zwraca z kolei uwagę, że możemy mieć do czynienia ze zjawiskiem klonowania głosu (voice cloning), tj. wygenerowaniu głosu danej osoby na podstawie próbki audio lub deepfake, czyli wygenerowania fałszywego wizerunku, którego częścią może być głos.

- W polskim prawie nie ma jeszcze przepisów odnoszących się wprost do wytworów generowanych przez AI, dlatego udowodnienie spełnienia wszystkich przesłanek w prawie cywilnym lub w odniesieniu do znamion przestępstwa w prawie karanym może być trudne – mówi prawniczka. Przypomina, że po implementacji AI Act powstanie konieczność podawania widocznych informacji lub informacji na poziomie metadanych, że dana treść jest wytworem wygenerowanym przez AI.

- W Danii rozpoczęła się dyskusja nad tym, jak w ramach ustawy o prawie autorskim chronić tożsamość człowieka przed jego cyfrową imitacją. Nie jestem zwolennikiem tego kierunku, choćby dlatego, że zanim koncepcja takiej ochrony zostanie dopracowana i stanie się obowiązującym prawem, mogą minąć lata, a tymczasem działać trzeba już teraz. Pojawiają się więc pytania, w jaki sposób wykorzystać istniejące rozwiązania – mówi dr Flisak.

 

Przepisy w dobie AI: Kodeks cywilny, prawo autorskie i nie tylko

Z zapowiedzi wynika, że sprawa będzie dotyczyła ochrony głosowego wizerunku cyfrowego. Rozmówcy Prawo.pl zwracają uwagę na wieloaspektowy charakter tego zagadnienia.

- W Polsce najczęściej próbuje się rozciągnąć przepis art. 81 ustawy o prawie autorskim i prawach pokrewnych, który stanowi o warunkach rozpowszechniania wizerunku, także na ochronę wizerunku audialnego danej osoby. Inną możliwością jest sięgnięcie po klasyczną ochronę dóbr osobistych z art. 23 kodeksu cywilnego – mówi dr Flisak.

Zgadza się z tym Natalia Basałaj, która dodaje, że możliwe jest też zastosowanie art. 6 ust. 1 lit. a RODO, który wymaga istnienia wyraźnej podstawy prawnej do przetwarzania danych osobowych, w tym wizerunku osoby fizycznej.

- Moim zdaniem równolegle z powództwem cywilnym można rozważyć złożenie wniosku o ściganie z art. 190a par. 2 kodeksu karnego (podszywanie się pod pokrzywdzonego) oraz z art. 286 k.k. (oszustwo) – dodaje, tłumacząc, że włączenie organów ścigania może pozwolić zgromadzić dodatkowe dowody do sprawy cywilnej.

Mec. Flisak podpowiada natomiast jeszcze jedną możliwość, jaką daje prawo cywilne - próbę wykazania, że lektor poniósł szkodę z tytułu wykorzystania cyfrowej imitacji jego głosu i dochodzenia konkretnych roszczeń pieniężnych z tego tytułu.

- Możemy tu mówić o szkodzie majątkowej, jeśli okaże się, że wykorzystanie imitacji głosu pozbawiło lektora realnego zarobku. Co więcej, jeśli doszłoby do wykorzystania imitacji cyfrowej głosu na przykład do reklamowania produktów lub usług budzących kontrowersje, z którymi lektor nie chciałby się utożsamiać, moglibyśmy mówić także o pokrzywdzeniu reputacji danej osoby, czyli poszkodowaniu o charakterze osobistym - mówi Damian Flisak. - Zaznaczam jednak, że nie mamy informacji, by akurat w przypadku pana Łukomskiego taka kwestia była poruszana – zastrzega.

Mecenas Basałaj dodaje, że prezes Urzędu Ochrony Konkurencji i Konsumentów mógłby zakwalifikować wykorzystanie deepfake’u w reklamie jako nieuczciwą praktykę rynkową (art. 5–7 ustawy o przeciwdziałaniu nieuczciwym praktykom rynkowym). Prawniczka powołuje się na praktykę urzędu, który w taki właśnie sposób zakwalifikował greenwashing, również prowadzący do prezentacji fałszywego lub zniekształconego przekazu marketingowego (więcej na ten temat:  Greenwashing już dziś jest zakazany, ale nowelizacja podwyższy standardy).

.- Jeżeli przedsiębiorca używa syntetycznego wizerunku – w tym głosu – znanej osoby w sposób, który może prowadzić do uznania deepfake’u za autentyczny przez przeciętnego odbiorcę, wówczas praktyka ta może zostać uznana za naruszającą zbiorowe interesy konsumentów (art. 24 ust. 1 ustawy o ochronie konkurencji i konsumentów) – dodaje. W takiej sytuacji przedsiębiorcy groziłyby kary administracyjne od UOKiK.

Polecamy też poradnik w LEX: Weryfikacja greenwashingu – elementy niezbędne w procesie> 

 

Przedsprzedaż
AI dla prawników. Sztuczna inteligencja w praktyce zawodów prawniczych [PRZEDSPRZEDAŻ]
-15%

Cena promocyjna: 126.64 zł

|

Cena regularna: 149 zł

|

Najniższa cena w ostatnich 30 dniach: 104.3 zł


Jak udowodnić kradzież głosu i jak się przed tym zarzutem bronić

W zapowiadanym procesie nowatorski może być nie tylko stan faktyczny, ale też strategie obrane przez strony i metody dowodzenia swoich racji. Zdaniem mec. Basałaj w zakresie naruszenia dóbr osobistych powód powinien udowodnić, że doszło do naruszenia jego dobra osobistego, w tym wizerunku (np. głosu) oraz czci (godności, dobrego imienia).

- Można wykazać, że reklama mogła spowodować straty dla jego marki osobistej, utratę potencjalnego wynagrodzenia, które powód mógłby otrzymać za zgodę na wykorzystanie wizerunku, lub wywołać negatywne skojarzenia związane z jego osobą i usługami pozwanego. Powód powinien także wykazać, że między tym naruszeniem dobra osobistego a szkodą lub doznaną krzywdą istnieje związek przyczynowy – mówi.

Podpowiada też, że druga strona może opierać swoją obronę na twierdzeniu, że nigdy nie korzystała z oryginalnego wizerunku powoda, a jedynie zleciła stworzenie materiałów reklamowych podmiotowi trzeciemu. - Alternatywnie, może argumentować, że przy tworzeniu materiałów korzystano wyłącznie z legalnego oprogramowania generatywnego AI i nigdy nie wydano poleceń (promptów) dotyczących wykorzystania wizerunku, w tym głosu powoda. Warto także podnieść, że nie użyto żadnych nagrań ani innych materiałów powoda, a jedynie wygenerowano głos o nieco podobnej barwie przy pomocy AI – dodaje prawniczka.

Gdyby sprawę rozpatrywać na gruncie prawa autorskiego, powód powinien wykazywać, że jest rozpoznawany po samym tylko głosie. Pomocne mogą być tu zeznania świadków nawet z bliskiego kręgu jego znajomych, wiadomości od nich itp. - Można także rozważyć posiłkowanie się zrzutami ekranu wspomnianych wiadomości, linkami do opinii z forów lub portali internetowych, a nawet wynikami badań opinii publicznej. Jednocześnie sąd może zlecić sporządzenie ekspertyzy biegłemu – mówi mec. Basałaj.

Jak dodaje, druga strona mogłaby argumentować, że głos powoda może rozpoznać jedynie wąskie grono odbiorców (zatem zadośćuczynienie powinno być symboliczne lub w ogóle się nie należy), lub też podnosić, że wykorzystanie syntetycznego głosu nie mieści się w ramach klasycznego rozumienia wizerunku.

Jak wskazuje dr Flisak, fakt, że lektor jest osobą powszechnie znaną, która bezsprzecznie zarabia swoim głosem, może ułatwić sądowi ocenę stanu prawnego. O ile głos zwykłej osoby nie jest bowiem charakterystyczny, dystynktywny, o tyle głosy lektorskie zapadają w pamięć odbiorców – mówi dr Flisak, który nie wyklucza, że dojdzie do próby powołania biegłych o specjalizacji technicznej, którzy będą mieli ocenić podobieństwa obu głosów na podstawie pewnych technicznych kryteriów.

- Myślę jednak, że sąd i tak będzie musiał przede wszystkim ocenić to wszystko niejako „na podstawie własnego ucha”: po pierwsze czy mamy do czynienia z imitacją głosu powszechnie znanego lektora, a po drugie czy słyszalna zbieżność jest przypadkowa, czy nie. W sprawach o naruszenie tego rodzaju trudno uchwytnych dóbr nic nie jest zero-jedynkowe – podsumowuje prawnik.

Czytaj też w LEX: Skomercjalizowane dobra osobiste jako "sprawy własności intelektualnej" >

 

Sprawa niemiecka - sztuczny głos lektora w filmach na YouTube

Mec. Basałaj zastrzega, że system ochrony wizerunku różni się w poszczególnych krajach UE i trudno przyrównywać zagraniczne orzeczenia do polskiej sprawy. Przytacza jednak wyrok Sądu Regionalnego w Berlinie II z 20 sierpnia 2025 r. (sygn. akt 2 O 202/24), zgodnie z którym wykorzystanie wygenerowanego przez AI głosu znanego aktora dubbingowego i lektora audiobooków Manfreda Lehmanna przez twórcę filmów zamieszczanych na YouTube narusza prawa osobiste tego pierwszego.

- Dodam, że pozwany prowadził także sklep internetowy, a wykorzystanie głosu pozwanego miało charakter komercyjny, ponieważ miało zwiększyć oglądalność filmów i sprzedaż produktów w sklepie pozwanego. Co ciekawe, zdaniem sądu decydujące w tej sprawie jest nie to, czy głos jest technicznie „autentyczny”, lecz to, czy jest on w sposób rozpoznawalny przypisywany danej osobie przez opinię publiczną. Sąd przyznał powodowi odszkodowanie w wysokości „opłaty licencyjnej” - 2 tys. euro za każdy z dwóch filmów – wskazuje mec. Basałaj.

Zobacz też w LEX: AI w kancelarii prawnej – jak korzystać bezpiecznie i zgodnie z prawem? >

Czytaj także: ​Pracownik może stracić pracę za wyręczanie się sztuczną inteligencją