O rozważenie wprowadzenia rozwiązań ustawowych, które zapewnią - zwłaszcza osobom fizycznym - skuteczną ochronę przed negatywnym wpływem deepfake’ów, zaapelował niedawno Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych.

W piśmie do Krzysztofa Gawkowskiego, wicepremiera i ministra cyfryzacji, opisał przypadki wykorzystania tej technologii, z jakimi zetknął się w swojej praktyce. O pierwszym dowiedział się ze skargi osoby fizycznej znanej publicznie, której wizerunek został bezprawnie wykorzystywany w kolportowanych w mediach społecznościowych fakenewsach. Autorka skargi według internetowych wpisów miała a to umrzeć, a to zostać pobita przez męża, a to trafić do więzienia. Inny przypadek dotyczył uczennicy, której wizerunek został wykorzystany przez szkolnych kolegów do wygenerowania fałszywego nagiego zdjęcia. UODO zajmował się też sprawą lalkarzy, których wizerunki i autorytet zostały wykorzystane w nieprawdziwych reklamach preparatów medycznych i zmontowanych materiałach wideo.

- Przepisy prawa częściowo chronią przed deepfake’ami, choć niedostatecznie i nie wprost, bo nie odnoszą się one bezpośrednio do specyfiki tej technologii – zauważył Mirosław Wróblewski, przytaczając przepisy kodeksu karnego, kodeksu cywilnego i prawa autorskiego.

Podobny problem stał się przedmiotem interpelacji poselskiej nr 11789. Z odpowiedzi Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji, wynika, że resort zna problem, jednak zostanie on rozwiązany... 2 sierpnia 2026 r.

AI Act a deepfake

Tego dnia wejdą bowiem w życie kolejne przepisy AI Actu, czyli częściowo obowiązującego już rozporządzenia 2024/1689 w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji.

Wiceminister Standerski powołał się na następujące dwa przepisy AI Act:

  • art. 50 ust. 2 - nakłada obowiązek na dostawców systemów AI generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu , aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane;
  • art. 50 ust. 4 - stanowi, że podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane.

Czytaj także >>​ AI to dla prawników in-house rewolucja na miarę chmury

Nie każdy fake jest dziełem AI

Na potrzeby AI Act prawodawca europejski zdefiniował zresztą "deepfake". Zgodnie z art. 30 pkt 60 rozporządzenia termin ten „oznacza wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.

Regulację tę przytacza w swoim piśmie Mirosław Wróblewski, prezes UODO.

Sęk w tym, że przedstawione przez niego przypadki niekoniecznie muszą ją spełniać.

Wizerunek znanej osoby ilustrujący fakenewsa o jej rzekomej śmierci nie musi wszak być wcale „wygenerowany przez AI” ani „zmanipulowany przez AI”. Fałszywe nagie zdjęcie mogło powstać tradycyjną techniką fotomontażu w programie graficznym, który nie wykorzystuje sztucznej inteligencji. Do filmu przedstawiającego prawdziwą osobę można podłożyć dowolny podkład dźwiękowy lub dodać napisy za pomocą najzwyklejszego edytora wideo, który nie ma nic wspólnego z AI.

Czy zatem przedstawione przez wiceministra przepisy pozwolą zapobiegać wszystkim takim sytuacjom? Zdaniem prawników – nie.

- Przede wszystkim należy podkreślić, że AI Act odnosi się wyłącznie do sztucznej inteligencji i skutków jej użycia. Powołane w odpowiedzi na interpelację przepisy będą mieć zatem zastosowanie wyłącznie do deepfake’ów stworzonych za pomocą narzędzi AI – mówi Joanna Ryczek, adwokat, senior associate w Głowacki i Wspólnicy sp.k. Kancelaria Prawnicza.

- AI Act ma zastosowanie wyłącznie w sytuacjach, gdy do stworzenia deepfake’ów wykorzystano sztuczną inteligencję. Jeśli ktoś posłużył się tradycyjnymi metodami, regulacja ta nie będzie miała zastosowania – potwierdza Tomasz Zalewski, radca prawny, założyciel kancelarii Zalewski Legal.

Podobnie wypowiada się Alina Sieradzińska, prawnik, audytor ISO/IEC 42001, wspólnik i trener w Dokodu. - AI Act nie zapobiegnie sytuacjom, w których treść fałszowana jest bez użycia AI (np. prosty fotomontaż z fałszywym podpisem), ponieważ jego obowiązki i definicje dotyczą wyłącznie zastosowań sztucznej inteligencji – mówi. I dodaje: - Dlatego konieczne są dodatkowe regulacje – albo lepsze wykorzystanie istniejących przepisów dotyczących manipulacji – jeśli ustawodawca chce wprost zapobiegać wszelkim formom fałszowania treści.

Pozostali rozmówcy Prawo.pl mają natomiast wątpliwości, czy rzeczywiście będą występować przypadki wiarygodnego podszywania się bez użycia AI.

- Techniki fotomontażu są znane od wielu lat, ale to właśnie AI znacząco uprościła ich użycie, umożliwiając niemal każdemu wygenerowanie czyjegoś wizerunku w fałszywym kontekście – mówi Tomasz Zalewski.

- Samo pojęcie deepfake’a jest ściśle związane z AI. Za pomocą innych narzędzi nie udało się jak dotąd stworzyć tak „idealnych” mistyfikacji, dlatego też jest to tak groźne zjawisko. Wcześniejsze formy podszywania się pod kogoś, np. fotomontaże czy przypisywanie niewypowiedzianych słów, były łatwiej dostrzegalne – poza tym przywykliśmy też do tego, że nie każdy artykuł czy zdjęcie muszą być prawdziwe – zwraca uwagę Joanna Ryczek.

- W przypadku treści wideo to dopiero sztuczna inteligencja pozwala na bezproblemowe stworzenie deepfake’a przedstawiającego daną osobę w sytuacji, która nigdy nie miała miejsca. Przykładowo, firma OpenAI udostępniła już narzędzie Sora 2, które umożliwia generowanie scenek na podstawie wprowadzonego scenariusza, z udziałem niemal klonów aktorów znanych z prawdziwych filmów – dodaje mec. Zalewski.

Na ten aspekt zwrócił też uwagę w swoim piśmie Mirosław Wróblewski, który zwrócił uwagę, że technologia deepfake pozwala na dostosowanie różnego rodzaju kontekstów, które sprawiają, że sztucznie stworzone wideo i audio wydaje się autentyczne. - W tym celu wykorzystuje się synchronizację mimiki twarzy z dźwiękiem lub innymi czynnikami zewnętrznymi. Pozwala to uzyskać na tyle wiarygodne rezultaty, że trudno je odróżnić od autentycznych zdjęć czy nagrań - opisał.

 

Nowość
Bestseller
Obrazy generowane z wykorzystaniem sztucznej inteligencji
-30%

Cena promocyjna: 139.29 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 119.4 zł


AI Act rozwiąże problemy, ale nie wszystkie

Tomasz Zalewski uważa, że AI Act trafnie reguluje kwestię deepfake’ów.

- Zgodnie z art. 50 ust. 2, dostawcy systemów AI są zobowiązani do zapewnienia, by tego typu treści były rozpoznawalne jako sztucznie wygenerowane lub zmanipulowane. Nie chodzi tu o dodanie znaku wodnego, lecz raczej o trwałe oznaczenie w kodzie, którego nie da się łatwo usunąć. Niezależnie od tego, obowiązek oznaczania deepfake’ów AI Act nakłada też na podmiot stosujący. Niezależnie od tego jakimi metodami został stworzony deepfake, zastosowanie znajdą przepisy obowiązujące od dawna – na przykład z zakresu prawa karnego - dodaje.

- Uregulowanie obowiązków związanych z oznaczaniem deepfake’ów nie zwalnia jednak naszego ustawodawcy od konieczności uchwalenia przepisów umożliwiających pociągnięcie do odpowiedzialności naruszycieli – wspomnieć można tylko, że nie mamy obecnie nawet organu kompetentnego do nadzoru i egzekucji przepisów AI Act – zwraca jednak uwagę mec. Ryczek. Zgadza się, że w przypadku „tradycyjnych” form podszywania się pod inne osoby pozostają nam równie tradycyjne środki.

- Przede wszystkim pamiętajmy o tym, aby takie przypadki zgłaszać do podmiotu, który zarządza daną platformą. Daje nam to najbardziej efektywną ścieżkę do tego, aby tego typu materiały zostały usunięte. Kolejnym, choć wymagającym nieco więcej czasu, rozwiązaniem jest zabezpieczenie udzielone przez sąd. Postanowienia te zapadają dużo szybciej niż jakiekolwiek wyroki, a dają nam tymczasową ochronę do czasu prawomocnego rozstrzygnięcia sprawy – podpowiada Joanna Ryczek

Przykład dają Włochy

Alina Sieradzińska jako ciekawy przykład podaje rozwiązania wprowadzone niedawno przez Włochy. Nie obejmują one co prawda automatycznie fotomontaży tworzonych bez wykorzystania sztucznej inteligencji, ale wyznaczają kierunek w zakresie przypadków związanych z użyciem AI.

- Ustawa z 23 września 2025 r. wprowadziła do włoskiego porządku prawnego nowy art. 612-quater Codice Penale – mówi prawniczka. - Przepis ten penalizuje zachowanie polegające na wyrządzeniu szkody osobie poprzez przekazywanie, publikowanie lub rozpowszechnianie – bez jej zgody – obrazów, nagrań wideo lub głosów sfałszowanych bądź zmodyfikowanych przy użyciu systemów sztucznej inteligencji, które mogą wprowadzać w błąd co do ich autentyczności.

Nasza rozmówczyni dodaje, że ściganie tego przestępstwa co do zasady następuje na wniosek osoby pokrzywdzonej, a konstrukcja przepisu wskazuje na uznanie deepfake’u za samodzielną kategorię czynu zabronionego, a nie jedynie za szczególną formę realizacji już istniejących typów przestępstw. - Włoski ustawodawca nie ograniczył się do wprowadzenia art. 612-quater, lecz dokonał nowelizacji szeregu innych aktów prawnych, przewidując zaostrzenie odpowiedzialności w razie wykorzystania systemów sztucznej inteligencji – dodaje Alina Sieradzińska.

Nie tylko zakaz, ale też możliwość obrony

Do zagadnienia odniósł się też w komentarzu dla Prawo.pl Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych. I on zwrócił uwagę, że dzięki algorytmom AI tworzenie fałszywych wizerunków stało się łatwe jak nigdy wcześniej. Jak tłumaczy, zwrócił się do Krzysztofa Gawkowskiego, wicepremiera i ministra cyfryzacji, o zainicjowanie prac nad przepisami, które będą miały dwojakie zastosowanie:

  • uregulują odpowiedzialność prawną za rozpowszechnianie fałszywych treści w postaci deepfake’ów
  • zapewnią skuteczną ochronę danych osobowych.

- Konieczne są zmiany prawa, które będą odnosić się do rozpowszechniania szkodliwych treści w postaci deepfake’ów, zapewniając ofiarom możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw - uważa prezes Wróblewski.