Technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. Sama technologia jest neutralna i może służyć do tworzenia np. efektów specjalnych w filmach, jednak może prowadzić do nadużyć, w tym naruszania praw i wolności ludzi na niespotykaną dotychczas skalę. Możliwe jest np. wykorzystywanie wizerunku danej osoby bez jej wiedzy i zgody oraz kradzież tożsamości. Technologia ta może posłużyć także do szantażu i nękania, gdyż umożliwia ukazanie osoby w sytuacjach, które w rzeczywistości nie miały miejsca.

- Zwalczanie deepfakó’w stanowi poważne wyzwanie nie tylko z perspektywy ochrony prywatności, ale szerzej – z punktu widzenia ochrony całego porządku prawnego, w tym dóbr osobistych, reputacji czy wiarygodności informacji w przestrzeni publicznej. Skala zagrożeń rośnie proporcjonalnie do stopnia, w jakim nasze życie społeczne, zawodowe i polityczne przenosi się do świata cyfrowego – potwierdza dr Joanna Łuczak-Tarka, karnistka z Uniwersytetu Łódzkiego i prawniczka zajmująca się problematyką ochrony danych osobowych w kancelarii Lubasz i Wspólnicy.

A dr Łukasz Kodłubański, kierownik Studiów Podyplomowych Prawa Własności Intelektualnej i Prawa Nowych Technologii na Uniwersytecie Gdańskim, dodaje, że XXI wiek przynosi nam nieprzerwanie nowe rozwiązania technologiczne, które często przekraczają ramy dotychczas wyznaczane przez regulacje prawne. - Rozwój algorytmów oraz ich wykorzystywanie w nieetycznych celach, jest niestety efektem ubocznym towarzyszącemu nam rozwojowi. Nie wszystko jesteśmy w stanie przewidzieć. Nie na wszystko jesteśmy w stanie odpowiednio szybko reagować – ocenia. 

Potrzebne bardziej jednoznaczne prawo

W Polsce o odpowiednie uregulowanie tej sfery zabiega prezes Urzędu Ochrony Danych Osobowych. Mirosław Wróblewski uważa, że obecne polskie przepisy nie są wystarczająco dostosowane do specyfiki technologii deepfake, która może naruszać prawa i wolności obywatelskie, a nawet wypełniać znamiona czynów zabronionych, takich jak kradzież tożsamości. UODO wskazuje, że deepfake może prowadzić do poważnych naruszeń danych osobowych, ale ochrona na poziomie prawa karnego i cywilnego jest niewystarczająca, co wymaga pilnych zmian legislacyjnych. - Konieczne są zmiany prawa, które będą odnosić się do rozpowszechniania szkodliwych treści w postaci deepfake’ów, zapewniając ofiarom możliwość skutecznego i szybkiego dochodzenia ochrony swoich praw – stwierdził prezes Wróblewski w wystąpieniu do wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego. Jak przypomniał, obecne prawo tylko w pewnym obszarze chroni wykorzystywanie wizerunku. Przepisy ustawy o prawie autorskim i prawach pokrewnych wymagają zgody na rozpowszechnianie wizerunku, a kodeks cywilny reguluje ochronę dóbr osobistych, w tym wizerunku i głosu. Z kolei RODO traktuje wizerunek jako dane osobowe wymagające ochrony. Jeśli weźmiemy pod uwagę kodeks karny to wykorzystanie deepfake może wypełniać znamiona np. czynu zabronionego kradzieży tożsamości (art. 190a par.2), zmuszania do określonego zachowania (art. 191), rozpowszechnienia wizerunku nagiej osoby bez zgody (art. 191a), publicznej prezentacji lub produkcji, rozpowszechniania, przechowywania i posiadania treści pornograficznych (art. 202), zniesławienia lub zniewagi (art. 212 i 216) lub oszustwa (art. 286). 

Czytaj: Prezes UODO apeluje o regulację technologii deepfake>>
 

Jednak, zdaniem prezesa UODO, żadna z tych regulacji prawnych nie zapewnia narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, np. poprzez szybkie usuwanie nielegalnych materiałów. - Tymczasem skutki tych nadużyć we współczesnym świecie zdominowanym przez internet i media społecznościowe są niezwykle dotkliwe, identyfikowanie twórców deepfake’ów często bardzo utrudnione, a procedury sądowe trwają zbyt długo – podkreśla Mirosław Wróblewski.  Potwierdza to adwokat Małgorzata Durlej-Piotrowska, prowadząca w Warszawie kancelarię specjalizującą się tej problematyce. - Z praktycznego punktu widzenia obecne przepisy pozwalają na pociągnięcie sprawców do odpowiedzialności, jednak ich zastosowanie wymaga każdorazowo złożonej analizy prawnej i często nie obejmuje nowych form wykorzystania sztucznej inteligencji - ocenia. I podkreśla, że trudności pojawiają się zwłaszcza w ustaleniu tożsamości autora deepfake’a, jego zamiaru oraz celu, w jakim materiał został stworzony. 

- Nie odnajduję w aktualnej treści kodeksu karnego regulacji precyzyjnie nadającej się do zastosowania w tego typu przypadkach. A odpowiednie określenie znamion czynu zabronionego w prawie karnym jest czynnikiem krytycznym dla jego skuteczności – podkreśla dr Łukasz Kodłubański.

AI Act – nowe zasady gry dla twórców i użytkowników AI

Duże nadzieje w tym zakresie wiązane są z przyjętym w 2024 r. w Unii Europejskiej rozporządzeniem o sztucznej inteligencji – AI Act. To pierwszy akt prawny w Europie, który jasno mówi, że treści tworzone przez AI muszą być oznaczane jako sztuczne, a wykorzystywanie danych prawdziwych osób, bez ich wiedzy i zgody, jest zakazane. Art. 50 AI Act wprost mówi o obowiązku oznaczania deepfake’ów i innych treści generatywnych. Przepisy zabraniają też używania rzeczywistych danych (np. twarzy, głosu) do tworzenia takich materiałów bez zgody zainteresowanej osoby. A jeśli ktoś narusza te zasady – grożą mu surowe kary, także finansowe. Te kary muszą być jednak wprowadzone w prawie krajowym. 

Czytaj: Technologia deepfake. Regulacja obejmie tylko materiały powstałe z użyciem AI>>
 

We Włoszech do pięciu lat więzienia 

Włoski parlament we wrześniu przyjął ustawę ramową, która reguluje kwestię sztucznej inteligencji oraz sprawę ochrony prywatności. Włochy jako pierwszy kraj UE wprowadziły przestępstwo "deepfake". Nowe przepisy wprowadzają kary od roku do pięciu lat więzienia za nielegalne szerzenie obraźliwych i fałszywych treści, wygenerowanych przez sztuczną inteligencję, takich jak m.in. deepfake. 

Być może za energicznym działaniem włoskich władz w tej sprawie stoi to, że w 2024 r. obecna premier Włoch pozwała ojca i syna oskarżonych o stworzenie deepfake'owego filmu z jej udziałem. Domagała się ponad 100 tys. euro odszkodowania w procesie cywilnym za umieszczenie jej twarzy w filmach pornograficznych i publikowanie ich w internecie. Filmy, w których wykorzystano jej wizerunek, były rozpowszechniane w internecie na amerykańskiej stronie pornograficznej, a w ciągu kilku miesięcy obejrzano je "miliony razy" przez użytkowników z całego świata.

Także w Danii do kodeksu karnego wprowadzono zakaz deepfake’ów przedstawiających prawdziwe osoby w kontekstach seksualnych. Twórcom deepfake’ów grożą wysokie kary, aczkolwiek prawo przewiduje wyjątek dla satyry i parodii czyli jest ochrona wolności słowa (ale wyznacza granice). Podobnie we Francji przyjęto ustawę mającą na celu zabezpieczenie i uregulowanie przestrzeni cyfrowej, która ustanowiła przestępstwo polegające na użyciu deepfake’ów. 

Kary za deepfake’i także w Polsce?

Zdaniem prezesa UODO przeciwdziałanie specyficznym zagrożeniom powodowanym przez deepfake’i wymaga opracowania szczegółowych zasad ponoszenia odpowiedzialności karnej i odszkodowawczej osób tworzących i rozpowszechniających szkodliwe deepfake’i, a także doprecyzowania obowiązków podmiotów administrujących platformami internetowymi. 

Przepis kodeksu karnego (art. 202 par. 3) stwierdza, że kto produkuje, rozpowszechnia, prezentuje, przechowuje lub posiada treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej podlega karze pozbawienia wolności do lat trzech. Kodeks zakazuje też utrwalania wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej, a także rozpowszechniania takich materiałów (art. 191a). Natomiast wygenerowanie przeróbki, nawet najbardziej realistycznej, nie wypełnia znamion tego przestępstwa, tym bardziej, że prawo karne zakazuje analogii na niekorzyść sprawcy.

Co o tym sądzą prawnicy? Np. eksperci gdyńskiego Stowarzyszenia OVUM, które wspiera m.in. poszkodowanych takimi działaniami uważają, że wprowadzenie specjalnych przepisów za manipulacje multimediów byłoby krokiem w kierunku bardziej adekwatnej reakcji prawnej na to zagrożenie. Ale dodają w swojej opinii, że równie ważne jest unikanie nadmiernej regulacji, która mogłaby ograniczyć swobodę wyrażania się i innowacyjność.  Zdaniem dr. Łukasza Kodłubańskiego wykorzystywanie deepfake’ów z całą pewnością powinno być uregulowane prawnie. - Co do zasady będzie to domena przede wszystkim RODO i prawa cywilnego, ale z tym zastrzeżeniem, że w mojej opinii w zakresie pewnych zachowań powinna się pojawić także stosowna regulacja karna – powiedział Prawo.pl. Natomiast dr Joanna Łuczak-Tarka nie uważa, aby jedyną właściwą odpowiedzią ustawodawcy było tworzenie nowych typów czynów zabronionych w kodeksie karnym. Bo postępowania karne są co do zasady długotrwałe, a zatem mają ograniczoną skuteczność odstraszającą w obszarze, w którym liczy się szybkość reakcji i skuteczność ochrony. - W przypadku dezinformacji opartej na deepfake’ach kluczowe znaczenie ma natychmiastowość działania – zasada „akcja–reakcja” jest tutaj nie tylko postulatem, ale koniecznością dla zachowania równowagi między wolnością słowa a ochroną praw jednostki – powiedziała Prawo.pl.

Natomiast w ocenie adw. Durlej-Piotrowskiej zasadne byłoby rozważenie wprowadzenia do kodeksu karnego odrębnego typu czynu zabronionego, który wprost penalizowałby tworzenie lub rozpowszechnianie deepfake’ów w sposób naruszający dobra osobiste innych osób. - Takie rozwiązanie nie musiałoby oznaczać nadmiernej penalizacji, lecz stanowiłoby jasny sygnał, że prawo dostrzega nowe zagrożenia technologiczne przestępstwo – powiedziała Prawo.pl. I przypomniała, że podobne rozwiązania przyjęto już w kilku krajach europejskich, między innymi we Włoszech, gdzie deepfake’i zostały uznane za przestępstwo.

 

Cena promocyjna: 254.15 zł

|

Cena regularna: 299 zł

|

Najniższa cena w ostatnich 30 dniach: 209.3 zł


Różne ścieżki reakcji i przeciwdziałania

Zdaniem dr Łuczak-Tarki w tej debacie nie można zapominać, że odpowiedzialność karna nie powinna być jedynym środkiem ochrony. - Konieczne jest także rozwijanie instrumentów cywilnoprawnych i administracyjnych, które umożliwią szybkie usuwanie nielegalnych treści z internetu i skuteczne dochodzenie odszkodowania. W tym kontekście projektowane przepisy wdrażające unijne rozporządzenie AI Act będą miały istotne znaczenie dla określenia obowiązków dostawców i użytkowników systemów generatywnych – stwierdza. 

Zdaniem Małgorzaty Durlej-Piotrowskiej obecny system prawny w Polsce zapewnia pewien poziom ochrony przed skutkami deepfake’ów, jednak nie w sposób kompleksowy. - Wprowadzenie odrębnej regulacji karnej mogłoby uzupełnić istniejące mechanizmy, a jednocześnie wzmocnić świadomość społeczną i prewencję w zakresie nadużyć technologii sztucznej inteligencji - ocenia.

A dr Joanna Łuczak-Tarka dodaje, że celowe wydaje się stworzenie hybrydowego systemu środków ochrony, w którym ofiary będą mogły wybrać ścieżkę najbardziej adekwatną do charakteru naruszenia. - Obok drogi karnej – np. w formie prywatnego aktu oskarżenia w przypadku szczególnie rażących przypadków, które mogą kwalifikowano jako znieważenie czy zniesławienie – warto zapewnić również efektywne instrumenty administracyjne. Sankcje o charakterze finansowym, takie jak administracyjne kary pieniężne, mogłyby stać się realnym narzędziem ochrony pokrzywdzonych oraz odstraszania potencjalnych sprawców - twierdzi.
Zdaniem ekspertki rozwiązanie to pozwoliłoby zapewnić ofiarom deepfake’ów elastyczność w dochodzeniu ich praw, a jednocześnie zwiększyłoby skuteczność reakcji państwa na naruszenia, bez konieczności nadmiernej penalizacji zjawiska. - Nie wyklucza to oczywiście stosowania reżimu odpowiedzialności karnej, dla przypadków, w których np. dochodzi do targnięcia się pokrzywdzonego na własne życie. Kluczowe jest jednak nie tylko to, czy deepfake będzie ścigany karnie, ale jak szybko i jak skutecznie prawo potrafi przywrócić naruszoną równowagę między wolnością a odpowiedzialnością za własne działania, w nowej, cyfrowej rzeczywistości – argumentuje dr Joanna Łuczak-Tarka.

Czytaj: Godność cyfrowa w praktyce - studia przypadków naruszeń przez AI>>