Definicja deepfake w Al Act (art. 3 pkt 60) z jednej strony jest szeroka, bo obejmuje zarówno proces wygenerowania, jak również manipulację danymi treściami, z drugiej jednak strony zostawia furtkę dla wyinterpretowania takich obszarów, które nie będą stanowiły deepfake w rozumieniu AI Act.

Trzy filary definicji

Pierwszy filar odnosi się do procesu wygenerowania lub manipulowania obrazu, treści dźwiękowych i treści wideo.

Drugi filar odnosi się do tego, że wygenerowany wytwór czy zmanipulowana treść muszą przypominać istniejące osoby, przedmioty, miejsca lub inne podmioty lub zdarzenia.

Trzeci filar wskazuje, że tak określone treści powinny zostać uznane przez odbiorcę za autentyczne lub prawdziwe.

Idąc logiką takiej definicji, deepfakiem w rozumieniu AI Act, nie będzie:

  • wygenerowana treść tekstowa, którą odbiorca mógłby uznać za autentyczną lub prawdziwą, jak również za nieautentyczną lub nieprawdziwą;
  • wygenerowany obraz, treść dźwiękowa lub treść wideo, o ile nie przypomina ona istniejących osób, przedmiotów, miejsc lub innych podmiotów lub zdarzeń;
  • wygenerowany obraz, treść dźwiękowa lub treść wideo, chociażby przypominała istniejące osoby, przedmioty miejsca lub inne podmioty lub zdarzenia o ile odbiorca będzie mógł uznać je za nieautentyczne lub nieprawdziwe.  

Powyższe ma istotne znaczenie dla określania zakresu obowiązku przejrzystości z art. 50 AI Act, w szczególności skierowanego do podmiotów stosujących systemy AI. Zgodnie bowiem z art. 50 ust 4 AI Act podmioty stosujące systemy AI, które generują obrazy, treści audio lub wideo stanowiące treści deepfake lub które manipulują takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub poddane manipulacji.

A contrario, w sytuacji gdy treści takie nie stanowią deepfake, nie powstaje obowiązek ujawniania, że dane wytwory zostały wygenerowane lub zmanipulowane na gruncie AI Act.

Przeczytaj także: Deepfake może być problemem w kontekście prawa wyborczego

Obowiązek przejrzystości uzależniony od podmiotu

Warto dodać, że obowiązki dostawców systemów AI w zakresie przejrzystości z rozdziału IV AI Act są inne. Dostawcy, zgodnie z art. 50 ust. 1 AI Act, zapewniają, aby systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano lub opracowywano w taki sposób, aby zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu korzystania. Ponadto, zgodnie z art. 50 ust. 2 AI Act, dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu zapewniają, aby wyniki działania systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane.

Pozycja podmiotów stosujących systemy AI i dostawców systemów AI jest oczywiście różna w łańcuchu wykorzystywania systemów AI, co powoduje, że obowiązek przejrzystości musi być wykonywany w sposób dostosowany do roli danego podmiotu, czytanej wedle scenariusza swoich praw i obowiązków oraz wobec praw i obowiązków osób, z którymi dany podmiot wchodzi w interakcję, niemniej uwagę zwraca – w zakresie obowiązków przejrzystości dostawców systemów AI - chociażby fakt uwzględnienia w nim treści tekstowych.

Wydaje się, że prawodawca unijny nieprzypadkowo pominął w definicji deepfake wygenerowane treści tekstowe. Świadczy o tym pośrednio, art. 50 ust. 4 akapit 2) AI Act, który odnosi się do podmiotów stosujących systemy AI, które generują tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipuluje takim tekstem. Takie podmioty ujawniają, że tekst został sztucznie wygenerowany lub poddany manipulacji. Przepis ten nie operuje definicją deepfake, a wyraźnie odnosi się do wygenerowanego przez podmioty stosujące systemy AI tekstu.

Ostateczna wersja językowa AI Act jest jeszcze w opracowaniu, zwraca uwagę, że precyzyjne określenie, co stanowi deepfake będzie kluczowe dla funkcjonowania większości podmiotów wykorzystujących systemy AI w działalności biznesowej. Za takim wykorzystaniem będzie bowiem szedł obowiązek informowania zainteresowanych osób fizycznych (odbiorców takich treści) w sposób jasny, przejrzysty, najpóźniej w momencie pierwszej interakcji lub kontaktu.

 

Nie wszystko może być deepfake'm

Wracając do „wyjątków” od deepfake, oczywiście można bronić tezy, że wygenerowany obraz, treść dźwiękowa lub treść wideo z reguły zawsze przypomina istniejące osoby, przedmioty, miejsca lub inne podmioty w mniejszym lub większym stopniu. Przeczy temu jednak temu sama definicja deepfake, która wskazuje na faktor „przypominania” jako istotny, ergo zakłada funkcjonowanie określonych wytworów (nie „futurystycznych” – bo tego również dotyczy możliwość racjonalnego uznania przez odbiorcę czy ma do czynienia z wytworem autentycznym lub prawdziwym), które w ramach ukształtowanego z czasem „instrumentu” pomiaru będą te kwestię wyróżniać. W motywie 134 AI Act mówi się o "łudzącym" przypominaniu.

Odnosząc się natomiast do tej przesłanki, że deepfake stanowi treść, która „skutecznie”  wprowadza nas w błąd, tj. powoduje, że nie jesteśmy w stanie stwierdzić, że stykamy się z wygenerowanym np. obrazem, deepfake (z całym bagażem obowiązków w zakresie przejrzystości), nie będzie obrazem, który w sposób oczywisty jest postrzegany jako nieprawdziwy lub nieautentyczny.

Weźmy za przykład reklamę. Oderwijmy się jednocześnie od dywagacji, na ile reklama stworzona z wykorzystaniem systemów AI może lub nie może nas wprowadzać w błąd przez sam fakt wykorzystania generatywnej AI, np. w warstwie obrazowej lub dźwiękowej (o ile nie jest to poprawnie oznaczona). Tworzymy twarz człowieka „od nowa”. Używamy promptów, które nie wskazują na jakiekolwiek podobieństwa i uzyskujemy wytwór (nie utwór), niepowtarzalnego wizerunku osoby. Następnie wykorzystujemy taką twarz w reklamie. Podążając za sztywną definicją deepfake, o ile obiektywnie można będzie obronić tezę, że twarz ta nie przypomina innej istniejącej osoby, to chociaż odbiorca uznał ją za autentyczną (a nie jest) to taka treść nie będzie deepfake.

Inaczej, przy generowaniu twarzy wrzucamy prompt graficzny z wizerunkiem osoby (nawet publicznej) i na tej podstawie dostajemy wytwór osoby podobnej. Następnie dokonujemy modyfikacji w ten sposób, że w sposób oczywisty wynika z niej, że twarz nie jest autentyczna lub prawdziwa (nadając jej chociażby w kontekście satyrycznym cech nieludzkich). Uzyskujemy efekt obrazu, który przypomina istniejącą osobę, ale odbiorca nie będzie mógł uznać takiego obrazu za autentyczny lub prawdziwy. Taki wytwór również nie podpada wprost pod definicję deepfake z AI Act.  

Przykład powyższy abstrahuje oczywiście od praw ochronnych związanych z wykorzystaniem takiej przeróbki (niekoniecznie w znaczeniu autorskim) i wizerunku, niemniej dotyka obowiązku przejrzystości na gruncie AI Act, który jest powiązany ze stosowaniem deepfake. Sam rozdział IV AI Act dotyczący obowiązków w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre systemy AI jest kopalnią zagadnień, które należy poddać szczegółowej interpretacji.

Rafał Rozwadowski, adwokat prowadzący własną kancelarię adwokacką

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź