Deepfake to przeróbka wideo lub nagrania głosowego, która wykorzystuje sztuczną inteligencję do kreacji czegoś, co nie miało miejsca w rzeczywistości. Za pomocą zbioru danych konkretnej osoby, takich jak jedno zdjęcie i kilkusekundowe uchwycenie głosu, możemy stworzyć zupełnie nowe i całkowicie fikcyjne zachowanie danej osoby. 

Technologia deepfake zyskała popularność, kiedy użytkownik o nicku DeepFake opublikował filmy pornograficzne celebrytów. Szybko okazało się, że jego podstęp polegał na wklejeniu twarzy znanych osób w miejsce twarzy aktorów gotowego filmu. Mimo szybkiej reakcji środowiska deepfake film osiągnął dużą popularność i stał się pewnego rodzaju trendem. Od tej pory użytkownicy internetu dostali nowe narzędzie do „zabawy” oraz manipulacji na globalną skalę.

 


Gotowe narzędzia do manipulacji - silna broń polityczna

Internet zdążył się przekonać o sile oddziaływania tej technologii w krótkim czasie, bo już po kilku miesiącach zostało opublikowane wideo z Barackiem Obamą. Zostało ono stworzone od podstaw. Nie mamy tam wklejonej twarzy, która dopasowuje się do filmu, ale kilkuminutową przemowę, która nigdy się nie odbyła. Podobnie jak poprzednio , „stworzyła” ją sztuczna inteligencja po przeanalizowaniu kilku godzin przemówień, generując nowe nagranie wystąpienia, którego zwykły odbiorca nie jest w stanie odróżnić od prawdziwych. Wszystko, od mimiki po dobór słów, jest idealnie spersonalizowane.

Po publikacji tego wideo pojawiły się pierwsze sygnały, że stworzono coś niebezpiecznego. Fakt, że możemy dopasować osobie słowa, które chcemy, żeby zostały wypowiedziane, daje nieograniczone możliwości oraz rodzi słuszne obawy. Jeśli taką osobą jest polityk, mamy gotowe narzędzie do manipulacji, prowokacji i szerzenia dezinformacji w społeczeństwie w jednym.

NATO identyfikuje problemy

Problem jest na tyle poważny, że 8 Listopada 2019 roku został opublikowany raport NATO Strategic Communications Centre of Excellence o tytule The role of deepfakes in malign influense campaigns. Stanowi on o fenomenie zjawiska, jakim jest Deepfake. Prowadzi nas od pierwszej wzmianki w internecie, aż do szokujących prognoz na przyszłość. Warto przytoczyć analizowany w nim przykład Katie Jones - profilu z platformy LinkedIn. Co stanie się, jeśli utworzymy sztuczny profil na platformie dla przedsiębiorców? A co jeśli rzekomy posiadacz sztucznego konta zbierze w gronie znajomych najważniejsze osoby sceny politycznej i w ten sposób stworzy sieć kontaktów niedostępną dla przeciętnego użytkownika? Tak stało się właśnie z Katie. Opisana jako rzekoma absolwentka Uniwersytetu w Michigan na wydziale literatury, zdołała zgromadzić w gronie swoich wirtualnych znajomych takie osoby jak attaché wojskowego USA w Moskwie, czy byłego doradcę Donalda Trumpa. Swoich znajomych dobierała pośród znaczących wojskowych oraz przedstawicieli administracji. W jej pułapkę wpadły 52 osoby. Mimo przeprowadzonych analiz jej profilu nigdy nie wyszło na jaw, w jakim celu została stworzona i co najważniejsze, czy ten cel osiągnęła. Możemy zastanawiać się nad kilkoma z nich:

 
  1. Ułatwiony kontakt z ważnymi osobami sceny politycznej. Deklaracja posiadanych 52 z nich w gronie znajomych pozwala na zaufanie reszty.
  2. Uzyskanie dostępu do publikowanych przez nich treści oraz informacje o wydarzeniach.
  3. Prosta analiza powiązań między ważnymi użytkownikami LinkedIn.
  4. Test, jakie profile mają szanse na sukces oraz manipulacja w przyszłości.

 

Daje to dowód na to, że deepfake bazuje na instynktach. Osoby przyznawały, że dodały Katie Jones do sieci kontaktów, ponieważ wydawała się im atrakcyjna. W rzeczywistości zdjęcie profilowe nie należało do żadnego człowieka. Było czystym tworem sztucznej inteligencji. Jeśli dajemy się wprowadzić w błąd przez obrazek, czy nie przekona nas Mark Zuckerberg, który opowiada o kradzieży danych? Rozwój sztucznej inteligencji działa dwojako. Z jednej strony pojawiają się programy, które wykrywają upozorowane nagrania. Coraz częściej korzystają z nich firmy, jako zabezpieczenie przed oszustwem. Historia zna już przypadek telefonu z wykreowanym głosem szefa, który prosi swojego pracownika o pilny przelew miliona dolarów. Z drugiej strony promuje się dezinformację, która sprawie, że ludzie przestaną ufać wszelkim wiadomościom. 

Wskazuje się, że najbardziej podatne na manipulacje są nastroje przedwyborcze. Umożliwia to małe okno czasowe między udostępnieniem a wykryciem oszustwa (na przykład filmu z politykiem, który mówi, że jest rasistą). Popularność może osiągnąć w kilka minut, a nie do każdego dotrze zwrotna informacja o tym, że nagranie było deepfakiem. Zjawisko może być szkodliwe również dla dziennikarzy i przedsiębiorców.

 


W Chinach i USA prawo ma pomóc walczyć z deepfake'ami

Już niedługo będziemy mogli przekonać się, czy można skutecznie zapobiegać takim oszustwom. Próba taka zostanie podjęta przez Chiny, które wprowadzają nowe prawo przeciwdziałające m. in. deepfake’om, które wchodzi ono w życie 1 marca 2020 roku. Według Cyberspace Administration of China deepfaki  „zagrażają bezpieczeństwu narodowemu, zakłócają porządek społeczny i naruszają prawa i przedmioty zainteresowania innych osób"(więcej czytaj tutaj).  Brak oznaczenia, że dany wytwór został stworzony przez sztuczną inteligencję lub jego udostępnienie będzie traktowane jak przestępstwo i podlegało karze. 

Wstępne sankcje starano się też wprowadzić w poszczególnych stanach USA. Pierwszym z nich był stan Wirginia, a teraz przyszła kolej również na Kalifornię. Pod koniec września podpisano tam ustawę, która nowelizuje prawo wyborcze. Zakazano w niej m. in. preparowania oraz rozpowszechniania wideo, które będzie przedstawiało nieprawdziwą mowę lub zachowanie polityka. Dopuszczalne jest wideo oznaczone jako deepfake oraz parodia i satyra. W tym samym czasie podpisano kolejną kalifornijską ustawę zakazującą tworzenia filmów pornograficznych z wykorzystaniem wizerunku bez zgody osoby przedstawionej. 

Problem w tym, że same aplikacje, czy portale nie są w stanie walczyć z problemem. Programy do weryfikacji deepfake’ów zawodzą, ponieważ nie nadążają za technologią. Deepfake jest coraz dokładniejszy i potrzebuje mniejszej ilości danych do swojego wytworu. Najlepszym sposobem na walkę ze szkodliwą postacią tego zjawiska okazuje się edukacja społeczeństwa oraz informowanie o potencjalnym wpływie ataku.

 

Dr Piotr Wasilewski jest adwokatem i partnerem w kancelarii Traple Konarski Podrecki i Wspólnicy

Weronika Lenart jest prawnikiem w kancelarii Traple Konarski Podrecki i Wspólnicy