W artykule „Godność cyfrowa jako nowe dobro osobiste – jak nadążyć za rewolucją technologiczną?” adw. Zuzanna Miąsko opisała konieczność wprowadzenia pojęcia godności cyfrowej jako nowego dobra osobistego jednostki. Niniejszy artykuł jest kontynuacją, opisującą naruszenie godności cyfrowej w praktyce.
Czytaj więcej na Prawo.pl: Godność cyfrowa jako nowe dobro osobiste – jak nadążyć za rewolucją technologiczną?
Deepfake i „digital nudity”
Kolejnym przykładem naruszania godności cyfrowej są przykłady deepfake'ów i digital nudity.
Deepfake to realistyczne, ale fałszywe materiały (wideo, audio, zdjęcia) stworzone za pomocą sztucznej inteligencji. Technologia ta pozwala wykorzystywać głos lub wizerunek osób, np. zamieniając twarze w filmach czy tworząc nagrania, na których ktoś mówi lub robi coś, czego w rzeczywistości nigdy nie powiedział ani nie zrobił. Rodzajem deepfake’ów jest digital nudity, czy filmy pornograficzne wykorzystujące wizerunek konkretnych osób.
Szczególnie boleśnie z problemem deepfake’ów i digital nudity zmagała się Korea Południowa. Ofiarami tych ataków są głównie kobiety, często nieletnie. W 2023 r. amerykańska firma Security Hero, zajmująca się cyberbezpieczeństwem, opublikowała raport, w którym określiła Koreę Południową "krajem najbardziej atakowanym przez pornografię deepfake". W raporcie stwierdzono, że południowokoreańscy piosenkarze i aktorki stanowią ponad połowę osób występujących w pornografii deepfake na całym świecie.
W odpowiedzi zaostrzono podejście: oprócz kar za tworzenie i dystrybucję, w październiku 2024 r. parlament przegłosował penalizację samego posiadania i oglądania takich materiałów (kara do 3 lat więzienia lub grzywna), przy równoległym zaostrzeniu sankcji za produkcję/dystrybucję.
Podobne problemy zaobserwowano w Wielkiej Brytanii. Dyskusja na temat tego typu nadużyć opartych na obrazach osiągnęła punkt kulminacyjny na początku 2024 r. po opublikowaniu deepfake zdjęć pornograficznych piosenkarki Taylor Swift. W związku z zaobserwowaniem tego rodzaju działań, w Zjednoczonym Królestwie od 31 stycznia 2024 r. takie zachowania spenalizowano. Każdy, kto tworzy przy pomocy technologii zdjęcia bądź nagrania wideo przedstawiające osobę dorosłą w sytuacjach o charakterze seksualnym, bez zgody tej osoby, będzie podlegał wpisowi do rejestru karnego i grzywnie (nie określono jej maksymalnej wysokości). Dla ponoszenia odpowiedzialności karnej nie jest istotne to, czy zostały one rozpowszechnione, czy stworzone na użytek własny, jeśli natomiast obraz bądź nagranie zostanie szerzej rozpowszechnione, twórcy będzie grozić więzienie.
W Unii Europejskiej w dniu 13 marca 2024 r. uchwalono akt w sprawie sztucznej inteligencji odniesiono się do treści generowanych przez sztuczną inteligencję. Art. 52 ust. 3 ostatecznej wersji ustawy nakłada na użytkowników systemu sztucznej inteligencji, który generuje lub manipuluje treściami obrazu, audio lub wideo, które w sposób odczuwalny przypominają istniejące osoby, przedmioty, miejsca lub inne podmioty lub zdarzenia i które mogłyby fałszywie wydawać się osobie autentyczne lub zgodne z prawdą ("deepfake"), są zobowiązani do ujawnienia, że treści te zostały sztucznie wygenerowane lub zmanipulowane". Ponadto funkcjonujące w ramach UE Biuro ds. Sztucznej Inteligencji przygotuje kodeksy postępowania zawierające dalsze wytyczne, dotyczące oznaczania deepfake'ów.
Cena promocyjna: 179.1 zł
|Cena regularna: 199 zł
|Najniższa cena w ostatnich 30 dniach: 139.29 zł
W Stanach Zjednoczonych, które przyjęły znacznie bardziej innowacyjne podejście do regulacji sztucznej inteligencji, nie ma obecnie przepisów federalnych zabraniających udostępniania lub tworzenia obrazów typu deepfake. Aktualnie jedynie proponowane są projekty ustaw, w tym ustawa Izby Reprezentantów USA o zapobieganiu deepfake'om intymnych zdjęć, ustawa Senatu USA o zakazie podróbek oraz ustawa Izby Reprezentantów USA o zakazie oszustw związanych ze sztuczną inteligencją.
Algorytmiczna dyskryminacja w rekrutacji
Kolejnym przykładem naruszania godności cyfrowej jest sposób funkcjonowania algorytmów, czego najczęściej nie jesteśmy zupełnie świadomi. W 2014 roku zespół inżynierów z Amazon rozpoczął pracę nad projektem mającym na celu automatyzację zatrudniania w firmie. Amazon potrzebował algorytmu, który usprawniłby rekrutację - mógłby przeglądać CV i określać, których kandydatów powinien zatrudnić.
Algorytm „uczył się” na podstawie dotychczas zatrudnionych inżynierów, opierał się na ich wykształceniu, doświadczeniu cechach, wyciągając w ten sposób wnioski, jaki kandydaci są najbardziej pożądani w Amazon. W konsekwencji algorytm gorzej oceniał kandydatki, które uczęszczały do niektórych uczelni dla kobiet, do których prawdopodobnie nie uczęszczało wielu już zatrudnionych inżynierów Amazon. Podobnie obniżono ocenę życiorysów, które zawierały słowo "kobiece" – jak w przypadku "kobieca drużyna rugby". Uprzywilejowane były natomiast życiorysy zawierające czasowniki w formie męskiej.
Amazon zaprzestał korzystania z algorytmu. Jednak narzędzia rekrutacyjne, które prawdopodobnie są podobnie wadliwe, są używane przez setki dużych i małych firm, a ich użycie jest coraz powszechniejsze.
Fałszywe oskarżenia – „halucynacje” modeli językowych
W 2023 r. w Stanach Zjednoczonych głośno było na temat przypadku, w którym ChatGPT przypisał amerykańskiemu profesorowi prawa molestowanie podczas wycieczki studenckiej. Chat GPT oparł swoje „twierdzenia” na cytatach z prasy – jak się później okazało, całkowicie przez niego wykreowanych. Istotą naruszenia nie jest tylko zniesławiająca treść, lecz brak elementarnej kontroli nad tym, jak systemy tworzą i rozpowszechniają informacje o osobie. To uderza w klasycznie rozumiane dobra osobiste – dobre imię i godność, jak również autonomię i integralność cyfrową jednostki — właśnie w jądro godności cyfrowej. Sprawa nie miała finału w sądzie.
Finał w sądzie miała jednak inna sprawa – Mark Walters vs OpenAI, L.L.C. (sprawa toczyła się przed Sądem Najwyższym hrabstwa Gwinnett w stanie Georgia pod numerem 23-A-04860-2). W dniu 19 maja 2025 r. Sąd wydał w trybie uproszczonym wyrok na korzyść OpenAI L.L.C., twórcy chatbota sztucznej inteligencji ChatGPT.
Sprawa dotyczyła artykułu dziennikarza Fredericka Riehl’a. Dziennikarz korzystając z ChatGPT stworzył podsumowanie toczącej się sprawy sądowej dotyczącej defraudacji pieniędzy. Wkleił do chatbota treść publicznie dostępnych dokumentów ze sprawy sądowej oraz link URL, pod którym dokumenty były dostępne. Początkowo ChatGPT przygotował dokładne podsumowanie, jednak po otrzymaniu linku chatbot – pomimo stwierdzenia, że nie może uzyskać dostępu do Internetu – wyprodukował wymyślone przez niego podsumowanie, twierdząc, że sprawa dotyczyła defraudacji pieniędzy przez Marka Waltersa. Dziennikarz opublikował podsumowanie, jednak szybko je usunął, gdyż zorientował się, iż zawiera informację nieprawdziwą na temat Waltersa. Dlatego też Walters pozwał OpenAI o zniesławienie. OpenAI złożyło wniosek o wydanie wyroku w trybie uproszczonym (zgodnie z prawem stanu Georgia), argumentując, że stwierdzenie nie miało charakteru zniesławiającego, a Walters nie udowodnił winy chatu. Sąd uwzględnił stanowisko pozwanego OpenAI.
Sąd uznał bowiem, iż OpenAi ostrzegło użytkownika, iż nie ma dostępu do internetu, a także ostrzegało przed potencjalnymi nieścisłościami lub "halucynacjami" generowanymi przez sztuczną inteligencję. Sąd wskazał, że rozsądny użytkownik nie zinterpretowałby takich wyników jako treści, którymi może się bezkrytycznie posłużyć. Sąd wskazał również, iż Walters nie przedstawił żadnych dowodów na to, że OpenAI „działało” z lekkomyślnym zlekceważeniem dostępnych informacji.
Sąd nie przychylił się do argumentu Waltersa, że wdrożenie popełniającego błędy chatbota stanowi zaniedbanie OpecAI L.L.C. zaniedbanie i może być podstawą odpowiedzialności spółki. Sąd wziął pod uwagę, iż dyrektor OpenAI – dr White zeznał, że spółka jest liderem w branży w zmniejszaniu halucynacji chatbotów poprzez trenowanie ich i zamieszczanie ostrzeżeń dla użytkowników o możliwych „halucynacjach”.
Podsumowując, w orzeczeniu sąd położył nacisk na ostrzeżenia zamieszczane w regulaminach dotyczących zasad korzystania z chatbotów wskazuje, że ochrona prawna zależy od edukacji użytkowników i dochowania przez nich należytej staranności przy korzystaniu z chatbotów.
Rodzi to jednak pytania etyczne dotyczące tego, czy można racjonalnie oczekiwać, że użytkownicy będą poruszać się po złożoności sztucznej inteligencji w sytuacji, gdy dają jej materiały źródłowe, które ona ma jedynie opracować. Usprawiedliwianie błędów chatbot’ów może przyspieszyć wdrażanie sztucznej inteligencji, ale grozi normalizacją nieścisłości, kwestionując niezawodność oczekiwaną od narzędzi informacyjnych. Powyższe prowadzi do wniosku, że podejmowanie działań – efektywnych lub nie – może chronić spółki w przypadku rozpowszechniania nieprawdziwych informacji przez chatboty.
Podsumowanie
Powyższe przykłady pokazują, że AI realnie uderza w godność cyfrową – prawo do bycia przedstawianym uczciwie i bez zniekształceń w sieci. Gdy chatboty „halucynują”, potrafią przypisać ludziom czyny, których nie popełnili. Sprawa Walters v. OpenAI pokazała, że sąd całkowicie obarczył odpowiedzialność za korzystanie z chatbota i generowane przez niego treści na użytkownika. Szczególnie groźne są deepfake’i i „digital nudity”. Wielka Brytania już to penalizuje, Korea Południowa karze nawet samo posiadanie, a UE wymaga wyraźnego oznaczania takich treści. Mniej widoczna, ale równie dotkliwa i groźna dla funkcjonowania społeczeństwa, jest algorytmiczna dyskryminacja.
Wspólny mianownik wszystkich powyższych przykładów to brak przejrzystości i kontroli nad tym, jak AI tworzy informacje i podejmuje decyzje. Potrzebujemy jasnych oznaczeń, obowiązkowych audytów uprzedzeń, szybkich ścieżek odwoławczych i sprawnego usuwania szkód – bez zrzucania całej odpowiedzialności na użytkowników.
Zuzanna Miąsko, adwokat, Dubois i Wspólnicy Kancelaria Adwokacko-Radcowska sp.j.



