Art. 202 par. 4-4c kodeksu karnego – którego przedmiotami ochrony są wolność seksualna (w postaci życia wolnego od wstydu seksualnego) i obyczajność - penalizuje rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej. Grozi za to kara pozbawienia wolności od 3 miesięcy do 5 lat. Chodzi jednak o materiały z prawdziwymi, żywymi dziećmi, niezależnie od tego, czy jest na nich ukazana czynność seksualna (co potwierdza orzecznictwo, m.in. wyrok Sądu Okręgowego w Białymstoku z 13 grudnia 2022 r., VIII Ka 733/22). - Natomiast posiadanie i rozpowszechnianie materiałów wytworzonych czy przetworzonych przez sztuczną inteligencję, na których widoczne jest realistycznie rozebrane dziecko, czy też ukazane w stylu bajkowym, ale bez czynności seksualnej, nie jest w Polsce karane – wskazuje Amanda Krać-Batyra, biegła z zakresu antropologii sądowej. Podkreśla, że podobnie jest w przypadku materiałów z dziećmi ubranymi w sposób seksualizujący (np. w samą bieliznę, stroje kąpielowe, kabaretki czy pończochy), które nie ukazują jednak rzeczywistych czynności seksualnych ani prawdziwych, żyjących dzieci. Z danych brytyjskiej Narodowej Agencji ds. Przestępczości (NCA) i Internet Watch Foundation (IWF) wynika tymczasem, że to właśnie takie formy aktywności sprawców są coraz bardziej dokuczliwe, stają się też elementem internetowego hejtu, a w praktyce króluje "nagość" lub "rozbieranie" kolegów z klasy przez rówieśników. - Dzięki generatywnym modelom obrazów AI można bawić się zdjęciami, robiąc wszystko, co się chce i jak się chce. I nie potrzeba już oprogramowania do edycji zdjęć i przyzwoitego zrozumienia kompozycji, aby coś wyglądało przekonująco. A dostęp do tych narzędzi mają np. nastolatki, które chcą być złośliwe. Niestety, efekty są ogromne - badania pokazują, że wskaźniki samobójstw wśród ofiar cyberprzemocy rosną. Cyberprzemoc w postaci stworzonych przez sztuczną inteligencję nagich zdjęć wykorzystywanych do wyśmiewania i traumatyzowania ofiar, jest przekazywana z prędkością, o której dorośli nie mają prawdziwego pojęcia – pisze Gregg Jones, ekspert z firmy DNSFilter zajmującej się cyberbezpieczeństwem.
To jednak nie wszystko.
- W Polsce legalne są też opowieści, czyli słowny opis czynności seksualnych wobec dziecka oraz nagrania audio w tym zakresie - tłumaczy Tomasz Sidor, biegły z zakresu informatyki śledczej.
Sprawdź również książkę: Metodyka reprezentacji małoletniego pokrzywdzonego w sprawach przestępstw seksualnych >>
Obywatelskie inicjatywy
Jak wskazują eksperci, problemem jest definicja zawarta w art. 202 k.k., który penalizuje co prawda produkcję, posiadanie i rozpowszechnianie materiałów przedstawiających wytworzony albo przetworzony wizerunek małoletniego, ale tylko tego uczestniczącego w czynności seksualnej.
Krać-Batyra wskazuje, że prace nad nowelizacją art. 202 k.k. już trwają - postulują je głównie środowiska pozarządowe oraz część instytucji publicznych związanych z ochroną dzieci (np. Dyżurnet działający przy NASK). Główny postulat to zastąpienie pojęcia „treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej” terminem CSAM przyjętym w prawodawstwie unijnym, czyli „materiały ukazujące seksualne wykorzystanie dziecka” (z ang. „child sexual abuse material” – CSAM).
Polska nie byłaby tutaj pionierem – T. Sidor podkreśla, że część krajów Unii Europejskiej, w tym Słowenia, Belgia czy Niemcy podchodzą nawet bardziej restrykcyjne do przepisów związanych z materiałami CSAM. - Tego typu przestępstwa przekraczają granice państw. Tymczasem w jednym kraju pewne zachowania są penalizowane, a w innym legalne. W związku z tym występuje poważny problem z międzynarodowym ściganiem przestępstw popełnianych przez osoby z zaburzonymi preferencjami seksualnymi – mówi T. Sidor.
Brakuje ekspertów i biegłych
Sprawy pedofilii są też ciężkie dla Temidy – i nie chodzi tutaj o czas orzekania, skomplikowane procedury albo kwestie tzw. neo-sędziów, ale biegłych sądowych. - Praca nad materiałami CSAM, których jeden podejrzany potrafi mieć na urządzeniu tysiące, niesie ze sobą ogromne obciążenie psychiczne dla biegłych, którzy często są przeciążeni albo wypaleni zawodowo – podkreśla Krać-Batyra. Zadaniem biegłych jest wytypowanie podejrzanych materiałów i opisanie ich w opinii, która trafi do policji, prokuratury czy sądu. Zaznaczyła, że organy te weryfikują nadesłane materiały, decydują o np. powołaniu seksuologa, który może zbadać preferencje podejrzanego, czy o postawieniu zarzutów i - na końcu - o wydaniu wyroku. – Zawsze wskazuję materiały, które są według mnie są podejrzane, nawet jeśli w świetle polskiego prawa ich posiadanie nie jest zabronione. Jednak rzadko kiedy w takich sprawach zapadają wyroki skazujące. Kiedyś zgłosiłam, że podejrzany miał na urządzeniu setki reklamowych zdjęć niemowlaków w śpioszkach, które pobrał ze stron sprzedających ubranka. Prokurator zadzwonił do mnie z pretensjami, że przecież tam nie ma nic nielegalnego – wspomina Krać-Batyra.
Sztuczna inteligencja sprzyja patologii
Tomasz Sidor podkreśla, że generowanie CSAM jest możliwe już przez modele AI ogólnodostępne w internecie, co stanowi poważne wyzwanie. Są też modele, które można uruchomić na swoim urządzeniu i przygotować tak, aby omijały filtry nakładane przez producentów. - Nie potrzeba do tego specjalnego sprzętu. Często wystarczy laptop z dedykowaną kartą graficzną – dodaje. I zaznacza, że istnieją również modele AI specjalnie trenowane w celu „rozbierania” przedstawionych na zdjęciach dzieci lub generowania materiałów CSAM, do których dostęp na zasadzie subskrypcji cyberprzestępcy sprzedają w Darknecie.
Część biegłych także korzysta ze sztucznej inteligencji - ma ona pomóc we wstępnym wytypowaniu CSAM, jednak i tu pojawiają się problemy. –Zdarzają się „fałszywe pozytywy” (z ang. false positive), czyli sytuacje, w których AI oznacza jako podejrzane materiały w ogóle nie związane z dziećmi, np. zdjęcia, na których były pierogi ze śmietaną, pyzy ze skwarkami, czy borsuk – mówiła biegła. Jak dodała, zdarzają się też tzw. „fałszywe negatywy” (z ang. false negative), czyli sytuacje, w których AI nie wykrywa CSAM. -Jeśli źle zakwalifikowany materiał trafi do sądu, będzie go bardzo łatwo podważyć. A biegły odpowiada karnie za złożenie fałszywej opinii, nawet jeśli zrobi to nieumyślnie – zaznacza Krać-Batyra. Tak wynika z art. 233 par. 4 i 4a kodeksu karnego. Przepis ten przewiduje, że kto - jako biegły, rzeczoznawca lub tłumacz - przedstawia fałszywą opinię, ekspertyzę lub tłumaczenie mające służyć za dowód w postępowaniu sądowym, podlega karze pozbawienia wolności od roku do lat 10, a za działanie nieumyślne – do 3 lat.
Jak wskazali eksperci, aby narzędzia AI mogły skutecznie pomagać w wykrywaniu CSAM, powinny być specjalnie w trenowane w tym celu oraz tłumaczyć, co oznacza, że dostępna jest informacja, dlaczego algorytm podjął taką, a nie inną decyzję. Jednak twórcy AI strzegą tajemnic związanych z algorytmami – wskazała ekspertka. Nie są też chętni do udzielania informacji ani udostępniania narzędzi do wykrywania materiałów wygenerowanych przez AI - wyjaśnia T. Sidor.
Monika Blandyna Lewkowicz (PAP)/ Michał Kosiarski
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.











