Krzysztof Sobczak: Platforma społecznościowa X, znana wcześniej jako Twitter, przyczyniła się do szerzenia ukierunkowanej nienawiści wobec osób LGBTI w Polsce – stwierdziła Amnesty International w opublikowanym niedawno raporcie, w którym przeanalizowano model biznesowy tej platformy. Zarzut ten dotyczy też innych platform społecznościowych. Szokujące. Dla Pana też?
Przemysław Walas: Tak, to jest szokujące, ale nie zaskakujące. Raport Amnesty International pt. „Śmierć przez tysiąc cięć. Jak wspomagana technologicznie przemoc na platformie X uderza w polską społeczność LGBTI” potwierdza niestety trend, który zauważamy od dawna. Hejt i mowa nienawiści, w szczególności motywowana homo- i transfobicznymi uprzedzeniami, jest szczególnie widoczna w naszych kanałach. Żaden nasz komentarz w X nie pozostaje wolny od nienawistnych komentarzy. Zauważamy również częstsze występowanie hejtu w kanałach organizacji i osób, które działają w obszarze ochrony praw człowieka. Zwłaszcza od momentu, w którym X został wzbogacony o moduł AI Grok, a w przypadku np. Facebooka, poluzowane zostały reguły moderacji.
Zobacz również: Wspomagana technologicznie przemoc w sieci wciąż czeka na hamulce >>
Można z tym choć trochę walczyć?
Kampania Przeciw Homofobii próbuje to robić. Jednak niepokojące jest to, że w walce z hejtem w sieci do dyspozycji pozostaje bardzo niewiele narzędzi. Moderacja jest pozorna, ujawnianie personaliów autorów bardzo trudne, a prowadzone śledztwa kończą się umorzeniami. Z jednej strony wpływa na to skala zjawiska, z drugiej - brak przepisów. Aktualnie KPH prowadzi szereg spraw dotyczących hejtu w mediach społecznościowych, których ofiarą padli Dawid i Jakub w 2017 roku. Sprawa, podzielona na kilka wątków, trwa nadal i jak w soczewce pokazuje wszystkie ograniczenia jakie przed polskim wymiarem sprawiedliwości stoją w obliczu mowy nienawiści w mediach społecznościowych i Internecie. Potrzeba tutaj zdecydowanych działań państwa, ale w szerszej perspektywie również szybkich decyzji Komisji Europejskiej w sprawie rozszerzenia obowiązywania DSA (Digital Services Act).
Już blisko dwa lata temu powinniśmy w Polsce wdrożyć Digital Services Act i wreszcie rząd przyjął projekt odpowiedniej ustawy. Środowisko, które Pan reprezentuje, wiąże nadzieje z tą regulacją?
Tak, ponieważ projekt nowelizacji ustawy o świadczeniu usług drogą elektroniczną, który ma wdrożyć w Polsce unijne rozporządzenie, ma być kluczowym instrumentem w walce z mową nienawiści i dezinformacją w internecie, w tym wobec osób LGBT+. W kontekście rosnącej liczby incydentów skierowanych przeciwko tej grupie, a także powszechnie obserwowanego spadku skuteczności moderacji treści na dużych platformach społecznościowych, które w ostatnich miesiącach bardzo poluzowały swoje reguły moderacji – projekt jest szczególnie potrzebny.
Które z proponowanych rozwiązań dają największe nadzieje?
Projekt przewiduje szereg nowych mechanizmów, które mogą w istotny sposób zwiększyć ochronę użytkowników. Kluczową rolę odegra tu prezes Urzędu Komunikacji Elektronicznej, który będzie koordynatorem ds. usług cyfrowych, odpowiedzialnym za nadzór nad platformami oraz współpracę z Komisją Europejską. Dodatkowo projekt przewiduje kompetencje dla Krajowej Rady Radiofonii i Telewizji w zakresie platform wideo oraz dla Urzędu Ochrony Konkurencji i Konsumentów, który będzie nadzorował przestrzeganie praw konsumentów w sieci. Z perspektywy ochrony osób LGBT+ istotne są zwłaszcza przepisy umożliwiające skuteczne zgłaszanie treści nielegalnych przez użytkowników oraz zaufane podmioty sygnalizujące, odwoływanie się od decyzji platform dotyczących usunięcia lub pozostawienia kontrowersyjnych treści, zwiększoną odpowiedzialność dużych platform za monitorowanie treści i raportowanie działań związanych z mową nienawiści i dezinformacją oraz możliwość dostępu do danych przez zweryfikowanych badaczy, co pozwala na analizę rozpowszechniania dezinformacji i mowy nienawiści wobec grup wrażliwych, w tym osób LGBT+.
Wdrożenie tych mechanizmów jest szczególnie istotne w świetle aktualnej polityki dużych platform, w których obserwowany jest spadek efektywności moderacji, który przekłada się na większą widoczność treści obraźliwych, manipulacyjnych lub nieprawdziwych. Bez odpowiednich narzędzi regulacyjnych, platformy często nie reagują w sposób adekwatny na zgłoszenia użytkowników, co zwiększa ryzyko powstawania środowiska cyfrowego wrogiego wobec osób LGBT+.
Podczas konsultacji publicznych wobec tego projektu zgłaszano szereg wątpliwości. Na jakie sprawy zwraca uwagę Kampania Przeciw Homofobii?
Jest kilka takich problemów. Na przykład szeroki katalog uprawnień organów nadzorczych, który może rodzić ryzyko nadmiernej ingerencji w wolność wypowiedzi i brak precyzyjnych kryteriów oceny treści. Widzimy też potencjalne ryzyko nadmiernej biurokratyzacji procesów odwoławczych dla użytkowników i platform. Ale wskazywaliśmy również na niejasności w zakresie definicji „nielegalnej treści”, zwłaszcza w kontekście treści obraźliwych, które formalnie nie są karalne, ale mają charakter dyskryminujący. Mówimy także o wyzwaniach w zakresie współpracy organów nadzorczych z platformami oraz z organizacjami społecznymi, w tym z przedstawicielami społeczności LGBT+, co może wpływać na praktyczną skuteczność przepisów.
Pewną nadzieję na lepszą ochronę wrażliwych grup społecznych przed mową nienawiści niosła uchwalona na początku roku nowelizacja kodeksu karnego. Ale prezydent Andrzej Duda odmówił jej podpisania i odesłał do Trybunału Konstytucyjnego, a ten uznał, że zmiany przewidujące kary także za nawoływanie do nienawiści ze względu na niepełnosprawność, wiek płeć i orientację seksualną są niezgodne z Konstytucją.
Ustawa z 6 marca 2025 r., dzięki wieloletnim staraniom i wysiłkom organizacji społeczeństwa obywatelskiego, osób eksperckich i aktywistycznych, a także ich zaangażowaniu na ostatnim etapie prac, została przyjęta przez Parlament. Nowelizacja rozszerzała katalog tzw. cech chronionych poprzez dodanie do dotychczasowych - przynależność narodowa, etniczna, rasowa, wyznaniowa, bezwyznaniowość - przesłanek wieku, płci, orientacji seksualnej i niepełnosprawności. Gdyby weszła w życie i nie została zakwestionowana przez Trybunał Konstytucyjny ściganie takich treści byłoby znacznie łatwiejsze. Wyrok TK z 30 września pokazuje jednak, że ochrona osób LGBT+ w Polsce wciąż pozostaje ograniczona w tradycyjnym systemie karnym, co dodatkowo podkreśla potrzebę skutecznej regulacji cyfrowej.
Zobacz również: TK: Zmiany dotyczące karalności mowy nienawiści niezgodne z Konstytucją>>
To orzeczenie jest zaskoczeniem?
Orzeczenie Trybunału Konstytucyjnego rozczarowuje, ale nie zaskakuje. Niestety, powoływanie się na ochronę konstytucyjnej ochrony wolności nie rozwiąże problemu, jakim jest nienawiść wobec m.in. osób LGBT+ w przestrzeni publicznej czy w internecie. A zarzut zbyt głębokiej ingerencji wolność słowa zdaje się być niezrozumiała w świetle innego konstytucyjnego przepisu ochrony przed dyskryminacją. To zła decyzja i krok wstecz. Status TK budzi wątpliwości środowiska naukowego i prawniczego ze względu na nieprawidłowości związane z procedurą powołania orzekających w nim sędziów, ale niezależnie od nich, jest to kolejne smutne rozstrzygnięcie, ograniczające prawa człowieka w Polsce.
Czy przygotowywana zmiana ustawy o świadczeniu usług drogą elektroniczną może wypełnić tę lukę?
Tak, dając narzędzia zarówno organom państwowym, jak i organizacjom pozarządowym do szybszego reagowania na mowę nienawiści i dezinformację. Skuteczność tych rozwiązań będzie jednak zależała od kilku kluczowych czynników: od pełnej implementacji przepisów, od gotowości platform do współpracy oraz od aktywności społeczności LGBT+ w roli zaufanych sygnalistów. Ale w sumie projekt stanowi krok w kierunku bardziej bezpiecznej i transparentnej przestrzeni cyfrowej, w której osoby LGBT+ mogą czuć się chronione przed mową nienawiści i dezinformacją. Jednocześnie konieczne jest monitorowanie jego wdrożenia i uzupełnienie przepisów tam, gdzie wątpliwości z konsultacji publicznych wskazują na możliwe ryzyka ograniczenia wolności wypowiedzi lub nadmiernego obciążenia administracyjnego dla użytkowników i platform.
A co mają Państwo na myśli, oczekując od Komisji Europejskiej rozszerzenia obowiązywania Digital Services Act. To miałaby być jakoś nowa i dodatkowa regulacja?
Nie, raczej bardziej precyzyjne wytyczne dotyczące takich aspektów jak np. transparentność reklam i reklamodawców (aktualnie, zwłaszcza w kontekście kampanii wyborczych w Polsce, Rumunii czy poza wspólnotowej Mołdawii) - teraz jest trudno dojść do tego, kto jest rzeczywistym reklamodawcą. Różne są także schematy uzasadnienie moderacji - powinny być wspólne, jasne i przejrzyste, zwłaszcza w kontekście możliwości odwołania się do krajowych lub unijnych ciał regulacyjnych, i na końcu stały element - brak finansowania wdrażania DSA i powoływania urzędów regulacyjnych. Dodatkową kwestią jest implementacja DSA wobec nowych rozwiązań takich jak deep fake, treści tworzone lub współtworzone przez AI - tutaj DSA w naszej ocenie jeszcze nie uwzględnia tego obszaru w sposób, który pozwala reagować.
Zobacz również: Przemysław Walas: Mowa nienawiści wobec grup ludności też powinna być karana>>
Cena promocyjna: 69.5 zł
|Cena regularna: 139 zł
|Najniższa cena w ostatnich 30 dniach: 97.3 zł









