Raport „Śmierć przez tysiąc cięć. Jak wspomagana technologicznie przemoc na platformie X uderza w polską społeczność LGBTI” pokazuje, w jaki sposób model biznesowy platformy X i zaniedbania w moderowaniu treści umożliwiły szerzenie technologicznie wspieranej przemocy ze względu na płeć.
We współpracy z National Conference on Citizenship’s Algorithmic Transparency Institute (ATI) badacze utworzyli 32 konta, które zebrały 163 048 tweetów między 1 a 31 marca 2025 r. Analiza tych postów wykazała wysoką częstotliwość występowania treści anty-LGBTI na platformie. Okazało się też, że system rekomendacji X, czyli algorytm stojący za treściami „Dla Ciebie”, został stworzony w celu maksymalizacji zaangażowania użytkowników. Nawet przy zastosowaniu zabezpieczeń, system rekomendacji stwarza ryzyko premiowania niebezpiecznych treści, które generują silne reakcje – po to, aby utrzymać cykl zaangażowania. Czyli przekładając na prosty język, takie treści dostają systemowe wzmocnienie i są bardziej widoczne niż inne.

- Raport potwierdza niestety trend, który zauważamy od wielu miesięcy. Hejt i mowa nienawiści, w szczególności motywowana homo- i transfobicznie, jest szczególnie widoczna w naszych kanałach. Żaden nasz komentarz w X nie pozostaje wolny od nienawistnych komentarzy.  Zauważamy również częstsze występowanie hejtu w kanałach organizacji i osób, które działają w obszarze ochrony praw człowieka. Zwłaszcza od momentu, w którym X został wzbogacony o moduł AI Grok, a w przypadku np. Facebooka, poluzowane zostały reguły moderacji – powiedział Prawo.pl Przemysław Walas, kierownik rzecznictwa w Kampanii Przeciw Homofobii.

Czytaj także:
Amnesty: Ataki na osoby LGBT to w Polsce codzienność>>
Polska liderem nietolerancji wobec osób LGBTI>>
UE: Komisarz upomina polskich polityków za wypowiedzi o LGBT>>
 

Mało aktywna moderacja niewiele daje

To zjawisko mogłaby ograniczać moderacja treści, gdyby była odpowiednio prowadzona. Autorzy raportu stwierdzili, że moderacja w języku polskim jest przez decyzje platformy X stale niedofinansowana, a to sprawia to, że platforma nie radzi sobie z tymi niebezpiecznymi treściami. Z raportów X dotyczących przejrzystości wynika, że firma zatrudnia tylko dwóch moderatorów treści mówiących po polsku, z czego dla jednego z nich język polski jest drugim językiem. Te dwie osoby są odpowiedzialne za populację liczącą 5,33 mln użytkowników X. - Poprzez nieodpowiednie praktyki moderowania treści i brak należytej staranności w zakresie praw człowieka, X przyczynił się do łamania praw człowieka wobec osób ze społeczności LGBTI w Polsce – oceniła Alia Al Ghussain, badaczka i doradczyni Amnesty International ds. technologii i praw człowieka.
Zdaniem autorów raportu model biznesowy X, opierający się na inwigilacji i polegający na inwazyjnym gromadzeniu danych o użytkownikach w celu kierowania do nich reklam, (podobne modele stosują także inne platformy społecznościowe), w połączeniu z niewystarczającym moderowaniem treści, sprawia, że społeczność LGBTI w Polsce staje się celem wspomaganej technologicznie przemocy ze względu na płeć. 

Potwierdza to Przemysław Walas. - Niepokojące jest to, że w walce z hejtem w sieci do dyspozycji pozostaje bardzo niewiele narzędzi. Moderacja jest pozorna, ujawnianie personaliów autorów bardzo trudne, a prowadzone śledztwa kończą się umorzeniami. Z jednej strony wpływa na to ma skala zjawiska, z drugiej - brak przepisów. Warto bowiem przypomnieć, że skierowana do TK nowelizacja kodeksu karnego miała m.in. ułatwić ściganie mowy nienawiści motywowanej uprzedzeniami na tle orientacji seksualnej czy wieku i płci - powiedział.

Prezydent zablokował przepisy o karach za mowę nienawiści

Rzeczywiście większe możliwości ścigania takich zachowań miała stworzyć nowelizacja kodeksu karnego z 6 marca 2025 r. - tzw. ustawa o mowie nienawiści – która m.in. rozszerza katalog przestępstw z nienawiści o cztery nowe przesłanki: wiek, płeć, niepełnosprawność i orientację seksualną. Obecnie przesłankami tymi są: przynależność narodowa, etniczna, rasowa, wyznaniowa oraz bezwyznaniowość. Celem zmiany było m.in. to, że również przestępstwa z nienawiści wobec tych dodanych do przepisów cech byłyby ścigane z urzędu, bez konieczności składania prywatnego aktu oskarżenia. Jednak jej podpisania odmówił prezydent Andrzej Duda. Skierował ją do Trybunału Konstytucyjnego. - Przede wszystkim to jest bardzo charakterystyczne, że te właśnie lewacko-lewicowo-liberalne prądy, które tak głośno krzyczą o tolerancji i tak głośno krzyczą o różnorodności, że należy ją dopuszczać wszędzie, są pierwsze do tego, żeby blokować możliwość wypowiadania się - mówił po zaskarżeniu noweli prezydent Duda w Telewizji Trwam.

 

Potrzebne lepsze prawo

W dołączonych do raportu zaleceniach dla platformy X jest m.in. zmiana zasad moderacji, w tym rozszerzenie zdolności moderacji polskojęzycznej zawartości, poprzez m.in. zatrudnienie większej liczby moderatorów znających język polski. Jest także oczekiwanie reformy programu "Trusted Flagger" w Polsce (Zaufany Zgłaszający). Chodzi o osoby lub organizacje, wyznaczone na mocy unijnego aktu o usługach cyfrowych, które mają specjalistyczną wiedzę, są niezależne od platform i dokładne w swoich zgłoszeniach, co sprawia, że zgłoszenia te są traktowane priorytetowo przez platformy. 
Amnesty International wskazało również dwa punkty zaleceń skierowane do polskich władz: pełne wdrożenie Aktu o usługach cyfrowych poprzez wyznaczenie Koordynatora usług cyfrowych oraz zapewnienie odpowiednich zasobów w zakresie wiedzy specjalistycznej, możliwości i finansowania.

Nowe przepisy mają lepiej zapobiegać mowie nienawiści

Rzeczywiście pewne nadzieje są wiązane z wdrożeniem w Polsce w pełni przepisów unijnego Aktu o usługach cyfrowych (Digital Services Act – DSA). Nie nastąpiło to jeszcze, mimo że termin minął w lutym 2024 r., a Komisja Europejska wszczęła wobec Polski formalne postępowanie za niewypełnienie obowiązków wynikających z DSA. Polska pozostaje jednym z ostatnich państw członkowskich, które nie przyjęły krajowych regulacji umożliwiających egzekwowanie nowych zasad. 

Pewien postęp nastąpił 23 września br., gdy Rada Ministrów przyjęła projekt nowelizacji ustawy o świadczeniu usług drogą elektroniczną, która ma zapewnić bezpieczniejsze, bardziej przejrzyste środowisko cyfrowe w Polsce oraz dostosować polskie prawo do regulacji UE. - Ustawa wprowadzi mechanizmy umożliwiające skuteczny nadzór nad działalnością platform cyfrowych. Dzięki tym zmianom polski rynek cyfrowy stanie się bardziej przejrzysty, bezpieczny i przyjazny dla wszystkich użytkowników – ocenia wicepremier i minister cyfryzacji Krzysztof Gawkowski.  

Koordynator krajowy skontroluje i ukarze, ale potrzebna ustawa

Według projektu koordynatorem do spraw usług, nadzorującym większość obowiązków wynikających z unijnego rozporządzenia, będzie prezes Urzędu Komunikacji Elektronicznej. Tymczasowym rozwiązaniem jest obowiązująca od 15 maja br. uchwała Rady Ministrów, na mocy której prezesowi UKE została tymczasowo powierzona funkcja koordynatora ds. usług cyfrowych, ale nie obejmuje ona  uprawnień, które ma wprowadzić dopiero ustawa. Bez umocowania ustawowego jego funkcja ma tylko charakter techniczno-organizacyjny. Tymczasem DSA przewiduje dla koordynatora krajowego uprawnienie do żądania od platform internetowych i innych dostawców usług pośrednich na terytorium Polski dostępu do danych, przeprowadzania u nich kontroli i nakładania kar w przypadku stwierdzenia naruszenia prawa. Jednak dziś osoba, która zebrała dowody na naruszenie DSA przez jakąś usługę w sieci, albo która chciałaby skuteczniej walczyć z mową nienawiści, nie może liczyć, że polski koordynator jej pomoże.

Gdy już ustawa zostanie uchwalona i wejdzie w życie, będzie przewidywać odpowiedzialność cywilną i administracyjne kary pieniężne wobec dostawców, którzy naruszą przepisy. Prokuratorzy, policja, organy Krajowej Administracji Skarbowej, Straż Graniczna, a także tzw. zaufane podmioty sygnalizujące (instytucje lub organy certyfikowane przez prezesa UKE) zyskają możliwość wnioskowania o szybkie blokowanie treści naruszających prawo. W szczególnie pilnych przypadkach decyzjom organów będzie nadawany rygor natychmiastowej wykonalności. Natomiast organy rozpatrujące skargi będą zobowiązane do wydawania decyzji w krótkich terminach – siedem dni od zgłoszenia, a w sprawach prowadzonych przez Policję lub prokuratora – nawet w dwa dni.

Dotychczas to same platformy internetowe decydowały o usuwaniu nielegalnych treści. Przemysław Walas opowiedział Prawo.pl o realiach zabiegów o takie decyzje. - Aktualnie Kampania Przeciw Homofobii prowadzi szereg spraw dotyczących hejtu w mediach społecznościowych, których ofiarą padli Dawid i Jakub w 2017 roku. Sprawa, podzielona na kilka wątków, trwa nadal i jak w soczewce pokazuje wszystkie ograniczenia jakie przed polskim wymiarem sprawiedliwości stoją w obliczu mowy nienawiści w mediach społecznościowych i internecie - powiedział. Jego zdaniem potrzeba tutaj zdecydowanych działań państwa, ale w szerszej perspektywie również szybkich decyzji Komisji Europejskiej w sprawie. rozszerzenia obowiązywania Digital Services Act.

Po zmianach w prawie możliwe będzie składanie wniosków o blokowanie nielegalnych treści w ramach procedury administracyjnej, prowadzonej przez UKE lub KRRiT.  W ramach tej procedury dostawca usług pośrednich (m.in. platforma internetowa) bez zbędnej zwłoki poinformuje organ wydający nakaz o wszelkich podjętych działaniach w celu jego realizacji. Brak spełnienia tego obowiązku będzie oznaczał naruszenie obowiązków wynikających z art. 9 DSA. 

Nie wiadomo jednak jeszcze, kiedy projekt trafi do Sejmu i jak szybko będzie tam procedowany, a na końcu, czy podpisze go obecny prezydent Karol Nawrocki.

 

Cena promocyjna: 69.5 zł

|

Cena regularna: 139 zł

|

Najniższa cena w ostatnich 30 dniach: 97.3 zł