Digital Services Act (DSA), obok Aktu o rynkach cyfrowych (Digital Markets Act, DMA), stanowi element strategii cyfrowej Unii Europejskiej pt. „Kształtowanie cyfrowej przyszłości Europy”, realizowanej w ramach polityki jednolitego rynku cyfrowego (Digital Single Market, DSM).

Ochrona praw podstawowych online

Rozporządzenie w sprawie jednolitego rynku usług cyfrowych na pierwszym planie ujmuje znaczenie usług cyfrowych, zwłaszcza pośredniczących, w gospodarce i codziennym życiu obywateli Unii Europejskiej. Nowe przepisy mają być odpowiedzią na skalę nadużyć względem prawa do prywatności i danych osobowych użytkowników usług cyfrowych. W motywach uchwalenia Digital Services Act podkreśla się wyzwania i zagrożenia związane z coraz większym wykorzystaniem tych usług, takie jak nielegalne treści, dezinformacja online i propaganda terrorystyczna. Projektodawca podkreślał jak ważne jest odpowiedzialne zachowanie i należyta staranność ze strony dostawców usług, a także harmonizacja przepisów w całej Unii Europejskiej, aby zapewnić bezpieczne i przewidywalne środowisko online. Regulacja ma na celu ustanowienie jednolitych, skutecznych i proporcjonalnych obowiązkowych zasad dla dostawców usług pośredniczących oraz promowanie innowacji.

 


Transparentność treści. Bezpieczeństwo użytkowników. Procedura odwoławcza

Celem wprowadzenia nowych ram prawnych jest zwiększenie odpowiedzialności platform cyfrowych wobec ich użytkowników i zapewnienie bezpieczeństwa w sieci. Najbardziej odczuwalną zmianą dla użytkowników i uprawnieniami, które faktycznie poprawią ich pozycję w dialogu z platformami będzie obowiązkowa moderacja treści. Specjalnie w tym celu opracowano nowe procedury odwoławcze. Użytkownicy, którzy będą chcieli usunąć określone treści, uważając je za niezgodne z prawem, będą mieli możliwość odwołania się od decyzji podjętej przez platformę. Dodatkowo, ci, którzy uważają, że ich konto zostało niesłusznie usunięte, będą mieli dostęp do nowych narzędzi ułatwiających kwestionowanie takich decyzji. Poprzednio te opcje były znacznie ograniczone, a praktyka pokazywała, że cybergiganci oferowali w istocie fikcyjne zabezpieczenia w tym zakresie. DSA wprowadza w szczególności mechanizm umożliwiający łatwe oznaczanie nielegalnych i szkodliwych treści oraz przestrzeń do współpracy z tzw. "zaufanymi podmiotami zgłaszającymi". Dodatkowo, wprowadzone zostały nowe obowiązki dotyczące identyfikacji użytkowników biznesowych na platformach e-commerce.

Akt o usługach cyfrowych zawiera reguły zapewniające bezpieczeństwo konsumentów na platformach zakupowych i zgodność produktów sprzedawanych online z najwyższymi standardami UE. Nowe przepisy zapewniają użytkownikom więcej informacji o sprzedawcach oraz kreują wymóg pisania regulaminów prostym językiem. DSA ma również na celu ochronę praw użytkowników Internetu poprzez zakaz wykorzystywania manipulacyjnych interfejsów, ograniczenia dla śledzącej reklamy, zwiększenie przejrzystości działania algorytmów rekomendacyjnych oraz ustalenie reguł współpracy firm internetowych z organami ścigania.

Czytaj w LEX: Akt o usługach cyfrowych (rozporządzenie DSA) >

DSA zwiększa również transparentność w kontakcie z platformą dla indywidualnych użytkowników. Każda decyzja moderacyjna podejmowana przez platformę powinna być wyczerpująco uzasadniona. Big Tech będą musiały odtąd jasno poinformować użytkownika zarówno o powodach, jak i sposobie odwołania się. Będzie to dotyczyć to zarówno decyzji o usunięciu treści, jak i decyzji reagujących na zgłoszenia nielegalnych treści. Kontakt z platformą ma być możliwy zarówno ze strony zgłaszającego, jak i potencjalnego naruszyciela, dialog powinien być przejrzysty i adekwatny. Platformy będą miały określony czas na udzielenie odpowiedzi. Praktyka rozpatrywania zgłoszeń dotyczących naruszeń pokazywała, że istniał problem na etapie uzasadniania decyzji platformy: użytkownik otrzymywał bardzo lakoniczne informacje, przykładowo, że „naruszył standardy społeczności”, nie zawsze towarzyszył temu komunikat, które dokładnie standardy zostały naruszone, lub które konkretne wpisy złamały te zasady. DSA ma eliminować dotychczasowy szkodliwe praktyki, gdzie brak było możliwości technicznych przedstawienia kontrargumentów.

 

Big Tech contra użytkownik – kogo dotyczą nowe przepisy?

W Unii Europejskiej działa ponad 10 tys. platform internetowych, a ponad 90 proc. z nich to małe i średnie przedsiębiorstwa. Duże platformy internetowe mają znaczną przewagę nad konkurentami, co wywołuje obawy, że wywierają nadmierny wpływ na demokrację, prawa podstawowe, społeczeństwa i gospodarkę Unii Europejskiej. Jak wynika z doniesień sygnalistów, modele biznesowe największych firm technologicznych odciskają negatywne piętno na użytkownikach, przyczyniając się do pogłębienia stanów chorobowych, zaburzenia relacji społecznych czy utrwalenia nierzeczywistego obrazu świata. W ocenie UE, przedstawiciele Big Tech działają jako „strażnicy dostępu” (gatekeepers) pomiędzy użytkownikami Internetu, a przedsiębiorcami – decydując o przyszłych innowacjach, wyborach i poglądach konsumentów. Komisja Europejska zidentyfikowała 17 głównych platform oraz dwie wyszukiwarki internetowe, które podlegają regulacjom zawartym w Akcie o usługach cyfrowych (DSA), według szacunków, na co dzień korzysta z nich 45 milionów osób. Platformy zostały zaklasyfikowane na podstawie danych z 17 lutego 2023 r., KE opublikowała ich listę w kwietniu bieżącego roku.

KE wskazała osiem platform mediów społecznościowych:

  • Instagram
  • Facebook
  • LinkedIn
  • Pinterest
  • Snapchat
  • TikTok
  • X (Twitter)
  • YouTube

Pięć platform handlu online:

  • Amazon
  • AliExpress
  • Booking
  • Google Shopping
  • Zalando

Dwie wyszukiwarki internetowe:

  • Bing
  • Google

Trzy ogólne platformy online:

  • Apple AppStore
  • Google Maps
  • Google Play

Oraz jedną organizację niekomercyjną (Wikipedia).

Wymienieni wyżej przedstawiciele Big Tech będą musieli wykazać zgodność z przepisami zawartymi w Akcie o usługach cyfrowych (DSA) i zapewnić lepszą ochronę użytkownikom, w szczególności osobom nieletnim.

Czytaj więcej w LEX: Odpowiedzialność dostawców usług pośrednich w trybie aktu o usługach cyfrowych >

Platformy będą zobowiązane do samodzielnej oceny, monitorowania i usuwania ryzyka oraz działań z zakresu moderacji treści przy użyciu własnych narzędzi. Zgodność z przepisami DSA będzie weryfikowana przez niezależne audyty dokonywane przez Komisję Europejską, we współpracy z nowymi organami, które zostaną powołane w każdym kraju członkowskim do 17 lutego 2024 r.

dr Magdalena Krawczyk, ekspertka prawa własności intelektualnej i nowych technologii

 

Chcesz zapisać ten artykuł i wrócić do niego w przyszłości? Skorzystaj z nowych możliwości na Moje Prawo.pl

Załóż bezpłatne konto na Moje Prawo.pl >>