Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie aktu prawnego o usługach cyfrowych i związanych z nim kwestii z zakresu praw podstawowych (2020/2022(INI)).

Akt prawny o usługach cyfrowych i związane z nim kwestie z zakresu praw podstawowych
P9_TA(2020)0274

Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie aktu prawnego o usługach cyfrowych i związanych z nim kwestii z zakresu praw podstawowych (2020/2022(INI))

(2021/C 404/03)

(Dz.U.UE C z dnia 6 października 2021 r.)

Parlament Europejski,

- uwzględniając Traktat o Unii Europejskiej (TUE), w szczególności jego art. 2,

- uwzględniając Traktat o funkcjonowaniu Unii Europejskiej (TFUE), w szczególności jego art. 16 i 114,

- uwzględniając Kartę praw podstawowych Unii Europejskiej, w szczególności jej art. 6, 7, 8, 11, 13, 21, 22, 23, 24, 26, 38 i 47,

- uwzględniając dyrektywę 2000/31/WE Parlamentu Europejskiego i Rady z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego ("dyrektywa o handlu elektronicznym") 1 ,

- uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE ("ogólne rozporządzenie o ochronie danych"(RODO)) 2 ,

- uwzględniając dyrektywę 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotyczącą przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej ("dyrektywa o prywatności i łączności elektronicznej") 3 ,

- uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2018/1808 z dnia 14 listopada 2018 r. zmieniającą dyrektywę 2010/13/UE w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizualnych usług medialnych (dyrektywa o audiowizualnych usługach medialnych) ze względu na zmianę sytuacji na rynku 4 ,

- uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE 5  ("dyrektywa w sprawie prawa autorskiego"),

- uwzględniając zalecenie Komisji (UE) 2018/334 z dnia 1 marca 2018 r. w sprawie działań na rzecz skutecznego zwalczania nielegalnych treści w internecie 6 ,

- uwzględniając przeprowadzoną przez Europol ocenę zagrożenia przestępczością zorganizowaną w internecie (IOCTA) z dnia 18 września 2018 r.,

- uwzględniając odpowiednie orzecznictwo Trybunału Sprawiedliwości Unii Europejskiej,

- uwzględniając art. 54 Regulaminu,

- uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Kultury i Edukacji,

- uwzględniając sprawozdanie Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (A9-0172/2020),

A. mając na uwadze, że prawa podstawowe, takie jak ochrona prywatności i danych osobowych, zasada niedyskryminacji, a także swoboda wypowiedzi i informacji, muszą być zakorzenione u podstaw udanej i trwałej europejskiej polityki usług cyfrowych; mając na uwadze, że prawa te muszą być widoczne zarówno w literze prawa, jak i w duchu ich wdrażania;

B. mając na uwadze, że rodzaje usług cyfrowych i role dostawców usług cyfrowych uległy diametralnej zmianie od czasu przyjęcia 20 lat temu dyrektywy o handlu elektronicznym;

C. mając na uwadze, że użytkownicy mogą mieć zaufanie jedynie do tych usług cyfrowych, które szanują ich prawa podstawowe, co zapewniłoby nie tylko korzystanie z usług, ale także zaoferowałoby przewagę konkurencyjną i stabilne modele biznesowe dla przedsiębiorstw;

D. mając na uwadze, że przepisy dotyczące ochrony danych mające zastosowanie do wszystkich dostawców oferujących usługi cyfrowe na terytorium UE zostały niedawno zaktualizowane i zharmonizowane w całej UE na podstawie ogólnego rozporządzenia o ochronie danych; mając na uwadze, że przepisy dotyczące prywatności łączności elektronicznej, która jest częścią usług cyfrowych, są objęte dyrektywą o prywatności i łączności elektronicznej i są obecnie poddane przeglądowi;

E. mając na uwadze, że ilość udostępnianych wszystkich rodzajów treści generowanych przez użytkowników, a także usług świadczonych za pośrednictwem platform internetowych, łącznie z usługami w chmurze, ogromnie wzrosła w niespotykanym tempie ułatwianym przez zaawansowane technologie; mając na uwadze, że obejmuje to treści nielegalne takie jak internetowe materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, a także treści legalne, lecz które mogą być szkodliwe dla społeczeństwa i demokracji, jak np. dezinformacja na temat leków na COVID-19;

F. mając na uwadze, że mowa nienawiści i dezinformacja w internecie są coraz powszechniejsze w ostatnich latach, ponieważ osoby i podmioty o destrukcyjnych zamiarach wykorzystują platformy internetowe do pogłębiania polaryzacji, która z kolei jest wykorzystywana do celów politycznych; mając na uwadze, że kobiety, osoby o innym kolorze skóry, osoby należące lub postrzegane jako należące do mniejszości etnicznych lub językowych oraz osoby LGBTIQ często są celem dyskryminującej mowy nienawiści, zastraszania, gróźb oraz padają kozłami ofiarnymi w internecie;

G. mając na uwadze, że tendencji tej sprzyjają platformy, których model biznesowy opiera się na gromadzeniu i analizie danych użytkowników, aby generować większy ruch i więcej kliknięć, a tym samym większą liczbę danych profilujących, a w konsekwencji większe zyski; mając na uwadze, że prowadzi to zwiększenia ilości treści goniących za sensacją; mając na uwadze, że mowa nienawiści i dezinformacja szkodzą zbiorowemu interesowi publicznemu, ponieważ podważają pełen szacunku uczciwy dyskurs publiczny oraz stanowią zagrożenie dla bezpieczeństwa publicznego, gdyż mogą podżegać do przemocy w świecie rzeczywistym; mając na uwadze, że walka z takimi treściami ma zasadnicze znaczenie dla zapewnienia poszanowania praw podstawowych oraz obrony praworządności i demokracji w UE;

H. mając na uwadze, że media społecznościowe i inne platformy dystrybucji treści wykorzystują techniki profilowania do kierowania i dystrybucji swoich treści, a także reklam; mając na uwadze, że dane uzyskane z cyfrowych śladów osób mogą być gromadzone w sposób, który może umożliwiać pozyskiwanie bardzo dokładnych informacji o niezwykle osobistym charakterze, zwłaszcza gdy dane te są łączone z innymi zestawami danych; mając na uwadze, że skandale związane z Cambridge Analytica i Facebookiem ujawniły zagrożenia związane z nieprzejrzystymi operacjami przetwarzania danych na platformach internetowych, ponieważ pokazały, że niektórzy wyborcy byli mikro-ukie- runkowani za pomocą reklam politycznych, a czasami nawet ukierunkowanej dezinformacji;

I. mając na uwadze, że zautomatyzowane algorytmy decydujące o tym, jak przetwarzać, ustalać priorytety, dystrybuować i usuwać treści stron trzecich na platformach internetowych, w tym podczas kampanii politycznych i wyborczych, często odtwarzają istniejące wzorce dyskryminacyjne w społeczeństwie, co prowadzi do wysokiego ryzyka dyskryminacji osób już nią dotkniętych; mając na uwadze, że powszechne stosowanie algorytmów do usuwania lub blokowania treści budzi również obawy co do praworządności, legalności, słuszności i proporcjonalności;

J. mając na uwadze, że niewielka liczba w większości pozaeuropejskich dostawców usług posiada dużą władzę rynkową i wywiera wpływ na prawa i wolności jednostek, nasze społeczeństwa i demokracje, kontrolując sposób prezentacji informacji, usług i produktów, co ma ogromne skutki dla funkcjonowania państw członkowskich oraz ich obywateli. mając na uwadze, że decyzje tych platform mogą mieć daleko idące konsekwencje dla korzystania z wolności wypowiedzi i informacji oraz dla wolności i pluralizmu mediów;;

K. mając na uwadze, że podejście polityczne służące zwalczaniu niezgodnych z prawem treści internetowych w UE koncentrowało się dotychczas głównie na dobrowolnej współpracy i usuwaniu z nakazu sądowego, a coraz więcej państw członkowskich przyjmuje przepisy krajowe w celu rozwiązania problemu treści niezgodnych z prawem w sposób niezharmonizowany; mając na uwadze, że przepisy dotyczące niektórych rodzajów treści niezgodnych z prawem zostały uwzględnione w najnowszych przepisach sektorowych na poziomie UE;

L. mając na uwadze, że czysto samoregulacyjne podejście stosowane przez platformy nie zapewnia odpowiedniej przejrzystości, odpowiedzialności i nadzoru; mając na uwadze, że takie podejście nie zapewnia również odpowiednich informacji dla władz publicznych, społeczeństwa obywatelskiego i użytkowników na temat sposobu, w jaki platformy zajmują się treściami i działaniami niezgodnymi z prawem i treściami naruszającymi ich warunki, ani też jak ogólnie selekcjonują treści;

M. mając na uwadze, że takie podejście może nie gwarantować przestrzegania praw podstawowych i stwarza sytuację, w której obowiązki sądowe są częściowo przerzucane na podmioty prywatne, co stanowi ryzyko ingerencji w prawo do wolności wypowiedzi;

N. mając na uwadze, że każdy sektor w UE ma swoją specyficzną kontrolę i swój specyficzny nadzór regulacyjny; mając na uwadze, że korzystna byłaby dalsza i bardziej kompleksowa koordynacja między różnymi organami nadzoru w całej UE;

O. mając na uwadze, że brak rzetelnych i porównywalnych danych publicznych na temat częstotliwości występowania niezgodnych z prawem i szkodliwych treści internetowych, na temat ich sygnalizowania i nakazanego przez sąd lub samoregulacyjnego ich usuwania, a także na temat działań następczych właściwych organów powoduje deficyt przejrzystości i odpowiedzialności; mając na uwadze, że brak jest informacji na temat algorytmów stosowanych przez platformy i strony internetowe oraz sposobu, w jaki platformy rozwiązują problem błędnego usuwania treści;

P. mając na uwadze, że wykorzystywanie seksualne dzieci w internecie jest jedną z form treści niezgodnych z prawem ułatwianych przez rozwój technologiczny; mając na uwadze, że ogromna ilość materiałów prezentujących seksualne wykorzystywanie dziecka krążących w internecie pociąga za sobą poważne wyzwania w zakresie wykrywania i dochodzenia, a przede wszystkim identyfikacji ofiar; mając na uwadze, że według Europolu ilość doniesień o przesyłaniu przez internet materiałów prezentujących seksualne wykorzystywanie dziecka, składanych do mającego siedzibę w USA NCMEC, wzrosła w ostatnim roku o 106 %;

Q. mając na uwadze, że zgodnie z orzecznictwem Trybunału Sprawiedliwości Unii Europejskiej (TSUE) treści powinny zostać usunięte na polecenie sądu państwa członkowskiego; mając na uwadze, że dostawcy usług hostingowych mogą korzystać z narzędzi i technologii automatycznego wyszukiwania w celu wykrywania i usuwania treści równoznacznych z treściami uprzednio uznanymi za niezgodne z prawem, ale nie powinni być zobowiązani do ogólnego monitorowania przechowywanych informacji lub do aktywnego wyszukiwania faktów lub okoliczności wskazujących na działalność niezgodną z prawem, zgodnie z art. 15 ust. 1 dyrektywy 2000/31/WE;

R. mając na uwadze, że wiarygodna identyfikacja elektroniczna ma fundamentalne znaczenie dla zapewnienia bezpiecznego dostępu do usług cyfrowych i bezpieczniejszego przeprowadzania transakcji drogą elektroniczną; mając na uwadze, że obecnie tylko 15 państw członkowskich zgłosiło Komisji system identyfikacji elektronicznej w odniesieniu do transgranicznego rozpoznawania w ramach rozporządzenia (UE) nr 910/2014 7  (rozporządzenie eIDAS);

S. mając na uwadze, że internet i platformy internetowe są wciąż kluczowym miejscem działania grup terrorystycznych, które używają ich jako narzędzia siania propagandy, rekrutacji oraz promowania swoich działań;

i usług zaufania w odniesieniu do transakcji elektronicznych na rynku wewnętrznym oraz uchylające dyrektywę 1999/93/WE (Dz.U. L 257 z 28.8.2014, s. 73).

1. wyraża przekonanie o znacznych korzyściach gospodarczych i społecznych dla UE i jej państw członkowskich związanych z funkcjonowaniem jednolitego rynku cyfrowego; z zadowoleniem przyjmuje te korzyści, w szczególności lepszy dostęp do informacji i wzmocnienie wolności wypowiedzi; podkreśla istotny obowiązek zapewnienia sprawiedliwego ekosystemu cyfrowego, w którym prawa podstawowe, zapisane w traktatach i Karcie praw podstawowych Unii Europejskiej, w szczególności prawo do wolności wypowiedzi i informacji, niedyskryminacji, wolności i pluralizmu mediów, prywatności oraz ochrony danych, są przestrzegane, a bezpieczeństwo użytkownika jest zapewnione w internecie; podkreśla, że ustawodawcze i inne interwencje regulacyjne na jednolitym rynku cyfrowym, mające na celu zapewnienie przestrzegania tego obowiązku, powinny być ściśle ograniczone do tego, co konieczne; przypomina, że mechanizmy usuwania treści stosowane poza zakresem gwarancji sprawiedliwości proceduralnej są sprzeczne z art. 10 europejskiej konwencji praw człowieka;

2. wzywa Komisję do przyjęcia dostosowanego do potrzeb podejścia regulacyjnego w celu zajęcia się różnicami między światem w internecie i poza nim oraz sprostania wszystkim wyzwaniom wynikającym z różnorodności podmiotów i usług oferowanych w internecie; w tym względzie uważa, że niezbędne jest zastosowanie odrębnych podejść regulacyjnych do treści zgodnych i niezgodnych z prawem; podkreśla, że treści niezgodne z prawem i przestępstwa z wykorzystaniem internetu powinny być zwalczane z taką samą surowością i na tych samych zasadach prawnych, co niezgodne z prawem treści i zachowania poza internetem, a także z takimi samymi gwarancjami dla obywateli; przypomina, że dyrektywa o handlu elektronicznym stanowi ramy prawne dla usług online na rynku wewnętrznym, regulujące zarządzanie treścią;

3. uważa, że niezbędne jest szybkie i konsekwentne usuwanie treści niezgodnych z prawem w celu zwalczania czynów zabronionych i naruszeń praw podstawowych; uważa, że dobrowolne kodeksy postępowania tylko częściowo rozwiązują ten problem;

4. wzywa dostawców usług cyfrowych do usuwania treści internetowych z zachowaniem staranności, proporcjonalności i zasady niedyskryminacji, z należytym uwzględnieniem wszystkich okoliczności dotyczących praw podstawowych użytkowników, a także do wzięcia pod uwagę zasadniczego znaczenia wolności wypowiedzi i informacji w otwartym i demokratycznym społeczeństwie, aby uniknąć usuwania treści, które nie są niezgodne z prawem; zwraca się do dostawców usług cyfrowych, którzy z własnej inicjatywy chcą ograniczać określone zgodne z prawem treści zamieszczane przez użytkowników, aby rozważyli możliwość etykietowania takich treści zamiast ich usuwania z internetu, pozwalając tym samym użytkownikom na podjęcie decyzji o dostępie do tych treści na własną odpowiedzialność;

5. stoi na stanowisku, że wszelkie środki dotyczące usuwania treści zawarte w akcie prawnym o usługach cyfrowych powinny dotyczyć wyłącznie treści niezgodnych z prawem (według definicji określonej w prawie unijnym i krajowym), a przepisy nie powinny zawierać żadnych nieokreślonych pojęć i terminów, ponieważ spowodowałoby to niepewność prawa dla platform internetowych i zagroziło prawom podstawowym oraz wolności wypowiedzi;

6. przyznaje jednak, że obecny ekosystem cyfrowy zachęca też do problematycznych zachowań, takich jak ukierunkowanie oparte na cechach ujawniających fizyczne lub psychiczne słabości, rozpowszechnianie mowy nienawiści, treści rasistowskich i dezinformacji, pojawiające się problemy, np. zorganizowane nadużywanie wielu platform, lub tworzenie kont czy też manipulowanie treściami internetowymi przez algorytmy; zauważa z niepokojem, że niektóre modele biznesowe opierają się na pokazywaniu użytkownikom sensacyjnych i polaryzujących treści, aby wydłużyć czas spędzony przed monitorem, a w konsekwencji powiększyć zyski platform internetowych; podkreśla negatywny wpływ takich modeli biznesowych na prawa podstawowe osób oraz na społeczeństwo jako całość; apeluje o przejrzystość polityki monetyzacji platform internetowych;

7. podkreśla w związku z tym, że należy zatamować rozpowszechnianie takich szkodliwych treści; jest głęboko przekonany, że umiejętności korzystania z mediów, kontrolowanie przez użytkownika proponowanych mu treści oraz publiczny dostęp do wysokiej jakości treści i edukacji mają kluczowe znaczenie w tym względzie; z zadowoleniem przyjmuje inicjatywę Komisji dotyczącą utworzenia europejskiego obserwatorium mediów cyfrowych w celu wspierania niezależnych usług weryfikacji faktów, zwiększenia wiedzy publicznej na temat dezinformacji w internecie i wsparcia władz publicznych odpowiedzialnych za monitorowanie mediów cyfrowych;

8. wzywa Komisję i państwa członkowskie do wspierania niezależnych i publicznych mediów oraz inicjatyw edukacyjnych w zakresie umiejętności korzystania z mediów, a także ukierunkowanych kampanii uświadamiających dla społeczeństwa obywatelskiego; zauważa, że należy zwrócić szczególną uwagę na szkodliwe treści w kontekście małoletnich korzystających z internetu, szczególnie w odniesieniu do ich narażenia na nękanie w internecie, molestowanie seksualne, pornografię, przemoc lub samookaleczanie;

9. zauważa, że ponieważ działania online danej osoby umożliwiają głęboki wgląd w jej osobowość i pozwalają nią manipulować, ogólne i masowe gromadzenie danych osobowych dotyczących każdego korzystania z usługi cyfrowej koliduje nieproporcjonalnie z prawem do prywatności i ochroną danych osobowych; podkreśla zwłaszcza potencjalnie negatywny wpływ reklamy ukierunkowanej i behawioralnej oraz oceny jednostek, zwłaszcza na osoby małoletnie i inne słabsze grupy, z uwagi na ingerowanie w prywatne życie jednostek, co nasuwa pytania dotyczące gromadzenia i wykorzystywania danych używanych do celów spersonalizowanej reklamy, oferowania produktów lub usług bądź ustalania cen; potwierdza, że prawo użytkownika, by nie podlegać stałemu śledzeniu podczas korzystania z usług cyfrowych, jest zawarte w RODO i należy je odpowiednio egzekwować w całej UE; zauważa, że Komisja w swoim wniosku dotyczącym rozporządzenia w sprawie poszanowania życia prywatnego oraz ochrony danych osobowych w łączności elektronicznej (2017/0003(COD)) zaproponowała, aby uzależnić ukierunkowane selekcjonowanie treści od decyzji o wyrażeniu zgody;

10. uważa, że wprowadzająca w błąd lub niejasna reklama polityczna stanowi szczególną klasę zagrożeń internetowych, ponieważ wpływa na podstawowe mechanizmy umożliwiające funkcjonowanie naszego demokratycznego społeczeństwa, szczególnie gdy treści takie są sponsorowane przez strony trzecie i podmioty zagraniczne; podkreśla, że wdrożenie profilowania na dużą skalę w celu ukierunkowania politycznego, aby manipulować zachowaniami wyborczymi, może poważnie podważyć fundamenty demokracji; wzywa w związku z tym dostawców usług cyfrowych do podjęcia niezbędnych działań w celu identyfikacji i oznaczania treści przesyłanych przez boty społeczne i oczekuje, że Komisja przedstawi wytyczne dotyczące stosowania takich perswazyjnych technologii cyfrowych w kampaniach wyborczych i polityce reklamowej; w związku z tym wzywa do ustanowienia rygorystycznych wymogów dotyczących przejrzystości w zakresie wyświetlania płatnych reklam politycznych;

11. podkreśla, że treści niezgodne z prawem należy usuwać konsekwentnie i bez zbędnej zwłoki, aby zwalczać przypadki naruszeń - zwłaszcza w odniesieniu do treści dotyczących dzieci i o charakterze terrorystycznym - oraz łamania praw podstawowych, wprowadzając konieczne zabezpieczenia, takie jak przejrzystość procesu, prawo do odwołania i dostęp do skutecznych środków zaskarżenia; uważa, że dobrowolne kodeksy postępowania i standardowe warunki umowne nie są odpowiednio egzekwowane i dowiodły jedynie częściowego rozwiązania tego problemu; podkreśla, że ostateczna odpowiedzialność za egzekwowanie prawa, rozstrzyganie o zgodności działań online i treści internetowych z prawem oraz nakazywanie dostawcom usług hostingowych usunięcia lub zablokowania treści niezgodnych z prawem spoczywa na niezależnych właściwych organach;

12. uznaje fakt, że o ile niezgodny z prawem charakter niektórych rodzajów treści można łatwo ustalić, o tyle w przypadku innych rodzajów treści taka decyzja jest trudniejsza, ponieważ wymaga kontekstualizacji; ostrzega, że obecne zautomatyzowane narzędzia nie są w stanie przeprowadzać krytycznej analizy i odpowiednio rozumieć znaczenia kontekstu w odniesieniu do konkretnych treści, co może prowadzić do zbędnego usuwania treści i szkodzić wolności słowa oraz dostępowi do różnych informacji, również na temat poglądów politycznych, a więc w konsekwencji do cenzury; podkreśla, że zapewniana przez dostawców usług lub ich kontrahentów weryfikacja automatycznych raportów absolutnie nie rozwiązuje tego problemu, zwłaszcza jeżeli jest zlecana pracownikom prywatnym, którym brakuje niezależności, kwalifikacji i rozliczalności;

13. podkreśla, że niezgodne z prawem treści internetowe można łatwo i szybko rozmnożyć, a tym samym znacznie zwiększyć negatywny wpływ w bardzo krótkim czasie; jest jednak przekonany, że akt prawny o usługach cyfrowych nie powinien zawierać żadnych zobowiązań dla dostawców usług hostingowych lub innych pośredników technicznych dotyczących korzystania ze zautomatyzowanych narzędzi moderowania treści;

14. przypomina, że niezgodne z prawem treści internetowe powinny być nie tylko usuwane przez platformy internetowe, ale także organy ścigania i sądownictwo powinny wyciągać konsekwencje w przypadku przestępstw; wzywa Komisję, aby rozważyła zobowiązanie platform internetowych do zgłaszania poważnych przestępstw właściwemu organowi ścigania po dowiedzeniu się o takim przestępstwie; przyznaje w związku z tym, że kluczowym problemem w niektórych państwach członkowskich jest nie tylko to, że postępowania pozostają nierozstrzygnięte, ale że nie są wszczynane; wzywa do usunięcia przeszkód utrudniających składanie skarg do właściwych organów; jest przekonany, że ze względu na transgraniczny charakter internetu i szybkie rozpowszechnianie niezgodnych z prawem treści internetowych należy usprawnić współpracę między dostawcami usług a właściwymi organami krajowymi, a także współpracę transgraniczną między właściwymi organami krajowymi oraz oprzeć ją na zasadach konieczności i proporcjonalności; podkreśla w związku z tym potrzebę przestrzegania porządku prawnego UE i ustalonych zasad współpracy transgranicznej oraz wzajemnego zaufania; wzywa państwa członkowskie do wyposażenia organów ścigania i organów sądowych w niezbędną wiedzę fachową, zasoby i narzędzia umożliwiające im skuteczne rozpatrywanie rosnącej liczby spraw dotyczących niezgodnych z prawem treści internetowych oraz rozstrzyganie sporów dotyczących wyłączania treści, a także do poprawy dostępu do wymiaru sprawiedliwości w obszarze usług cyfrowych;

15. podkreśla, że konkretną treść można uznać za niezgodną z prawem w jednym państwie członkowskim, ale objąć prawem do wolności wypowiedzi w innym państwie członkowskim; podkreśla, że aby chronić wolność słowa, unikać kolizji przepisów, zapobiegać nieuzasadnionemu i nieskutecznemu stosowaniu blokowania geograficznego oraz dążyć do zharmonizowanego jednolitego rynku, od dostawców usług hostingowych nie powinno się wymagać usuwania informacji zgodnych z prawem w państwie pochodzenia, w którym mają siedzibę lub w którym ma siedzibę ich wyznaczony przedstawiciel prawny, lub blokowania dostępu do takich informacji; przypomina, że organy krajowe mogą egzekwować wyłącznie nakazy usunięcia skierowane przez właściwe niezależne organy do dostawców usług mających siedzibę na ich terytorium; uważa, że należy wzmocnić mechanizmy współpracy między państwami członkowskimi przy wsparciu Komisji i odpowiednich agencji Unii; wzywa do zorganizowanego dialogu między państwami członkowskimi w celu określenia ryzyka związanego z określonymi rodzajami treści oraz wyodrębnienia potencjalnych różnic między państwami członkowskimi w ocenie takich zagrożeń;

16. podkreśla, że niezgodne z prawem treści powinno się usuwać tam, gdzie są hostowane, i że pośrednicy zwykłego przekazu nie powinni być zobowiązani do blokowania dostępu do treści;

17. jest głęboko przekonany, że obecne ramy prawne UE regulujące usługi cyfrowe należy zaktualizować w celu sprostania wyzwaniom wynikającym z rozdrobnienia między państwami członkowskimi a nowymi technologiami, takimi jak profilowanie i algorytmiczne podejmowanie decyzji, które są obecne we wszystkich dziedzinach życia, a także w celu zapewnienia jasności prawnej i poszanowania praw podstawowych, w szczególności wolności wypowiedzi i prawa do prywatności w sposób mogący sprostać wyzwaniom przyszłości z uwagi na szybki rozwój technologii;

18. z zadowoleniem przyjmuje zobowiązanie Komisji do wprowadzenia zharmonizowanego podejścia do obowiązków nakładanych na dostawców usług cyfrowych, w tym pośredników internetowych, w celu uniknięcia fragmentacji rynku wewnętrznego i niespójnego egzekwowania uregulowań; wzywa Komisję, aby proponowała najsprawniej działające i najskuteczniejsze rozwiązania dla całego rynku wewnętrznego, unikając przy tym nowych niepotrzebnych obciążeń administracyjnych oraz dążąc do utrzymania otwartości, sprawiedliwości, bezpieczeństwa i konkurencyjności jednolitego rynku cyfrowego dla wszystkich jego uczestników; podkreśla, że system odpowiedzialności dla dostawców usług cyfrowych musi być proporcjonalny, nie może szkodzić małym i średnim dostawcom oraz nie może w sposób nierozsądny ograniczać innowacyjności i dostępu do informacji;

19. uważa, że reforma powinna opierać się na solidnych podstawach i pełnej zgodności z obowiązującym prawem Unii, zwłaszcza z ogólnym rozporządzeniem o ochronie danych i dyrektywą o prywatności i łączności elektronicznej (która poddawana jest obecnie przeglądowi) oraz szanować pierwszeństwo innych instrumentów sektorowych, takich jak dyrektywa o audiowizualnych usługach medialnych; podkreśla, że modernizacja przepisów dotyczących handlu elektronicznego może wpłynąć na prawa podstawowe; w związku z tym wzywa Komisję, aby zachowała szczególną czujność w swoim podejściu oraz by włączyła do swojej oceny międzynarodowe standardy praw człowieka;

20. podkreśla, że praktyczna zdolność użytkowników indywidualnych do zrozumienia złożoności ekosystemów danych jest niezwykle ograniczona, podobnie jak ich zdolność do określenia, czy informacje, które otrzymują, i usługi, z których korzystają, są im udostępniane na takich samych warunkach, jak innym użytkownikom; wzywa zatem Komisję, aby włączyła przejrzystość i niedyskryminację do ustawy o usługach cyfrowych;

21. podkreśla, że ustawa o usługach cyfrowych musi mieć na celu zapewnienie wysokiego poziomu przejrzystości w odniesieniu do funkcjonowania usług w internecie i środowiska cyfrowego wolnego od dyskryminacji; podkreśla, że oprócz istniejących solidnych ram regulacyjnych chroniących prywatność i dane osobowe konieczne jest nałożenie na platformy internetowe obowiązku zapewnienia zgodnego z prawem stosowania algorytmów; w związku z tym wzywa Komisję, aby opracowała system oparty na dyrektywie o handlu elektronicznym, który w jasny sposób formułowałby odpowiedzialność dostawców usług w celu przeciwdziałania zagrożeniom napotykanym przez ich użytkowników i ochrony ich praw oraz przewidzenia obowiązku przejrzystości i wytłumaczalności algorytmów, kar w celu egzekwowania takich obowiązków, możliwości interwencji człowieka i innych środków takich jak niezależne audyty i szczegółowe testy warunków skrajnych z myślą o wspieraniu i egzekwowaniu przestrzegania przepisów;

22. podkreśla, że niektórzy dostawcy usług cyfrowych muszą być w stanie jednoznacznie identyfikować użytkowników w sposób równoważny z usługami poza internetem; zwraca uwagę na zbędne gromadzenie przez platformy internetowe danych osobowych takich jak płeć czy numer telefonu komórkowego w momencie rejestracji w usłudze cyfrowej, co często jest wynikiem stosowania opcji pojedynczego logowania; podkreśla, że w RODO jasno opisano zasadę minimalizacji danych, co ogranicza ilość gromadzonych danych wyłącznie do tych, które są bezwzględnie niezbędne do danego celu; zaleca, aby platformy internetowe, które obsługują usługę pojedynczego logowania z dominującym udziałem w rynku, były zobowiązane do wspierania co najmniej jednego otwartego systemu tożsamości opartego na niezastrzeżonych, zdecentralizowanych i interoperacyjnych ramach;

23. podkreśla, że gdy potrzebny jest określony rodzaj oficjalnej identyfikacji w trybie offline, należy stworzyć równoważny bezpieczny internetowy system identyfikacji elektronicznej; uważa, że identyfikację w internecie można poprawić, egzekwując transgraniczną interoperacyjność identyfikacji elektronicznej w rozporządzeniu eIDAS w całej Unii Europejskiej; zwraca się do Komisji, aby zbadała możliwość utworzenia jednolitego europejskiego systemu logowania jako alternatywy dla prywatnych systemów pojedynczego logowania oraz by wprowadziła dotyczący usług cyfrowych obowiązek oferowania także i zawsze opcji ręcznego logowania domyślnie; podkreśla, że usługę tę należy opracować w taki sposób, aby gromadzenie możliwych do zidentyfikowania danych podczas logowania było technicznie niemożliwe dla dostawcy systemu usługi logowania i by gromadzone dane były ograniczone do absolutnego minimum; zaleca zatem, aby Komisja zbadała również możliwość utworzenia systemu weryfikacji dla użytkowników usług cyfrowych w celu zapewnienia ochrony danych osobowych i weryfikacji wieku, zwłaszcza w przypadku osób niepełnoletnich, który nie powinien być wykorzystywany w celach komercyjnych ani do śledzenia użytkowników w witrynach internetowych; podkreśla, że te systemy logowania i weryfikacji powinny mieć zastosowanie wyłącznie do usług cyfrowych, które wymagają identyfikacji osobistej, uwierzytelnienia lub weryfikacji wieku; przypomina, że państwa członkowskie i instytucje Unii muszą zagwarantować, że identyfikacja elektroniczna jest bezpieczna, przejrzysta, przetwarza jedynie dane niezbędne do identyfikacji użytkownika i wykorzystuje się ją wyłącznie do celów zgodnych z prawem a nie komercyjnych oraz że nie wykorzystuje się jej do ograniczania ogólnego dostępu do internetu ani do śledzenia użytkowników w witrynach internetowych;

24. uważa, że niezbędna jest pełna harmonizacja i wyjaśnienie zasad dotyczących odpowiedzialności na szczeblu UE, aby zagwarantować poszanowanie podstawowych praw i wolności użytkowników w całej UE; wierzy, że takie zasady powinny utrzymać wyłączenia odpowiedzialności dla pośredników, którzy nie posiadają faktycznej wiedzy lub informacji o niezgodnej z prawem działalności na ich platformach; wyraża zaniepokojenie, że niedawno wprowadzone przepisy krajowe mające na celu walkę z nienawistnymi wypowiedziami i dezinformacją prowadzą do coraz większego rozdrobnienia przepisów i obniżenia poziomu ochrony praw podstawowych w UE;

25. wzywa w związku z tym do przedstawienia wniosków ustawodawczych, które utrzymają otwartość i konkurencyjność jednolitego rynku cyfrowego przez ustanowienie zharmonizowanych wymogów dotyczących dostawców usług cyfrowych w odniesieniu do stosowania skutecznych, spójnych, przejrzystych i sprawiedliwych procedur oraz gwarancji proceduralnych w celu zwalczania niezgodnych z prawem treści zgodnie z prawem krajowym i europejskim, w tym w ramach zharmonizowanej procedury powiadamiania i działania;

26. uważa w związku z tym, że kluczowe znaczenie dla przejrzystości platform internetowych ma ustanowienie jasnych zasad, wymogów i gwarancji w odniesieniu do odpowiedzialności za treści stron trzecich; proponuje wprowadzenie wspólnych ram odpowiedzialności, aby skutecznie identyfikować i usuwać treści niezgodne z prawem;

27. podkreśla, że przepisy dotyczące mechanizmów zgłaszania i usuwania treści niezgodnych z prawem należy uzupełnić wymogami zobowiązującymi platformy do podejmowania konkretnych działań proporcjonalnych do skali ich zasięgu oraz ich możliwości technicznych i operacyjnych w celu skutecznego przeciwdziałania pojawianiu się niezgodnych z prawem treści w ramach ich usług; uznaje zatem, że w przypadkach, gdy jest to technicznie wykonalne - na podstawie dostatecznie uzasadnionych poleceń niezależnych właściwych organów publicznych oraz przy pełnym uwzględnieniu specyficznego kontekstu treści - od dostawców usług cyfrowych można wymagać okresowego wyszukiwania określonych elementów treści, które sąd uznał już za niezgodne z prawem, pod warunkiem że monitorowanie i wyszukiwanie informacji objętych takim nakazem sądowym ogranicza się do informacji przekazującej wiadomość o treści zasadniczo niezmienionej w stosunku do treści, która doprowadziła do stwierdzenia niezgodności z prawem, i zawierającej elementy określone w nakazie, które zgodnie z wyrokiem Trybunału Sprawiedliwości z dnia 3 października 2019 r. w sprawie C-18/18 8  są identyczne lub równoważne w zakresie, w jakim nie wymagałoby to od dostawcy usług hostingowych przeprowadzenia niezależnej oceny tej treści;

28. nadal uważa, że wybór konkretnych środków należy pozostawić platformom; popiera zrównoważone podejście oparte na dialogu z zainteresowanymi stronami i ocenie ryzyka ponoszonego przez platformy, a także jasny łańcuch odpowiedzialności w celu uniknięcia niepotrzebnych obciążeń regulacyjnych dla platform oraz zbędnych i nieproporcjonalnych ograniczeń praw podstawowych, w szczególności wolności wypowiedzi, dostępu do informacji, w tym poglądów politycznych, oraz prawa do prywatności; podkreśla, że niektóre obowiązki można doprecyzować w przepisach sektorowych; podkreśla, że wszelkie środki wprowadzone w tym celu nie mogą stanowić de jure ani de facto ogólnego wymogu monitorowania;

29. podkreśla potrzebę stosowania - obok procedur zgłaszania sprzeciwu - odpowiednich gwarancji i zasad sprawiedliwości proceduralnej, w tym wymogu nadzoru i weryfikacji przeprowadzanych przez człowieka, w celu umożliwienia właścicielom treści i osobom zamieszczającym treści odpowiednią i przygotowaną na czas obronę swoich praw oraz w celu zapewnienia, by decyzje dotyczące usuwania lub blokowania były zgodne z prawem, trafne, dobrze uzasadnione i zgodne z prawami podstawowymi oraz by chroniły użytkowników; podkreśla, że osoby, które systematycznie i wielokrotnie składają krzywdzące lub obraźliwe zawiadomienia, powinny podlegać sankcjom; przypomina, że oprócz procedur wzajemnego powiadamiania i pozasądowego rozstrzygania sporów przez platformy, zgodnie z systemem wewnętrznego składania reklamacji, możliwość skutecznego dochodzenia roszczeń na drodze sądowej powinna pozostać dostępna w celu zapewnienia prawa do skutecznego środka odwoławczego;

30. popiera zachowanie obecnych ram ograniczonej odpowiedzialności za treść i zasadę kraju pochodzenia, lecz uważa, że niezbędna jest lepsza koordynacja działań właściwych organów krajowych w zakresie nakazów dotyczących usuwania; podkreśla, że niezgodne z prawem treści powinny być usuwane tam, gdzie są hostowane; zaznacza, że takie wnioski powinny podlegać gwarancjom prawnym, aby zapobiegać nadużyciom i zapewnić pełne poszanowanie praw podstawowych; podkreśla, że wnioski o usunięcie treści wydane przez właściwe organy powinny być szczegółowe i jasno określać podstawę prawną do usunięcia; podkreśla, że skuteczny mechanizm nadzoru i egzekwowania prawa, w tym proporcjonalne sankcje uwzględniające zdolności techniczne i operacyjne, powinien mieć zastosowanie do tych dostawców usług, którzy nie przestrzegają zgodnych z prawem nakazów;

31. przypomina, że dostawców usług cyfrowych nie można na mocy prawa zobowiązać do zatrzymywania danych osobowych ich użytkowników lub abonentów do celów egzekwowania prawa, chyba że niezależny właściwy organ zarządzi ukierunkowane zatrzymanie danych przy pełnym poszanowaniu prawa Unii i orzecznictwa TSUE; przypomina ponadto, że takie zatrzymywanie danych powinno ograniczać się do tego, co jest absolutnie niezbędne w odniesieniu do kategorii danych, które mają być zatrzymywane, środków komunikacji, których dane dotyczą, osób, których dane dotyczą, oraz przyjętego okresu przechowywania;

32. uważa, że w celu ochrony praw podstawowych ustawa o usługach cyfrowych powinna wprowadzić przepisy mające na celu zapewnienie, by warunki świadczenia usług dostawców usług cyfrowych były jasne, przejrzyste i uczciwe oraz udostępniane użytkownikom w łatwy i przystępny sposób; ubolewa nad faktem, że warunki świadczenia usług przez niektóre platformy treści zmuszają funkcjonariuszy organów ścigania do korzystania z kont osobistych w celu prowadzenia dochodzeń dotyczących niektórych skarg, co stanowi zagrożenie zarówno dla tych dochodzeń, jak i dla bezpieczeństwa osobistego; wzywa do skuteczniejszej koordynacji między państwami członkowskimi w zakresie działań następczych podejmowanych w związku z egzekwowaniem prawa w odniesieniu do zgłoszonych treści niezgodnych z prawem; przypomina, że nakazy usunięcia treści wydawane przez niezależne właściwe organy muszą zawsze opierać się na prawie, a nie na warunkach świadczenia usług przez usługodawców;

33. wzywa Komisję, aby zapewniła użytkownikom dostęp do różnorodnych i wysokiej jakości treści online jako środek gwarantujący obywatelom otrzymywanie odpowiednich informacji; oczekuje, że ustawa o usługach cyfrowych zagwarantuje, że wysokiej jakości treści medialne są łatwo dostępne i łatwe do wyszukania na platformach stron trzecich oraz że usuwanie treści jest zgodne ze standardami praw człowieka i ograniczone do treści, które są ewidentnie niezgodne z prawem lub zostały uznane za niezgodne z prawem przez niezależny właściwy organ; podkreśla, że treści zgodne z prawem nie powinny podlegać żadnym obowiązkom dotyczącym usuwania lub blokowania;

34. popiera pogłębiony dialog między właściwymi organami państw członkowskich i zainteresowanymi podmiotami mający na celu rozwijanie, ocenę i udoskonalenie podejść opartych na prawie miękkim, takich jak unijny kodeks postępowania w zakresie zwalczania dezinformacji, z myślą o dalszym uwzględnianiu kategorii zgodnych z prawem treści, w tym dezinformacji; oczekuje, że Komisja wyda - w ramach szczegółowego instrumentu towarzyszącego ustawie o usługach cyfrowych - wytyczne obejmujące zasady zwiększonej przejrzystości w zakresie moderacji treści oraz reguł reklamy w celu zapewnienia, by usuwanie i blokowanie zgodnych z prawem treści na podstawie warunków było ograniczone do niezbędnego minimum; wzywa ponadto Komisję do ustanowienia ram, które będą zakazywać platformom sprawowania drugiej warstwy kontroli nad treściami udostępnianymi w ramach odpowiedzialności dostawcy usług medialnych i podlegającymi szczególnym standardom i nadzorowi;

35. podkreśla też, że użytkownicy powinni mieć większy wybór i większą kontrolę w odniesieniu do treści, które widzą, w tym więcej opcji dotyczących rankingu przedstawianych im treści i możliwości rezygnacji z wszelkiego selekcjonowania treści; zdecydowanie uważa, że projektowanie i funkcjonowanie systemów rekomendacji powinno być przyjazne dla użytkownika i podlegać wymogowi pełnej przejrzystości;

36. uważa, że odpowiedzialność - za równo w sektorze prywatnym, jak i publicznym - oraz kształtowanie polityki opartej na odpowiedzialności i dowodach wymagają rzetelnych danych na temat wpływu i zwalczania niezgodnych z prawem działań oraz usuwania niezgodnych z prawem treści w internecie, a także solidnych danych na temat algorytmów wyszukiwania, analizowania i udostępniania treści na platformach internetowych;

37. wzywa w związku z tym do nałożenia na platformy obowiązku corocznego, wyczerpującego i spójnego składania sprawozdań publicznych, proporcjonalnego do skali ich zasięgu i możliwości operacyjnych, a dokładniej zgłaszania ich procedur moderowania treści, w tym informacji o przyjętych środkach przeciwko niezgodnej z prawem działalności w internecie i znormalizowanych danych o ilości usuniętych treści i podstawowych przyczynach prawnych i podstawach, rodzaju i uzasadnieniu otrzymanych wniosków o usunięcie, liczby wniosków, których wykonania odmówiono, oraz przyczyny; podkreśla, że sprawozdania takie, obejmujące działania podjęte w danym roku, należy składać do końca pierwszego kwartału kolejnego roku;

38. wzywa ponadto do ustanowienia obowiązku corocznego składania sprawozdań publicznych przez organy krajowe, w tym dotyczących znormalizowanych danych na temat liczby wniosków o usunięcie i ich podstaw prawnych, liczby wniosków o usunięcie, które podlegały środkom administracyjnym lub sądowym, wyników tych postępowań wraz z informacją na temat treści lub działań błędnie uznanych za niezgodne z prawem, oraz o całkowitej liczbie decyzji nakładających kary, w tym opisu rodzaju nałożonej kary;

39. wyraża zaniepokojenie rozdrobnieniem i udokumentowanym brakiem zasobów finansowych i kadrowych przeznaczonych dla organów nadzoru i kontroli; wzywa do pogłębienia współpracy między państwami członkowskimi w zakresie nadzoru regulacyjnego nad usługami cyfrowymi;

40. uważa, że - w celu zagwarantowania właściwego egzekwowania ustawy o usługach cyfrowych - w ramach jednolitego rynku cyfrowego należy zharmonizować nadzór nad przestrzeganiem procedur, gwarancje proceduralne i obowiązki w zakresie przejrzystości określone w tej ustawie; popiera w związku z tym zdecydowane i rygorystyczne egzekwowanie przepisów przez niezależną unijną strukturę nadzoru, która jest uprawniona do nakładania grzywien na podstawie oceny jasno określonego zestawu czynników, takich jak proporcjonalność, środki techniczne i organizacyjne oraz zaniedbania; uważa, że powinno to obejmować możliwość ustalania grzywien w oparciu o wartość procentową rocznego globalnego obrotu przedsiębiorstwa;

41. podkreśla, że kontrolę nad wewnętrznymi politykami i algorytmami dostawców usług cyfrowych należy prowadzić z należytym uwzględnieniem prawa Unii, w szczególności podstawowych praw użytkowników usług, z uwzględnieniem znaczenia niedyskryminacji oraz wolności wypowiedzi i informacji w otwartym i demokratycznym społeczeństwie oraz bez publikowania szczególnie chronionych danych handlowych; wzywa do przeprowadzenia oceny - po otrzymaniu skargi lub z inicjatywy organów nadzoru - czy i w jaki sposób dostawcy usług cyfrowych przyczyniają się do rozpowszechniania treści, na przykład za pomocą mechanizmów rekomendacji i funkcji optymalizacji, takich jak autouzupełnianie i trendy;

42. uważa, że sprawozdania w sprawie przejrzystości przygotowywane przez platformy i właściwe organy krajowe powinny być publicznie dostępne i analizowane pod kątem trendów strukturalnych w ramach usuwania, wykrywania i blokowania na szczeblu UE;

43. podkreśla, że ważne jest, by zachęcać użytkowników do egzekwowania ich praw podstawowych w internecie, między innymi za pomocą łatwo dostępnych, bezstronnych, przejrzystych, skutecznych i bezpłatnych procedur składania skarg, mechanizmów zgłaszania treści niezgodnych z prawem i zachowań przestępczych dla osób fizycznych i przedsiębiorstw, środków zaskarżenia, działań edukacyjnych i zwiększania świadomości na temat kwestii ochrony danych i bezpieczeństwa dzieci w internecie;

44. jest zdania, że dotychczasowe doświadczenia wykazały skuteczność podejścia polegającego na umożliwianiu rozwoju innowacyjnych modeli biznesowych i wzmacnianiu jednolitego rynku cyfrowego przez usuwanie barier w swobodnym przepływie usług cyfrowych i zapobieganie wprowadzaniu nowych nieuzasadnionych barier krajowych, a dzięki dalszemu stosowaniu tego podejścia można będzie ograniczyć fragmentację rynku wewnętrznego; uważa ponadto, że ustawa o usługach cyfrowych może oferować możliwości rozwoju wiedzy i umiejętności obywateli w dziedzinie cyfryzacji, gwarantując jednocześnie wysoki poziom ochrony konsumentów, w tym poprzez ochronę bezpieczeństwa w internecie;

45. podkreśla konieczność uzgodnionych standardów podstawowego bezpieczeństwa w cyberprzestrzeni, aby obywatele mogli w pełni korzystać z usług cyfrowych; zauważa w związku z tym pilną potrzebę podjęcia przez państwa członkowskie skoordynowanych działań w celu zapewnienia podstawowej higieny cybernetycznej i zapobiegania niebezpieczeństwom w cyberprzestrzeni, których można uniknąć, w tym za pomocą środków ustawodawczych;

46. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji Radzie i Komisji.

1 Dz.U. L 178 z 17.7.2000, s. 1.
2 Dz.U. L 119 z 4.5.2016, s. 1.
3 Dz.U. L 201 z 31.7.2002, s. 37.
4 Dz.U. L 303 z 28.11.2018, s. 69.
5 Dz.U. L 130 z 17.5.2019, s. 92.
6 Dz.U. L 63 z 6.3.2018, s. 50.
7 Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 910/2014 z dnia 23 lipca 2014 r. w sprawie identyfikacji elektronicznej C-18/18, EU:C:2019:821.
8 Wyrok Trybunału Sprawiedliwości z dnia 3 października 2019 r., Eva Glawischnig-Piesczek przeciwko Facebook Ireland Limited,

Zmiany w prawie

Rząd chce zmieniać obowiązujące regulacje dotyczące czynników rakotwórczych i mutagenów

Rząd przyjął we wtorek projekt zmian w Kodeksie pracy, którego celem jest nowelizacja art. 222, by dostosować polskie prawo do przepisów unijnych. Chodzi o dodanie czynników reprotoksycznych do obecnie obwiązujących regulacji dotyczących czynników rakotwórczych i mutagenów. Nowela upoważnienia ustawowego pozwoli na zmianę wydanego na jej podstawie rozporządzenia Ministra Zdrowia w sprawie substancji chemicznych, ich mieszanin, czynników lub procesów technologicznych o działaniu rakotwórczym lub mutagennym w środowisku pracy.

Grażyna J. Leśniak 16.04.2024
Bez kary za brak lekarza w karetce do końca tego roku

W ponad połowie specjalistycznych Zespołów Ratownictwa Medycznego brakuje lekarzy. Ministerstwo Zdrowia wydłuża więc po raz kolejny czas, kiedy Narodowy Fundusz Zdrowia nie będzie pobierał kar umownych w przypadku niezapewnienia lekarza w zespołach ratownictwa. Pierwotnie termin wyznaczony był na koniec czerwca tego roku.

Beata Dązbłaż 10.04.2024
Będzie zmiana ustawy o rzemiośle zgodna z oczekiwaniami środowiska

Rozszerzenie katalogu prawnie dopuszczalnej formy prowadzenia działalności gospodarczej w zakresie rzemiosła, zmiana definicji rzemiosła, dopuszczenie wykorzystywania przez przedsiębiorców, niezależnie od formy prowadzenia przez nich działalności, wszystkich kwalifikacji zawodowych w rzemiośle, wymienionych w ustawie - to tylko niektóre zmiany w ustawie o rzemiośle, jakie zamierza wprowadzić Ministerstwo Rozwoju i Technologii.

Grażyna J. Leśniak 08.04.2024
Tabletki "dzień po" bez recepty nie będzie. Jest weto prezydenta

Dostępność bez recepty jednego z hormonalnych środków antykoncepcyjnych (octan uliprystalu) - takie rozwiązanie zakładała zawetowana w piątek przez prezydenta Andrzeja Dudę nowelizacja prawa farmaceutycznego. Wiek, od którego tzw. tabletka "dzień po" byłaby dostępna bez recepty miał być określony w rozporządzeniu. Ministerstwo Zdrowia stało na stanowisku, że powinno to być 15 lat. Wątpliwości w tej kwestii miała Kancelaria Prezydenta.

Katarzyna Nocuń 29.03.2024
Małżonkowie zapłacą za 2023 rok niższy ryczałt od najmu

Najem prywatny za 2023 rok rozlicza się według nowych zasad. Jedyną formą opodatkowania jest ryczałt od przychodów ewidencjonowanych, według stawek 8,5 i 12,5 proc. Z kolei małżonkowie wynajmujący wspólną nieruchomość zapłacą stawkę 12,5 proc. dopiero po przekroczeniu progu 200 tys. zł, zamiast 100 tys. zł. Taka zmiana weszła w życie w połowie 2023 r., ale ma zastosowanie do przychodów uzyskanych za cały 2023 r.

Monika Pogroszewska 27.03.2024
Ratownik medyczny wykona USG i zrobi test na COVID

Mimo krytycznych uwag Naczelnej Rady Lekarskiej, Ministerstwo Zdrowia zmieniło rozporządzenie regulujące uprawnienia ratowników medycznych. Już wkrótce, po ukończeniu odpowiedniego kursu będą mogli wykonywać USG, przywrócono im też możliwość wykonywania testów na obecność wirusów, którą mieli w pandemii, a do listy leków, które mogą zaordynować, dodano trzy nowe preparaty. Większość zmian wejdzie w życie pod koniec marca.

Agnieszka Matłacz 12.03.2024