Poprawki przyjęte przez Parlament Europejski w dniu 14 czerwca 2023 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD))

P9_TA(2023)0236
Akt w sprawie sztucznej inteligencji Poprawki przyjęte przez Parlament Europejski w dniu 14 czerwca 2023 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD)) 1
(Zwykła procedura ustawodawcza: pierwsze czytanie)
(C/2024/506)

Poprawka 1 Wniosek dotyczący rozporządzenia Umocowanie 4 a (nowe)
Tekst proponowany przez Komisję Poprawka
uwzględniając opinię Europejskiego Banku Centralnego,

Poprawka 2

Wniosek dotyczący rozporządzenia

Umocowanie 4 b (nowe)

Tekst proponowany przez Komisję Poprawka
uwzględniając wspólną opinię wydaną przez Europejską Radę Ochrony Danych i Europejskiego Inspektora Ochrony Danych,

Poprawka 3

Wniosek dotyczący rozporządzenia

Motyw 1

Tekst proponowany przez Komisję Poprawka
(1) Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu i wykorzystywania sztucznej inteligencji zgodnie z wartościami Unii. Niniejsze rozporządzenie służy realizacji szeregu nadrzędnych celów interesu publicznego, takich jak wysoki poziom ochrony zdrowia, bezpieczeństwa i praw podstawowych, oraz zapewnia swobodny przepływ trans- graniczny towarów i usług opartych na sztucznej inteligencji, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń w zakresie opracowywania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji, chyba że wyraźnie zezwolono na to w niniejszym rozporządzeniu. (1) Celem niniejszego rozporządzenia jest promowanie upowszechniania ukierunkowanej na człowieka i godnej zaufania sztucznej inteligencji oraz zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych, demokracji i praworządności oraz środowiska przed szkodliwymi skutkami systemów sztucznej inteligencji w Unii, przy jednoczesnym wspieraniu innowacji i poprawie funkcjonowania rynku wewnętrznego. Niniejsze rozporządzenie ustanawia jednolite ramy prawne, w szczególności w zakresie rozwoju, wprowadzania do obrotu, oddawania do użytku i wykorzystywania sztucznej inteligencji zgodnie z wartościami Unii, oraz zapewnia swobodny przepływ transgraniczny towarów i usług opartych na sztucznej inteligencji, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń w zakresie opracowywania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji, chyba że wyraźnie zezwolono na to w niniejszym rozporządzeniu. Niektóre systemy sztucznej inteligencji mogą mieć też wpływ na demokrację, praworządność i środowisko. Obawy te zostały w szczególności uwzględnione w sektorach krytycznych i przypadkach użycia wymienionych w załącznikach do niniejszego rozporządzenia.

Poprawka 4

Wniosek dotyczący rozporządzenia

Motyw 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
(1a) Niniejsze rozporządzenie powinno chronić wartości Unii, ułatwić dystrybucję korzyści płynących ze sztucznej inteligencji w społeczeństwie, chronić osoby fizyczne, przedsiębiorstwa, demokrację, praworządność i środowisko przed zagrożeniami, a jednocześnie pobudzać innowacje i zatrudnienie oraz uczynić Unię liderem w tej dziedzinie.

Poprawka 5

Wniosek dotyczący rozporządzenia

Motyw 2

Tekst proponowany przez Komisję Poprawka
(2) Systemy sztucznej inteligencji mogą być łatwo wdrażane w wielu sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie rozważały już przyjęcie przepisów krajowych w celu zapewnienia, aby sztuczna inteligencja była bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i zmniejszenia pewności prawa dla operatorów, którzy opracowują lub wykorzystują systemy sztucznej inteligencji. Należy zatem zapewnić spójny i wysoki poziom ochrony w całej Unii, zapobiegając jednocześnie rozbieżnościom utrudniającym swobodny obrót systemami sztucznej inteligencji oraz powiązanymi produktami i usługami na rynku wewnętrznym poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym, w oparciu o art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE). W zakresie, w jakim niniejsze rozporządzenie zawiera określone przepisy szczegółowe dotyczące ochrony osób fizycznych w związku z przetwarzaniem danych osobowych w odniesieniu do ograniczenia wykorzystywania systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa, podstawą niniejszego rozporządzenia w zakresie takich przepisów szczegółowych powinien być art. 16 TFUE. W świetle tych przepisów szczegółowych i odwołania się do art. 16 TFUE należy skonsultować się z Europejską Radą Ochrony Danych. (2) Systemy sztucznej inteligencji mogą być łatwo wdrażane w wielu sektorach gospodarki i obszarach życia społecznego, w tym w wymiarze transgranicznym, i mogą być przedmiotem obrotu w całej Unii. Niektóre państwa członkowskie rozważały już przyjęcie przepisów krajowych w celu zapewnienia, aby sztuczna inteligencja była bezpieczna i wiarygodna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych. Zróżnicowane przepisy krajowe mogą prowadzić do rozdrobnienia rynku wewnętrznego i zmniejszenia pewności prawa dla operatorów, którzy opracowują lub wykorzystują systemy sztucznej inteligencji. Aby osiągnąć wiarygodną sztuczną inteligencję należy zatem zapewnić spójny i wysoki poziom ochrony w całej Unii, zapobiegając jednocześnie rozbieżnościom utrudniającym swobodny obrót systemami sztucznej inteligencji oraz powiązanymi produktami i usługami na rynku wewnętrznym, a także utrudniającym innowacje w zakresie systemów sztucznej inteligencji oraz ich wdrażanie i rozpowszechnianie poprzez ustanowienie jednolitych obowiązków dla operatorów i zagwarantowanie jednolitej ochrony nadrzędnego interesu publicznego i praw osób na całym rynku wewnętrznym, w oparciu o art. 114 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE).

Poprawka 6

Wniosek dotyczący rozporządzenia

Motyw 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
(2a) Ponieważ sztuczna inteligencja często bazuje na przetwarzaniu dużych ilości danych, a wiele systemów i zastosowań sztucznej inteligencji - na przetwarzaniu danych osobowych, niniejsze rozporządzenie należy oprzeć na art. 16 TFUE, w którym zapisano prawo do ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i przewidziano przyjęcie przepisów o ochronie osób fizycznych w związku z przetwarzaniem danych osobowych.

Poprawka 7

Wniosek dotyczący rozporządzenia

Motyw 2 b (nowy)

Tekst proponowany przez Komisję Poprawka
(2b) Podstawowe prawo do ochrony danych osobowych jest gwarantowane w szczególności przez rozporządzenia (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywę 2016/680. Dyrektywa 2002/58/WE dodatkowo chroni życie prywatne i poufność komunikacji, w tym określa warunki przechowywania wszelkich danych osobowych i nieosobowych w urządzeniach końcowych i dostępu do nich. Te akty prawne stanowią podstawę zrównoważonego i odpowiedzialnego przetwarzania danych, np. kiedy zbiory danych zawierają mieszankę danych osobowych i nieosobowych. Celem niniejszego rozporządzenia nie jest wpływanie na stosowanie obowiązującego prawa Unii regulującego przetwarzanie danych osobowych, w tym na zadania i uprawnienia niezależnych organów nadzoru właściwych do monitorowania zgodności z tymi instrumentami. Niniejsze rozporządzenie nie ma wpływu na prawa podstawowe do życia prywatnego i ochrony danych osobowych przewidziane w prawie Unii dotyczącym ochrony danych i prywatności oraz zapisane w Karcie praw podstawowych Unii Europejskiej (Karta).

Poprawka 8

Wniosek dotyczący rozporządzenia

Motyw 2 c (nowy)

Tekst proponowany przez Komisję Poprawka
(2c) Systemy sztucznej inteligencji w Unii podlegają odpowiednim przepisom o bezpieczeństwie produktów, które ogólnie zapewniają ramy ochrony konsumentów przed produktami niebezpiecznymi, i takie przepisy powinny nadal obowiązywać. Niniejsze rozporządzenie nie narusza też przepisów innych aktów prawnych Unii, które dotyczą ochrony konsumentów i bezpieczeństwa produktów, w tym rozporządzenia (UE) 2017/2394, rozporządzenia (UE) 2019/1020, dyrektywy 2001/95/WE w sprawie ogólnego bezpieczeństwa produktów i dyrektywy 2013/11/UE.

Poprawka 9

Wniosek dotyczący rozporządzenia

Motyw 2 d (nowy)

Tekst proponowany przez Komisję Poprawka
(2d) Zgodnie z art. 114 ust. 2 TFUE niniejsze rozporządzenie uzupełnia prawa i interesy pracowników i nie powinno ich osłabiać. Niniejsze rozporządzenie nie powinno zatem mieć wpływu na prawo Unii w dziedzinie polityki społecznej oraz na krajowe prawo pracy i krajowe praktyki pracownicze, tj. na żadne przepisy ani postanowienia umowne dotyczące warunków zatrudnienia, warunków pracy, w tym bezpieczeństwa i higieny pracy, oraz stosunków między pracodawcami a pracownikami, które obejmują informowanie, konsultacje i uczestnictwo. Niniejsze rozporządzenie nie powinno mieć wpływu na korzystanie z praw podstawowych uznanych w państwach członkowskich i na szczeblu Unii, w tym z prawa do strajku czy swobody podejmowania strajku lub innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich, zgodnie z krajowym ustawodawstwem lub krajową praktyką. Nie powinno ono również wpływać na praktyki uzgodnione, prawo do negocjowania, zawierania i egzekwowania umów zbiorowych i podejmowania działań zbiorowych w oparciu o krajowe prawo lub praktykę. W żadnym wypadku nie powinno też uniemożliwiać Komisji zaproponowania szczegółowych przepisów dotyczących praw i wolności pracowników, na których mają wpływ systemy sztucznej inteligencji.

Poprawka 10

Wniosek dotyczący rozporządzenia

Motyw 2 e (nowy)

Tekst proponowany przez Komisję Poprawka
(2e) Niniejsze rozporządzenie nie powinno mieć wpływu na określone w dyrektywie ... [COD 2021/414/WE] przepisy mające na celu poprawę warunków pracy za pośrednictwem platform internetowych.

Poprawka 11

Wniosek dotyczący rozporządzenia

Motyw 2 f (nowy)

Tekst proponowany przez Komisję Poprawka
(2f) Niniejsze rozporządzenie powinno pomóc we wspieraniu badań i innowacji, powinno zapewniać poszanowanie wolności badań naukowych i nie powinno osłabiać działalności badawczej i rozwojowej. Należy zatem wyłączyć z zakresu rozporządzenia systemy sztucznej inteligencji opracowane wyłącznie do celów badań naukowych i rozwoju oraz zagwarantować, że rozporządzenie nie będzie w inny sposób wpływało na działalność badawczą i rozwojową w zakresie systemów sztucznej inteligencji. Bez względu na okoliczności wszelką działalność badawczą i rozwojową należy prowadzić zgodnie z Kartą, prawem Unii i prawem krajowym.

Poprawka 12

Wniosek dotyczący rozporządzenia

Motyw 3

Tekst proponowany przez Komisję Poprawka
(3) Sztuczna inteligencja to szybko rozwijająca się grupa technologii, które mogą przyczyniać się do wielu różnych korzyści społecznoekonomicznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Rozwiązania bazujące na sztucznej inteligencji umożliwiają lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, mają potencjał, aby zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wspierać wyniki korzystne z punktu widzenia kwestii społecznych i ochrony środowiska, na przykład w zakresie opieki zdrowotnej, rolnictwa, kształcenia i szkolenia, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej oraz łagodzenia zmiany klimatu i przystosowywania się do niej. (3) Sztuczna inteligencja to szybko rozwijająca się grupa technologii, które mogą przyczyniać się i już przyczyniają się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej, jeżeli będzie ona rozwijana zgodnie z ogólnymi zasadami kompatybilnymi z Kartą i wartościami, na których opiera się Unia. Rozwiązania bazujące na sztucznej inteligencji umożliwiają lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, mają potencjał, aby zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wspierać wyniki korzystne z punktu widzenia kwestii społecznych i ochrony środowiska, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, zarządzania kryzysowego, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odbudowy różnorodności biologicznej oraz łagodzenia zmiany klimatu i przystosowywania się do niej.

Poprawka 13

Wniosek dotyczący rozporządzenia

Motyw 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
(3a) Aby przyczynić się do osiągnięcia celów neutralności pod względem emisji dwutlenku węgla, przedsiębiorstwa europejskie powinny dążyć do wykorzystywania wszystkich dostępnych osiągnięć technologicznych, które mogą pomóc w realizacji tego celu. Sztuczna inteligencja jest technologią, którą można wykorzystywać do przetwarzania stale rosnącej ilości danych powstających w procesach przemysłowych, środowiskowych, zdrowotnych i innych. Aby ułatwić inwestycje w narzędzia analizy i optymalizacji oparte na sztucznej inteligencji, niniejsze rozporządzenie powinno zapewnić przewidywalne i proporcjonalne otoczenie regulacyjne dla rozwiązań przemysłowych niskiego ryzyka.

Poprawka 14

Wniosek dotyczący rozporządzenia

Motyw 4

Tekst proponowany przez Komisję Poprawka
(4) Jednocześnie sztuczna inteligencja może być źródłem ryzyka i szkody dla interesu publicznego i przywilejów chronionych prawem Unii, w zależności od okoliczności dotyczących jej konkretnego zastosowania i wykorzystania. Szkody te mogą być materialne lub niematerialne. (4) Jednocześnie sztuczna inteligencja może być źródłem ryzyka i szkody dla interesu publicznego lub prywatnego i praw podstawowych osób fizycznych, chronionych prawem Unii, w zależności od okoliczności dotyczących jej konkretnego zastosowania i wykorzystania, a także poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne.

Poprawka 15

Wniosek dotyczący rozporządzenia

Motyw 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
(4a) Biorąc pod uwagę istotny wpływ, jaki sztuczna inteligencja może mieć na społeczeństwo, oraz potrzebę budowania zaufania, sztuczną inteligencję i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 TUE, prawami podstawowymi i wolnościami zapisanymi w traktatach, Karcie i międzynarodowym prawie praw człowieka. Warunkiem wstępnym jest to, by sztuczna inteligencja była technologią ukierunkowaną na człowieka. Nie powinna ona zastępować autonomii człowieka ani zakładać utraty wolności jednostki, a przede wszystkim powinna służyć potrzebom społeczeństwa i dobru wspólnemu. Należy przewidzieć zabezpieczenia, aby zapewnić rozwój i wykorzystywanie sztucznej inteligencji zgodnie z zasadami etycznymi oraz wartościami Unii i Karty.

Poprawka 16

Wniosek dotyczący rozporządzenia

Motyw 5

Tekst proponowany przez Komisję Poprawka
(5) Unijne ramy prawne określające zharmonizowane prze- (5) Unijne ramy prawne określające zharmonizowane prze-
pisy dotyczące sztucznej inteligencji są zatem niezbędne do wspierania rozwoju, wykorzystywania i upowszechniania sztucznej inteligencji na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo oraz ochrona praw podstawowych, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu i oddawanie do użytku niektórych systemów sztucznej inteligencji, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i umożliwiając swobodny obrót tymi systemami zgodnie z zasadą swobodnego przepływu towarów i usług. Ustanawiając te zasady, niniejsze rozporządzenie wspiera realizację celu, jakim jest osiągnięcie przez Unię pozycji światowego lidera, jeśli chodzi o rozwój bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji, zgodnie z konkluzjami Rady Europejskiej (33), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym żądaniem Parlamentu Europejskiego (34). pisy dotyczące sztucznej inteligencji są zatem niezbędne do wspierania rozwoju, wykorzystywania i upowszechniania sztucznej inteligencji na rynku wewnętrznym, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony interesów publicznych, takich jak zdrowie i bezpieczeństwo, ochrona praw podstawowych, demokracja, praworządność i środowisko, uznanych i chronionych przez prawo Unii. Aby osiągnąć ten cel, należy ustanowić przepisy regulujące wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie niektórych systemów sztucznej inteligencji, zapewniając w ten sposób sprawne funkcjonowanie rynku wewnętrznego i umożliwiając swobodny obrót tymi systemami zgodnie z zasadą swobodnego przepływu towarów i usług. Przepisy te powinny być jasne i solidne pod względem ochrony praw podstawowych, sprzyjać nowym innowacyjnym rozwiązaniom i tworzeniu europejskiego ekosystemu podmiotów publicznych i prywatnych tworzących systemy sztucznej inteligencji zgodnie z wartościami Unii. Ustanawiając te zasady, a także środki wspierające innowacje, ze szczególnym uwzględnieniem MŚP i przedsiębiorstw typu startup, niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie sztucznej inteligencji tworzonej w Europie, osiągnięcie przez Unię pozycji światowego lidera, jeśli chodzi o rozwój bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji, zgodnie z konkluzjami Rady Europejskiej (33), oraz zapewnia ochronę zasad etycznych, zgodnie z wyraźnym żądaniem Parlamentu Europejskiego (34).
(33) Rada Europejska, Nadzwyczajne posiedzenie Rady Europejskiej (1

i 2 października 2020 r.) - Konkluzje., EUCO 13/20, 2020, s. 6.

(34) Rezolucja Parlamentu Europejskiego z dnia 20 października

2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii, 2020/2012(INL).

(33) Rada Europejska, Nadzwyczajne posiedzenie Rady Europejskiej (1

i 2 października 2020 r.) - Konkluzje., EUCO 13/20, 2020, s. 6.

(34) Rezolucja Parlamentu Europejskiego z dnia 20 października

2020 r. zawierająca zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii, 2020/2012(INL).

Poprawka 17

Wniosek dotyczący rozporządzenia

Motyw 5 a (nowy)

Tekst proponowany przez Komisję Poprawka
(5a) Ponadto, aby wspierać rozwój systemów sztucznej inteligencji zgodnie z wartościami Unii, Unia musi wyeliminować główne luki i bariery blokujące potencjał transformacji cyfrowej, w tym niedobór pracowników posiadających umiejętności cyfrowe, problemy związane z cyberbezpieczeństwem, brak inwestycji i dostępu do inwestycji oraz istniejące i potencjalne luki między dużymi przedsiębiorstwami, MŚP i przedsiębiorstwami typu startup. Szczególną uwagę należy zwrócić na to, aby korzyści płynące ze sztucznej inteligencji i innowacji w zakresie nowych technologii były odczuwalne we wszystkich regionach Unii oraz by zapewnić wystarczające inwestycje i zasoby zwłaszcza tym regionom, które mogą pozostawać w tyle pod względem niektórych wskaźników cyfrowych.

Poprawka 18

Wniosek dotyczący rozporządzenia

Motyw 6

Tekst proponowany przez Komisję Poprawka
(6) Pojęcie systemu sztucznej inteligencji powinno być jasno zdefiniowane w celu zapewnienia pewności prawa, przy jednoczesnym zapewnieniu elastyczności umożliwiającej dostosowanie się do przyszłego rozwoju technologicznego. Podstawę tej definicji powinny stanowić kluczowe cechy funkcjonalne oprogramowania, w szczególności zdolność, przy danym zestawie celów określonych przez człowieka, do generowania wyników takich jak treści, prognozy, zalecenia lub decyzje wpływające na środowisko, z którym system wchodzi w interakcję, czy to w wymiarze fizycznym, czy cyfrowym. Systemy sztucznej inteligencji mogą być zaprojektowane tak, aby działały na różnym poziomie autonomii i mogły być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany). Definicję systemu sztucznej inteligencji powinien uzupełniać wykaz konkretnych technik i podejść stosowanych przy jego opracowywaniu, który to wykaz powinien być aktualizowany w świetle rozwoju sytuacji rynkowej i postępu technologicznego w drodze aktów delegowanych przyjmowanych przez Komisję w celu zmiany tego wykazu. (6) Pojęcie systemu sztucznej inteligencji w niniejszym rozporządzeniu powinno być jasno zdefiniowane i ściśle powiązane z pracami organizacji międzynarodowych zajmujących się sztuczną inteligencją, aby zapewnić pewność prawa, harmonizację i szeroką akceptację, przy jednoczesnym zapewnieniu elastyczności umożliwiającej dostosowanie się do szybkiego rozwoju technologicznego w tej dziedzinie. Powinno ono opierać się na kluczowych cechach sztucznej inteligencji, takich jak jej zdolności w zakresie uczenia się, rozumowania czy modelowania, aby odróżnić ją od prostszych systemów oprogramowania lub podejść do programowania. Systemy sztucznej inteligencji są zaprojektowane tak, aby działały na różnym poziomie autonomii, co oznacza, że są co najmniej w pewnym stopniu niezależne od kontroli ze strony człowieka i zdolne do działania bez interwencji człowieka. Termin "oparty na maszynie" odnosi się do faktu, że systemy sztucznej inteligencji działają z wykorzystaniem maszyn. Odniesienie do wyraźnych lub dorozumianych celów podkreśla, że systemy sztucznej inteligencji mogą działać według celów określonych jasno przez człowieka lub celów dorozumianych. Cele systemu sztucznej inteligencji mogą różnić się od przeznaczenia systemu sztucznej inteligencji w określonym kontekście. Odniesienie do prognoz obejmuje treść, którą w niniejszym rozporządzeniu uznaje się za pewną formę prognozy dotyczącej jednego z możliwych wyników działania systemu sztucznej inteligencji. Do celów niniejszego rozporządzenia środowisko należy rozumieć jako kontekst, w którym działają systemy sztucznej inteligencji, natomiast wyniki działania generowane przez system sztucznej inteligencji, czyli prognozy, zalecenia lub decyzje, odpowiadają celom systemu na podstawie danych wejściowych z tego środowiska. Takie wyniki jeszcze bardziej wpływają na wspomniane środowisko, nawet poprzez zwykłe wprowadzanie do niego nowych informacji.

Poprawka 19

Wniosek dotyczący rozporządzenia

Motyw 6 a (nowy)

Tekst proponowany przez Komisję Poprawka
(6a) Systemy sztucznej inteligencji mają często zdolność do uczenia maszynowego, która pozwala im dostosowywać się i wykonywać nowe zadania autonomicznie. Uczenie maszynowe odnosi się do obliczeniowego procesu optymalizacji parametrów modelu stosowanego do danych, będącego konstruktem matematycznym generującym dane wyjściowe na podstawie danych wejściowych. Mechanizmy uczenia maszynowego obejmują na przykład uczenie nadzorowane, uczenie bez nadzoru i uczenie przez wzmacnianie przy zastosowaniu różnorodnych metod, w tym uczenia głębokiego z wykorzystaniem sieci neuronowych. Niniejsze rozporządzenie ma na celu przeciwdziałanie nowym potencjalnym zagrożeniom, które mogą powstać w wyniku przekazania kontroli systemom sztucznej inteligencji, w szczególności tym, które mogą ewoluować po wdrożeniu. Funkcja i wyniki wielu z tych systemów sztucznej inteligencji opierają się na abstrakcyjnych relacjach matematycznych, które człowiekowi jest trudno zrozumieć, monitorować i powiązać z konkretnymi danymi wejściowymi. Te złożone i nieprzejrzyste cechy (element czarnej skrzynki) mają wpływ na rozliczalność i wy- jaśnialność.Porównywalnie prostsze techniki, takie jak podejścia oparte na wiedzy, estymacja bayesowska lub drzewa decyzyjne, mogą również prowadzić do powstawania luk prawnych, które należy wyeliminować w niniejszym rozporządzeniu, w szczególności gdy są one stosowane w połączeniu z podejściami do uczenia maszynowego w systemach hybrydowych.

Poprawka 20

Wniosek dotyczący rozporządzenia

Motyw 6 b (nowy)

Tekst proponowany przez Komisję Poprawka
(6b) Systemy sztucznej inteligencji mogą być wykorzystywane jako samodzielny system oprogramowania, zintegrowane z produktem fizycznym (wbudowane), wykorzystywane do obsługi funkcjonalności produktu fizycznego, nie będąc z nim zintegrowane (niewbudo- wane), lub wykorzystywane jako komponent większego systemu sztucznej inteligencji. Jeżeli ten większy system nie funkcjonowałby bez danego komponentu sztucznej inteligencji, cały większy system należałoby uznać za jeden system sztucznej inteligencji na mocy niniejszego rozporządzenia.

Poprawka 21

Wniosek dotyczący rozporządzenia

Motyw 7

Tekst proponowany przez Komisję Poprawka
(7) Pojęcie danych biometrycznych stosowane w niniejszym rozporządzeniu jest zgodne z pojęciem danych biometrycznych zdefiniowanym w art. 4 pkt 14 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (35), art. 3 pkt 18 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1725 (36) oraz art. 3 pkt 13 dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/680 i powinno być interpretowane w sposób spójny z tym pojęciem (37). (7) Pojęcie danych biometrycznych stosowane w niniejszym rozporządzeniu jest zgodne z pojęciem danych biometrycznych zdefiniowanym w art. 4 pkt 14 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 (35). Dane oparte na biometrii oznaczają dodatkowe dane wynikające z określonego przetwarzania technicznego powiązanego z sygnałami fizycznymi, fizjologicznymi lub behawioralnymi osoby fizycznej, takimi jak wyraz twarzy, ruchy, puls, głos, sposób pisania na klawiaturze lub chód, które mogą, ale nie muszą, umożliwiać lub potwierdzać niepowtarzalną identyfikację osoby fizycznej;
(35) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679

z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).

(36) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

2018/1725 z dnia 23 października 2018 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez instytucje, organy i jednostki organizacyjne Unii i swobodnego przepływu takich danych oraz uchylenia rozporządzenia (WE) nr 45/2001 i decyzji nr 1247/2002/WE (Dz.U. L 295 z 21.11.2018, s. 39).

(37) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/680

z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylająca decyzję ramową Rady 2008/977/WSiSW (dyrektywa w sprawie egzekwowania prawa) (Dz.U. L 119 z 4.5.2016, s. 89).

(35) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679

z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).

Poprawka 22

Wniosek dotyczący rozporządzenia

Motyw 7 a (nowy)

Tekst proponowany przez Komisję Poprawka
(7a) Pojęcie identyfikacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować jako automatyczne rozpoznawanie fizycznych, fizjologicznych, behawioralnych i psychologicznych cech człowieka, takich jak twarz, ruch gałek ocznych, wyraz twarzy, kształt ciała, głos, mowa, chód, postawa, tętno, ciśnienie krwi, zapach, sposób pisania na klawiaturze, reakcje psychologiczne (gniew, niepokój, smutek itp.) w celu ustalenia tożsamości osoby fizycznej przez porównanie danych biometrycznych tej osoby z przechowywanymi w bazie danych danymi biometrycznymi osób fizycznych (identyfikacja jeden do wielu) niezależnie od tego, czy osoba ta wyraziła na to zgodę.

Poprawka 23

Wniosek dotyczący rozporządzenia

Motyw 7 b (nowy)

Tekst proponowany przez Komisję Poprawka
(7b) Pojęcie kategoryzacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować jako przypisywanie osób fizycznych do określonych kategorii lub odgadywanie ich cech i atrybutów, takich jak płeć społecznokulturowa, płeć biologiczna, wiek, kolor włosów, kolor oczu, tatuaże, pochodzenie etniczne lub społeczne, stan zdrowia, sprawność umysłowa lub fizyczna, cechy dotyczące zachowania bądź osobowości, język, wyznanie, przynależność do mniejszości narodowej, orientacja seksualna bądź polityczna, na podstawie ich danych biometrycznych, danych opartych na ich biometrii lub tego, co można wywnioskować z takich danych.

Poprawka 24

Wniosek dotyczący rozporządzenia

Motyw 8

Tekst proponowany przez Komisję Poprawka
(8) Pojęcie systemu zdalnej identyfikacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować funkcjonalnie jako system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez wcześniejszej wiedzy o tym, czy dana osoba będzie w niej figurować i może zatem zostać zidentyfikowana, niezależnie od konkretnej technologii oraz konkretnych procesów lub rodzajów wykorzystywanych danych biometrycznych. Należy dokonać rozróżnienia między systemami zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" a systemami zdalnej identyfikacji biometrycznej "post factum", biorąc pod uwagę ich różne cechy i sposoby stosowania, a także różne związane z nimi zagrożenia. W przypadku systemów działających "w czasie rzeczywistym" pobranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania przedmiotowych systemów sztucznej inteligencji "w czasie rzeczywistym" poprzez wprowadzenie niewielkich opóźnień. Systemy identyfikacji "w czasie rzeczywistym" obejmują wykorzystanie materiału rejestrowanego "na żywo" lub "w czasie zbliżonym do rzeczywistego", takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji "post factum" dane biometryczne zostały już pobrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub nagrania wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, których rejestracji dokonano, zanim użyto systemu w stosunku do danej osoby fizycznej. (8) Pojęcie systemu zdalnej identyfikacji biometrycznej stosowane w niniejszym rozporządzeniu należy zdefiniować funkcjonalnie jako system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez wcześniejszej wiedzy o tym, czy dana osoba będzie w niej figurować i może zatem zostać zidentyfikowana, niezależnie od konkretnej technologii oraz konkretnych procesów lub rodzajów wykorzystywanych danych biometrycznych, z wyłączeniem systemów weryfikacji, które jedynie porównują dane biometryczne osoby udostępnione wcześniej (jeden do jednego). Należy dokonać rozróżnienia między systemami zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" a systemami zdalnej identyfikacji biometrycznej "post factum", biorąc pod uwagę ich różne cechy i sposoby stosowania, a także różne związane z nimi zagrożenia. W przypadku systemów działających "w czasie rzeczywistym" pobranie danych biometrycznych, porównanie i identyfikacja następują natychmiast, niemal natychmiast lub w każdym razie bez znacznego opóźnienia. W związku z tym nie powinno być możliwości obchodzenia przepisów niniejszego rozporządzenia dotyczących stosowania przedmiotowych systemów sztucznej inteligencji "w czasie rzeczywistym" poprzez wprowadzenie niewielkich opóźnień. Systemy identyfikacji "w czasie rzeczywistym" obejmują wykorzystanie materiału rejestrowanego "na żywo" lub "w czasie zbliżonym do rzeczywistego", takiego jak materiał wideo generowany przez kamerę lub inne urządzenie o podobnej funkcjonalności. Natomiast w przypadku systemów identyfikacji "post factum" dane biometryczne zostały już pobrane, a porównanie i identyfikacja następują ze znacznym opóźnieniem. Dotyczy to materiałów, takich jak zdjęcia lub nagrania wideo generowane przez kamery telewizji przemysłowej lub urządzenia prywatne, których rejestracji dokonano, zanim użyto systemu w stosunku do danej osoby fizycznej. Ponieważ pojęcie identyfikacji biometrycznej nie zależy od zgody danej osoby, definicja ta ma zastosowanie nawet wtedy, gdy w miejscu znajdującym się pod nadzorem systemu zdalnej identyfikacji biometrycznej są umieszczone ostrzeżenia, i nie unieważnia jej tak naprawdę wstępne rejestrowanie.

Poprawka 25

Wniosek dotyczący rozporządzenia

Motyw 8 a (nowy)

Tekst proponowany przez Komisję Poprawka
(8a) Identyfikacja osób fizycznych na odległość jest rozumiana jako odróżnienie systemów zdalnej identyfikacji biometrycznej od systemów weryfikacji indywidualnej z bliska przy użyciu środków identyfikacji biometrycznej, których jedynym celem jest potwierdzenie, czy konkretna osoba fizyczna zgłaszająca się do identyfikacji ma uzyskać zgodę, np. na dostęp do usługi, urządzenia lub lokalu.

Poprawka 26

Wniosek dotyczący rozporządzenia

Motyw 9

Tekst proponowany przez Komisję Poprawka
(9) Do celów niniejszego rozporządzenia pojęcie przestrzeni publicznej należy rozumieć jako odnoszące się do każdego miejsca fizycznego, które jest dostępne dla ogółu osób, niezależnie od tego, czy dane miejsce jest własnością prywatną czy publiczną. Pojęcie to nie obejmuje zatem miejsc, które mają charakter prywatny i zazwyczaj nie są ogólnodostępne dla osób trzecich, w tym organów ścigania, chyba że osoby te wyraźnie zaproszono lub upoważniono do wejścia na dany teren; do takich miejsc zalicza się domy, prywatne kluby, biura, magazyny i fabryki. Przestrzenie internetowe również nie są objęte niniejszym rozporządzeniem, ponieważ nie są to przestrzenie fizyczne. Sam fakt, że mogą obowiązywać jednak pewne warunki dostępu do danej przestrzeni, takie jak bilety wstępu lub ograniczenia wiekowe, nie oznacza, że przestrzeń ta nie jest dostępna publicznie w rozumieniu niniejszego rozporządzenia. W związku z tym oprócz przestrzeni publicznych, takich jak ulice, odpowiednie części budynków rządowych i większość infrastruktury transportowej, publicznie dostępne są zazwyczaj również przestrzenie takie jak kina, teatry, sklepy i centra handlowe. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji. (9) Do celów niniejszego rozporządzenia pojęcie przestrzeni publicznej należy rozumieć jako odnoszące się do każdego miejsca fizycznego, które jest dostępne dla ogółu osób, niezależnie od tego, czy dane miejsce jest własnością prywatną czy publiczną, oraz od potencjalnych ograniczeń pojemności. Pojęcie to nie obejmuje zatem miejsc, które mają charakter prywatny i zazwyczaj nie są ogólnodostępne dla osób trzecich, w tym organów ścigania, chyba że osoby te wyraźnie zaproszono lub upoważniono do wejścia na dany teren; do takich miejsc zalicza się domy, prywatne kluby, biura, magazyny i fabryki. Przestrzenie internetowe również nie są objęte niniejszym rozporządzeniem, ponieważ nie są to przestrzenie fizyczne. Sam fakt, że mogą obowiązywać jednak pewne warunki dostępu do danej przestrzeni, takie jak bilety wstępu lub ograniczenia wiekowe, nie oznacza, że przestrzeń ta nie jest dostępna publicznie w rozumieniu niniejszego rozporządzenia. W związku z tym oprócz przestrzeni publicznych, takich jak ulice, odpowiednie części budynków rządowych i większość infrastruktury transportowej, publicznie dostępne są zazwyczaj również przestrzenie takie jak kina, teatry, tereny sportowe, szkoły, uniwersytety, odpowiednie części szpitali i banków, parki rozrywki, festiwale, sklepy i centra handlowe. To, czy dana przestrzeń jest dostępna publicznie, powinno być jednak ustalane indywidualnie w każdym przypadku, z uwzględnieniem specyfiki danej sytuacji.

Poprawka 27

Wniosek dotyczący rozporządzenia

Motyw 9 a (nowy)

Tekst proponowany przez Komisję Poprawka
(9a) Należy zauważyć, że systemy sztucznej inteligencji powinny podejmować jak największe starania, by przestrzegać ogólnych zasad ustanawiających ramy wysokiego szczebla, które promują spójne, ukierunkowane na człowieka podejście do etycznej i godnej zaufania sztucznej inteligencji, zgodnie z Kartą i wartościami, na których opiera się Unia, w tym ochroną praw podstawowych, przewodnią i nadzorczą rolą człowieka, solidnością techniczną i bezpieczeństwem technicznym, prywatnością i zarządzaniem danymi, przejrzystością, niedyskryminacją i sprawiedliwością oraz dobrostanem społecznym i środowiskowym.

Poprawka 28

Wniosek dotyczący rozporządzenia

Motyw 9 b (nowy)

Tekst proponowany przez Komisję Poprawka
(9b) Pojęcie "kompetencji w zakresie sztucznej inteligencji" odnosi się do umiejętności, wiedzy oraz zrozumienia, które pozwalają dostawcom, obywatelom i zainteresowanym osobom - z uwzględnieniem ich odnośnych praw i obowiązków w kontekście niniejszego rozporządzenia - w przemyślany sposób wdrażać systemy sztucznej inteligencji oraz mieć świadomość, jakie możliwości i zagrożenia wiążą się ze sztuczną inteligencją oraz jakie potencjalne szkody może ona wyrządzić, i dzięki temu promować kontrolę demokratyczną nad tą technologią. Kompetencje w zakresie sztucznej inteligencji nie powinny ograniczać się do uczenia się o narzędziach i technologiach, ale powinny mieć również na celu wyposażenie dostawców i użytkowników w koncepcje i umiejętności wymagane do zapewnienia zgodności z niniejszym rozporządzeniem i jego egzekwowania. Konieczne jest zatem, aby Komisja, państwa członkowskie, a także dostawcy i użytkownicy systemów sztucznej inteligencji, we współpracy ze wszystkimi odpowiednimi zainteresowanymi stronami, propagowali rozwój umiejętności posługiwania się sztuczną inteligencją na wystarczającym poziomie we wszystkich sektorach społeczeństwa, u osób w każdym wieku, w tym wśród kobiet i dziewcząt, oraz aby uważnie obserwowano postępy w tym zakresie.

Poprawka 29

Wniosek dotyczący rozporządzenia

Motyw 10

Tekst proponowany przez Komisję Poprawka
(10) W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów sztucznej inteligencji w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii, czy w państwie trzecim, oraz do użytkowników systemów sztucznej inteligencji mających siedzibę w Unii. (10) W celu zapewnienia równych szans oraz skutecznej ochrony praw i wolności osób fizycznych w całej Unii i na szczeblu międzynarodowym przepisy ustanowione niniejszym rozporządzeniem powinny mieć zastosowanie do dostawców systemów sztucznej inteligencji w sposób niedyskryminacyjny, niezależnie od tego, czy mają oni siedzibę w Unii czy w państwie trzecim, oraz do operatorów systemów sztucznej inteligencji mających siedzibę w Unii. Aby Unia była wierna swoim podstawowym wartościom, systemy sztucznej inteligencji przeznaczone do stosowania w praktykach, które w niniejszym rozporządzeniu uznaje się za niedopuszczalne, należy również uznać za niedopuszczalne poza Unią ze względu na ich szczególnie szkodliwy wpływ na prawa podstawowe zapisane w Karcie. W związku z tym należy zakazać wywozu takich systemów sztucznej inteligencji do państw trzecich przez dostawców mających miejsce zamieszkania w Unii.

Poprawka 30

Wniosek dotyczący rozporządzenia

Motyw 11

Tekst proponowany przez Komisję Poprawka
(11) Ze względu na swój cyfrowy charakter niektóre systemy sztucznej inteligencji powinny zostać objęte zakresem niniejszego rozporządzenia, nawet jeśli nie są wprowadzane do obrotu, oddawane do użytku ani wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca określone usługi operatorowi mającemu siedzibę poza Unią w związku z operacjami, które mają być wykonywane przez system sztucznej inteligencji, który zostałby zakwalifikowany jako system wysokiego ryzyka, a których skutki byłyby odczuwalne przez osoby fizyczne zlokalizowane w Unii. W takich okolicznościach system sztucznej inteligencji wykorzystywany przez operatora spoza Unii mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych, natomiast sam system sztucznej inteligencji nie byłby przedmiotem wprowadzenia do obrotu lub oddania do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i użytkowników systemów sztucznej inteligencji, którzy mają siedzibę w państwie trzecim, w zakresie, w jakim wyniki działania tych systemów wykorzystywane w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejsze rozporządzenie nie powinno mieć zastosowania do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach zawartych na szczeblu krajowym lub europejskim umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub jej państwami członkowskimi. Takie umowy zostały zawarte dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami UE a państwami trzecimi i organizacjami międzynarodowymi. (11) Ze względu na swój cyfrowy charakter niektóre systemy sztucznej inteligencji powinny zostać objęte zakresem niniejszego rozporządzenia, nawet jeśli nie są wprowadzane do obrotu, oddawane do użytku ani wykorzystywane w Unii. Dotyczy to na przykład operatora mającego siedzibę w Unii, który zleca określone usługi operatorowi mającemu siedzibę poza Unią w związku z operacjami, które mają być wykonywane przez system sztucznej inteligencji, który zostałby zakwalifikowany jako system wysokiego ryzyka, a których skutki byłyby odczuwalne przez osoby fizyczne zlokalizowane w Unii. W takich okolicznościach system sztucznej inteligencji wykorzystywany przez operatora spoza Unii mógłby przetwarzać dane, które legalnie zgromadzono w Unii i przekazano poza Unię, oraz przekazywać zlecającemu operatorowi z Unii wynik przetwarzania tych danych, natomiast sam system sztucznej inteligencji nie byłby przedmiotem wprowadzenia do obrotu lub oddania do użytku w Unii ani nie byłby w Unii wykorzystywany. Aby zapobiec obchodzeniu przepisów niniejszego rozporządzenia oraz zapewnić skuteczną ochronę osób fizycznych znajdujących się w Unii, niniejsze rozporządzenie powinno mieć również zastosowanie do dostawców i operatorów systemów sztucznej inteligencji, którzy mają siedzibę w państwie trzecim, w zakresie, w jakim wyniki działania tych systemów mają być wykorzystywane w Unii. Aby uwzględnić jednak istniejące ustalenia i szczególne potrzeby w zakresie współpracy z partnerami zagranicznymi, z którymi wymienia się informacje i dowody, niniejsze rozporządzenie nie powinno mieć zastosowania do organów publicznych państwa trzeciego i organizacji międzynarodowych działających w ramach zawartych na szczeblu krajowym lub europejskim umów międzynarodowych o współpracy organów ścigania i wymiarów sprawiedliwości z Unią lub jej państwami członkowskimi. Takie umowy zostały zawarte dwustronnie między państwami członkowskimi a państwami trzecimi lub między Unią Europejską, Europolem i innymi agencjami UE a państwami trzecimi i organizacjami międzynarodowymi. Wyjątek ten powinien jednak ograniczać się do zaufanych państw i organizacji międzynarodowych, które podzielają wartości Unii.

Poprawka 31

Wniosek dotyczący rozporządzenia

Motyw 12

Tekst proponowany przez Komisję Poprawka
(12) Niniejsze rozporządzenie powinno mieć również zastosowanie do instytucji, urzędów, organów i agencji Unii, gdy działają one jako dostawca lub użytkownik systemu sztucznej inteligencji. Systemy sztucznej inteligencji opracowywane lub wykorzystywane wyłącznie do celów wojskowych powinny zostać wyłączone z zakresu stosowania niniejszego rozporządzenia, jeżeli takie wykorzystanie wchodzi w zakres wyłącznych kompetencji wspólnej polityki zagranicznej i bezpieczeństwa regulowanej na mocy tytułu V Traktatu o Unii Europejskiej (TUE). Niniejsze rozporządzenie nie powinno naruszać przepisów dotyczących odpowiedzialności usługodawców będących pośrednikami, określonych w dyrektywie 2000/31/WE Parlamentu Europejskiego i Rady [zmienionej aktem prawnym o usługach cyfrowych]. (12) Niniejsze rozporządzenie powinno mieć również zastosowanie do instytucji, urzędów, organów i agencji Unii, gdy działają one jako dostawca lub operator systemu sztucznej inteligencji. Systemy sztucznej inteligencji opracowywane lub wykorzystywane wyłącznie do celów wojskowych powinny zostać wyłączone z zakresu stosowania niniejszego rozporządzenia, jeżeli takie wykorzystanie wchodzi w zakres wyłącznych kompetencji wspólnej polityki zagranicznej i bezpieczeństwa regulowanej na mocy tytułu V Traktatu o Unii Europejskiej (TUE). Niniejsze rozporządzenie nie powinno naruszać przepisów dotyczących odpowiedzialności usługodawców będących pośrednikami, określonych w dyrektywie 2000/31/WE Parlamentu Europejskiego i Rady [zmienionej aktem prawnym o usługach cyfrowych].

Poprawka 32

Wniosek dotyczący rozporządzenia

Motyw 12 a (nowy)

Tekst proponowany przez Komisję Poprawka
(12a) Oprogramowanie i dane lub ich zmodyfikowane wersje, które są bezpłatnie dostępne dla każdego, do których użytkownicy mogą uzyskiwać swobodny dostęp, z których mogą korzystać oraz które mogą modyfikować i rozpowszechniać, mogą zapewnić wkład w badania naukowe i innowacje na rynku. Z badań przeprowadzonych przez Komisję wynika również, że wolne i otwarte oprogramowanie może wnieść od 65 mld EUR do 95 mld EUR do PKB Unii Europejskiej i stworzyć znaczne możliwości wzrostu dla europejskiej gospodarki. Użytkownicy mogą uruchamiać, rozpowszechniać, badać, zmieniać i ulepszać oprogramowanie i dane, w tym modele, na podstawie wolnych i otwartych licencji. Aby wspierać rozwój i wdrażanie sztucznej inteligencji, w szczególności przez MŚP, przedsiębiorstwa typu startup, badaczy naukowych, ale również przez osoby fizyczne, niniejsze rozporządzenie nie powinno mieć zastosowania do takich wolnych i otwartych komponentów sztucznej inteligencji, chyba że są one wprowadzane do obrotu lub oddawane do użytku przez dostawcę jako część systemu sztucznej inteligencji wysokiego ryzyka lub systemu sztucznej inteligencji objętego tytułem II lub IV niniejszego rozporządzenia.

Poprawka 33

Wniosek dotyczący rozporządzenia

Motyw 12 b (nowy)

Tekst proponowany przez Komisję Poprawka
(12b) Oparty na współpracy rozwój wolnych i otwartych komponentów sztucznej inteligencji ani udostępnianie ich w otwartych repozytoriach nie powinny stanowić wprowadzania do obrotu ani wprowadzania do użytku. Działalność handlowa rozumiana jako udostępnianie na rynku może jednak charakteryzować się pobieraniem opłaty, z wyjątkiem transakcji między mikroprzedsię- biorstwami, za wolny i otwarty komponent sztucznej inteligencji, a także pobieraniem opłaty za usługi wsparcia technicznego, udostępnianiem platformy oprogramowania, za pośrednictwem której dostawca czerpie zyski z innych usług, lub wykorzystywaniem danych osobowych z powodów innych niż tylko poprawa bezpieczeństwa, kompatybilności czy interoperacyjności oprogramowania.

Poprawka 34

Wniosek dotyczący rozporządzenia Motyw 12 c (nowy)

Tekst proponowany przez Komisję Poprawka
(12c) Twórcy wolnych i otwartych komponentów sztucznej inteligencji nie powinny być zobowiązani na mocy niniejszego rozporządzenia do spełniania wymogów dotyczących łańcucha wartości sztucznej inteligencji, a w szczególności nie wobec dostawcy, który wykorzystał ten wolny i otwarty komponent sztucznej inteligencji. Należy jednak zachęcać twórców wolnych i otwartych komponentów sztucznej inteligencji do wdrażania powszechnie przyjętych praktyk w zakresie dokumentacji, takich jak modele i karty danych, jako sposobu na przyspieszenie wymiany informacji w całym łańcuchu wartości sztucznej inteligencji, co umożliwi promowanie wiarygodnych systemów sztucznej inteligencji w Unii.

Poprawka 35

Wniosek dotyczący rozporządzenia

Motyw 13

Tekst proponowany przez Komisję Poprawka
(13) W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych należy ustanowić wspólne standardy normatywne dla wszystkich systemów sztucznej inteligencji wysokiego ryzyka. Standardy te powinny być zgodne z Kartą praw podstawowych Unii Europejskiej ("Karta") oraz powinny być niedyskrymi- nacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii. (13) W celu zapewnienia spójnego i wysokiego poziomu ochrony interesów publicznych w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych, a także demokracji, praworządności i środowiska, należy ustanowić wspólne standardy normatywne dla wszystkich systemów sztucznej inteligencji wysokiego ryzyka. Standardy te powinny być zgodne z Kartą, Europejskim Zielonym Ładem, Wspólną deklaracją UE w sprawie praw cyfrowych i Wytycznymi w zakresie etyki dotyczącymi godnej zaufania sztucznej inteligencji, które opracowała grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, oraz powinny być niedyskryminacyjne i zgodne z międzynarodowymi zobowiązaniami handlowymi Unii.

Poprawka 36

Wniosek dotyczący rozporządzenia

Motyw 14

Tekst proponowany przez Komisję Poprawka
(14) Aby wprowadzić proporcjonalny i skuteczny zestaw wiążących zasad dotyczących systemów sztucznej inteligencji, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich zasad do intensywności i zakresu zagrożeń, jakie mogą powodować systemy sztucznej inteligencji. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych praktyk z zakresu sztucznej inteligencji, określenie wymogów w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz określenie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów sztucznej inteligencji. (14) Aby wprowadzić proporcjonalny i skuteczny zestaw wiążących zasad dotyczących systemów sztucznej inteligencji, należy zastosować jasno określone podejście oparte na analizie ryzyka. Takie podejście powinno polegać na dostosowywaniu rodzaju i treści takich zasad do intensywności i zakresu zagrożeń, jakie mogą powodować systemy sztucznej inteligencji. Konieczne jest zatem wprowadzenie zakazu stosowania niektórych niedopuszczalnych praktyk z zakresu sztucznej inteligencji, określenie wymogów w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka i obowiązków spoczywających na odpowiednich operatorach oraz określenie obowiązków w zakresie przejrzystości w odniesieniu do niektórych systemów sztucznej inteligencji.

Poprawka 37

Wniosek dotyczący rozporządzenia

Motyw 15

Tekst proponowany przez Komisję Poprawka
(15) Oprócz wielu korzystnych zastosowań sztucznej inteligencji technologia ta może być również niewłaściwie wykorzystywana i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wykorzystywania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi Unii, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka. (15) Oprócz wielu korzystnych zastosowań sztucznej inteligencji technologia ta może być również niewłaściwie wykorzystywana i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wykorzystywania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe oraz stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi Unii, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka.

Poprawka 38

Wniosek dotyczący rozporządzenia

Motyw 16

Tekst proponowany przez Komisję Poprawka
(16) Należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania niektórych systemów sztucznej inteligencji mających na celu zniekształcenie ludzkiego zachowania, co w rezultacie może prowadzić do wystąpienia szkód fizycznych lub psychicznych. Takie systemy sztucznej inteligencji wykorzystują mechanizmy podprogowe, których osoby fizyczne nie są w stanie dostrzec, lub wykorzystują słabości dzieci i innych osób ze względu na ich wiek, niepełnosprawność fizyczną lub umysłową. Czynią to z zamiarem istotnego zniekształcenia zachowania danej osoby i w sposób, który powoduje lub może powodować szkodę dla tej lub innej osoby. Istnienia takiego zamiaru nie można zakładać wówczas, gdy zniekształcenie ludzkiego zachowania wynika z czynników zewnętrznych w stosunku do systemu sztucznej inteligencji, które pozostają poza kontrolą dostawcy lub użytkownika. Zakaz ten nie powinien hamować badań prowadzonych w uzasadnionych celach w odniesieniu do takich systemów sztucznej inteligencji, jeżeli badania te nie prowadzą do takiego wykorzystania systemu sztucznej inteligencji w relacjach człowiek-maszyna, które naraża osoby fizyczne na szkodę, a przy tym są prowadzone zgodnie z uznanymi normami etycznymi dotyczącymi badań naukowych. (16) Należy zakazać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania niektórych systemów sztucznej inteligencji mającego na celu istotne zniekształcenie ludzkiego zachowania lub skutkującego istotnym zniekształceniem ludzkiego zachowania, co w rezultacie może prowadzić do wystąpienia szkód fizycznych lub psychicznych. Ograniczenie to należy rozumieć jako obejmujące neurotechnologie wspomagane przez systemy sztucznej inteligencji, które są wykorzystywane do monitorowania i wykorzystywania danych neuronowych gromadzonych za pośrednictwem interfejsów mózg-komputer lub wpływania na nie, o ile zniekształcają one istotnie zachowanie osoby fizycznej w sposób, który wyrządza lub może wyrządzić tej lub innej osobie poważną szkodę. Takie systemy sztucznej inteligencji wykorzystują mechanizmy podprogowe, których osoby fizyczne nie są w stanie dostrzec, lub wykorzystują słabości osób i konkretnych grup osób ze względu na ich znane lub przewidywane cechy osobowe, takie jak wiek, niepełnosprawność fizyczna lub umysłowa czy sytuacja społeczna lub ekonomiczna. Czynią to z zamiarem istotnego zniekształcenia zachowania danej osoby lub skutkują istotnym zniekształceniem zachowania danej osoby, w sposób, który powoduje lub może powodować poważną szkodę dla tej lub innej osoby lub grup osób, w tym szkody, które mogą kumulować się w czasie. Istnienia zamiaru zniekształcenia zachowania nie można zakładać wówczas, gdy zniekształcenie ludzkiego zachowania wynika z czynników zewnętrznych w stosunku do systemu sztucznej inteligencji, które pozostają poza kontrolą dostawcy lub użytkownika, np. czynników, których dostawca lub operator systemu sztucznej inteligencji nie może racjonalnie przewidzieć ani złagodzić. W każdym razie nie jest konieczne, aby dostawca lub operator systemu sztucznej inteligencji zamierzał wyrządzić poważną szkodę, o ile szkoda ta wynika z praktyk manipulacyjnych lub praktyk wykorzystujących sztuczną inteligencję. Zakazy dotyczące takich praktyk w zakresie sztucznej inteligencji stanowią uzupełnienie przepisów dyrektywy 2005/29/WE, zgodnie z którymi nieuczciwe praktyki handlowe są zakazane niezależnie od tego, czy dochodzi do nich z użyciem systemów sztucznej inteligencji czy w inny sposób. W takim przypadku zgodne z prawem praktyki handlowe, na przykład w dziedzinie reklamy, które są zgodne z prawem Unii, nie powinny być same w sobie uznawane za naruszające zakaz. Zakaz ten nie powinien hamować badań prowadzonych w uzasadnionych celach w odniesieniu do takich systemów sztucznej inteligencji, jeżeli badania te nie prowadzą do takiego wykorzystania systemu sztucznej inteligencji w relacjach człowiek-ma- szyna, które naraża osoby fizyczne na szkodę, a przy tym są prowadzone zgodnie z uznanymi normami etycznymi dotyczącymi badań naukowych i na podstawie wyraźniej i świadomej zgody osób, które są narażone na te systemy, a w stosownych przypadkach ich opiekuna prawnego.

Poprawka 39

Wniosek dotyczący rozporządzenia

Motyw 16 a (nowy)

Tekst proponowany przez Komisję Poprawka
(16a) Systemy sztucznej inteligencji, które kategoryzują osoby fizyczne poprzez przypisanie ich do określonych kategorii, zgodnie ze znanymi lub wywnioskowanymi wrażliwymi lub chronionymi cechami, są szczególnie inwazyjne, naruszają godność ludzką i wiążą się z dużym ryzykiem dyskryminacji. Takie cechy obejmują płeć, tożsamość płciową, rasę, pochodzenie etniczne, status migracyjny lub obywatelstwo, poglądy polityczne, orientację seksualną, wyznanie, niepełnosprawność lub wszelkie inne powody, z których dyskryminacja jest zakazana na mocy art. 21 Karty oraz art. 9 rozporządzenia (UE) 2016/769. Takie systemy należy zatem objąć zakazem.

Poprawka 40

Wniosek dotyczący rozporządzenia

Motyw 17

Tekst proponowany przez Komisję Poprawka
(17) Systemy sztucznej inteligencji, które umożliwiają prowadzenie przez organy publiczne lub w ich imieniu oceny punktowej zachowań społecznych osób fizycznych do celów ogólnych, mogą prowadzić do dyskryminacyjnych wyników i wykluczenia pewnych grup. Mogą one naruszać prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy sztucznej inteligencji oceniają lub klasyfikują wiarygodność osób fizycznych na podstawie ich zachowań społecznych w wielu kontekstach lub na podstawie znanych lub przewidywanych cech osobistych lub cech osobowości. Ocena społeczna wystawiona przez takie systemy sztucznej inteligencji może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Takie systemy sztucznej inteligencji należy zatem zakazać. (17) Systemy sztucznej inteligencji, które umożliwiają prowadzenie oceny punktowej zachowań społecznych osób fizycznych do celów ogólnych, mogą prowadzić do dyskryminacyjnych wyników i wykluczenia pewnych grup. Naruszają one prawo do godności i niedyskryminacji oraz wartości, jakimi są równość i sprawiedliwość. Takie systemy sztucznej inteligencji oceniają lub klasyfikują osoby fizyczne lub grupy na podstawie wielu punktów danych i wystąpień w czasie dotyczących ich zachowań społecznych w wielu kontekstach lub na podstawie znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości. Ocena społeczna wystawiona przez takie systemy sztucznej inteligencji może prowadzić do krzywdzącego lub niekorzystnego traktowania osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstem, w którym pierwotnie wygenerowano lub zgromadzono dane, lub do krzywdzącego traktowania, które jest nieproporcjonalne lub nieuzasadnione w stosunku do wagi ich zachowań społecznych. Takie systemy sztucznej inteligencji należy zatem zakazać.

Poprawka 41

Wniosek dotyczący rozporządzenia

Motyw 18

Tekst proponowany przez Komisję Poprawka
(18) Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa uważa się za szczególnie ingerujące w prawa i wolności zainteresowanych osób w zakresie, ponieważ może wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających "w czasie rzeczywistym" niosą ze sobą zwiększone ryzyko dla praw i wolności osób, których dotyczą działania organów ścigania. (18) Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych "w czasie rzeczywistym" w przestrzeni publicznej jest szczególnie ingerujące w prawa i wolności zainteresowanych osób i może ostatecznie wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru, dawać stronom wprowadzającym identyfikację biometryczną w przestrzeni publicznej pozycję niepod- legającą kontroli i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych stanowiących podstawę praworządności. Techniczne niedokładności systemów sztucznej inteligencji przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Jest to szczególnie istotne, jeżeli chodzi o wiek, pochodzenie etniczne, płeć lub niepełnosprawność. Ponadto bezpośredniość oddziaływania i ograniczone możliwości późniejszej kontroli lub korekty wykorzystania takich systemów działających "w czasie rzeczywistym" niosą ze sobą zwiększone ryzyko dla praw i wolności osób, których dotyczą działania organów ścigania. Wykorzystanie tych systemów powinno zatem być zabronione w miejscach dostępnych publicznie. Podobnie systemy sztucznej inteligencji wykorzystywane do analizy zapisu obrazu z przestrzeni publicznej za pośrednictwem systemów zdalnej identyfikacji biometrycznej "post factum" również powinny być zabronione, chyba że sąd wydał wcześniej zgodę na wykorzystanie w kontekście egzekwowania prawa, jeżeli jest to absolutnie niezbędne do ukierunkowanego wyszukiwania związanego z konkretnym poważnym przestępstwem, które już miało miejsce, i wyłącznie pod warunkiem uzyskania uprzedniej zgody sądu.

Poprawka 42

Wniosek dotyczący rozporządzenia

Motyw 19

Tekst proponowany przez Komisję Poprawka
(19) Wykorzystanie tych systemów do celów egzekwowania prawa powinno zatem być zabronione, z wyjątkiem zamkniętej listy trzech wąsko zdefiniowanych sytuacji, w których wykorzystanie jest absolutnie konieczne do realizacji istotnego interesu publicznego, którego waga przeważa nad ryzykiem. Sytuacje te obejmują poszukiwanie potencjalnych ofiar przestępstw, w tym zaginionych dzieci; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu; oraz wykrywanie, lokalizowanie, identyfikowanie lub ściganie sprawców przestępstw lub podejrzanych o popełnienie przestępstw, o których mowa w decyzji ramowej Rady 2002/584/WSiSW (38), jeżeli przestępstwa te podlegają w danym państwie członkowskim karze pozbawienia wolności lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata, i zostały zdefiniowane w prawie danego państwa członkowskiego. Taki próg kary pozbawienia wolności lub środka zabezpieczającego polegającego na pozbawieniu wolności zgodnie z prawem krajowym pozwala zapewnić, aby przestępstwo było na tyle poważne, by potencjalnie uzasadniać wykorzystanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym". Ponadto spośród 32 przestępstw wymienionych w decyzji ramowej Rady 2002/584/WSiSW niektóre mogą w praktyce mieć większe znaczenie niż inne, ponieważ można przewidzieć, że korzystanie ze zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" będzie w bardzo różnym stopniu konieczne i proporcjonalne do praktycznych celów wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy poszczególnych wymienionych przestępstw lub podejrzanego o popełnienie tych przestępstw, przy uwzględnieniu prawdopodobnych różnic w odniesieniu do powagi, prawdopodobieństwa i skali szkody lub ewentualnych negatywnych konsekwencji. skreśla się
(38) Decyzja ramowa Rady 2002/584/WSiSW z dnia 13 czerwca 2002 r. w sprawie europejskiego nakazu aresztowania i procedury wydawania osób między państwami członkowskimi (Dz.U. L 190 z 18.7.2002, s. 1).

Poprawka 43

Wniosek dotyczący rozporządzenia

Motyw 20

Tekst proponowany przez Komisję Poprawka
(20) W celu zapewnienia, aby systemy te były wykorzystywane w sposób odpowiedzialny i proporcjonalny, należy również zastrzec, że w każdej z tych trzech wąsko zdefiniowanych sytuacji z zamkniętej listy należy uwzględniać pewne elementy, w szczególności charakter sytuacji, która skutkowała złożeniem wniosku, wpływ korzystania z takich systemów na prawa i wolności wszystkich zainteresowanych osób, a także zabezpieczenia i warunki przewidziane w związku z korzystaniem z takich systemów. Ponadto wykorzystanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa powinno podlegać odpowiednim ograniczeniom w czasie i przestrzeni, z uwzględnieniem w szczególności dowodów lub wskazówek dotyczących zagrożeń, ofiar lub sprawcy. Referencyjna baza danych osób powinna być odpowiednia dla każdego przypadku użycia w każdej z trzech wyżej wymienionych sytuacji. skreśla się

Poprawka 44

Wniosek dotyczący rozporządzenia

Motyw 21

Tekst proponowany przez Komisję Poprawka
(21) Każde użycie systemu zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa powinno podlegać wyraźnemu i szczegółowemu zezwoleniu wydanemu przez organ sądowy lub niezależny organ administracyjny państwa członkowskiego. Takie zezwolenie należy zasadniczo uzyskać przed rozpoczęciem korzystania z systemu, z wyjątkiem należycie uzasadnionych sytuacji nagłych, to znaczy sytuacji, w których potrzeba skorzystania z danego systemu jest na tyle duża, że uzyskanie zezwolenia przed rozpoczęciem korzystania jest faktycznie i obiektywnie niemożliwe. W takich sytuacjach nagłych wykorzystanie powinno być ograniczone do absolutnie niezbędnego minimum i powinno podlegać odpowiednim zabezpieczeniom i warunkom określonym w prawie krajowym i sprecyzowanym w kontekście każdego przypadku pilnego użycia przez sam organ ścigania. Ponadto organ ścigania powinien w takich sytuacjach dążyć do jak najszybszego uzyskania zezwolenia, podając jednocześnie powody, dla których nie mógł wystąpić o nie wcześniej. skreśla się

Poprawka 45

Wniosek dotyczący rozporządzenia

Motyw 22

Tekst proponowany przez Komisję Poprawka
(22) Ponadto należy zapewnić, w wyczerpujących ramach określonych w niniejszym rozporządzeniu, aby takie wykorzystanie na terytorium państwa członkowskiego zgodnie z niniejszym rozporządzeniem było możliwe tylko wówczas gdy -iw zakresie, w jakim - dane państwo członkowskie postanowiło wyraźnie przewidzieć możliwość zezwolenia na takie wykorzystanie w swoich szczegółowych przepisach prawa krajowego. W związku z tym państwa członkowskie mogą na mocy niniejszego rozporządzenia w ogóle nie przewidywać takiej możliwości lub przewidzieć ją jedynie w odniesieniu do niektórych celów mogących uzasadniać dozwolone wykorzystanie, określonych w niniejszym rozporządzeniu. skreśla się

Poprawka 46

Wniosek dotyczący rozporządzenia

Motyw 23

Tekst proponowany przez Komisję Poprawka
(23) Wykorzystanie systemów sztucznej inteligencji do zdalnej identyfikacji biometrycznej osób fizycznych "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa nieuchronnie wiąże się z przetwarzaniem danych biometrycznych. Przepisy niniejszego rozporządzenia zakazujące, z zastrzeżeniem pewnych wyjątków, takiego wykorzystywania, a których podstawę stanowi art. 16 TFUE, powinny mieć zastosowanie jako lex specialis w odniesieniu do przepisów dotyczących przetwarzania danych biometrycznych zawartych w art. 10 dyrektywy (UE) 2016/680, regulując tym samym w sposób wyczerpujący takie wykorzystywanie i przetwarzanie wspomnianych danych biometrycznych. W związku z tym takie wykorzystywanie i przetwarzanie powinno być możliwe wyłącznie w zakresie, w jakim jest zgodne z ramami określonymi w niniejszym rozporządzeniu, przy czym stosowanie takich systemów i przetwarzanie odnośnych danych przez właściwe organy - gdy działają w celu egzekwowania prawa - w oparciu o przesłanki wymienione w art. 10 dyrektywy (UE) 2016/680 może mieć miejsce wyłącznie w granicach nakreślonych przez te ramy. W tym kontekście niniejsze rozporządzenie nie ma na celu zapewnienia podstawy prawnej do przetwarzania danych osobowych na podstawie art. 8 dyrektywy (UE) 2016/680. Wykorzystywanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów innych niż egzekwowanie prawa, w tym przez właściwe organy, nie powinno być jednak objęte szczegółowymi ramami dotyczącymi takiego wykorzystywania do celów egzekwowania prawa, określonymi w niniejszym rozporządzeniu. Takie wykorzystywanie do celów innych niż egzekwowanie prawa nie powinno zatem podlegać wymogowi uzyskania zezwolenia na mocy niniejszego rozporządzenia i obowiązujących szczegółowych przepisów prawa krajowego, które mogą stanowić podstawę jego wykonania. skreśla się

Poprawka 47

Wniosek dotyczący rozporządzenia

Motyw 24

Tekst proponowany przez Komisję Poprawka
(24) Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane ze stosowaniem systemów sztucznej inteligencji do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa zgodnie z przepisami niniejszego rozporządzenia, w tym w przypadku gdy systemy te są stosowane przez właściwe organy w przestrzeni publicznej do celów innych niż egzekwowanie prawa, powinno nadal spełniać wszystkie wymogi wynikające, stosownie do przypadku, z art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 ust. 1 rozporządzenia (UE) 2018/1725 oraz art. 10 dyrektywy (UE) 2016/680. (24) Wszelkie przetwarzanie danych biometrycznych i innych danych osobowych związane ze stosowaniem systemów sztucznej inteligencji do identyfikacji biometrycznej, inne niż w związku z wykorzystywaniem systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej zgodnie z przepisami niniejszego rozporządzenia powinno nadal spełniać wszystkie wymogi wynikające, stosownie do przypadku, z art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 ust. 1 rozporządzenia (UE) 2018/1725 oraz art. 10 dyrektywy (UE) 2016/680.

Poprawka 48

Wniosek dotyczący rozporządzenia

Motyw 25

Tekst proponowany przez Komisję Poprawka
(25) Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami określonymi w art. 5 ust. 1 lit. d) oraz art. 5 ust. 2 i 3 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy przestrzegać przepisów ustanowionych na podstawie art. 16 TFUE. (25) Zgodnie z art. 6a Protokołu nr 21 w sprawie stanowiska Zjednoczonego Królestwa i Irlandii w odniesieniu do przestrzeni wolności, bezpieczeństwa i sprawiedliwości, załączonego do TUE i TFUE, Irlandia nie jest związana przepisami określonymi w art. 5 ust. 1 lit. d) niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, dotyczącymi przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, jeśli Irlandia nie jest związana przepisami Unii w dziedzinie współpracy wymiarów sprawiedliwości w sprawach karnych lub współpracy policyjnej, w ramach której należy przestrzegać przepisów ustanowionych na podstawie art. 16 TFUE.

Poprawka 49

Wniosek dotyczący rozporządzenia

Motyw 26

Tekst proponowany przez Komisję Poprawka
(26) Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami określonymi w art. 5 ust. 1 lit. d) oraz art. 5 ust. 2 i 3 niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania. (26) Zgodnie z art. 2 i 2a Protokołu nr 22 w sprawie stanowiska Danii, załączonego do TUE i TFUE, Dania nie jest związana przepisami art. 5 ust. 1 lit. d) niniejszego rozporządzenia przyjętymi na podstawie art. 16 TFUE, które dotyczą przetwarzania danych osobowych przez państwa członkowskie w wykonywaniu działań wchodzących w zakres zastosowania części trzeciej tytuł V rozdziały 4 lub 5 TFUE, ani przepisy te nie mają do niej zastosowania.

Poprawka 50

Wniosek dotyczący rozporządzenia

Motyw 26 a (nowy)

Tekst proponowany przez Komisję Poprawka
(26a) Systemy sztucznej inteligencji stosowane przez organy ścigania lub w ich imieniu do sporządzania prognoz, profili lub ocen ryzyka w oparciu o profilowanie osób fizycznych lub analizę danych bazującą na cechach osobowości i charakterystyce, łącznie z lokalizacją danej osoby, lub na zachowaniu przestępnym osób fizycznych lub grup osób w przeszłości do celów przewidywania wystąpienia lub ponownego wystąpienia faktycznego lub potencjalnego przestępstwa lub innego karalnego zachowania społecznego lub wykroczenia o charakterze administracyjnym, łącznie z systemami przewidywania oszustw, wiążą się ze szczególnym ryzykiem dyskryminacji niektórych osób lub grup osób, ponieważ naruszają godność ludzką, a także kluczową zasadę prawną domniemania niewinności. Takie systemy sztucznej inteligencji powinny być zatem zabronione.

Poprawka 51

Wniosek dotyczący rozporządzenia

Motyw 26 b (nowy)

Tekst proponowany przez Komisję Poprawka
(26b) Masowe i nieukierunkowane pozyskiwanie danych biometrycznych z mediów społecznościowych lub nagrań telewizji przemysłowej w celu stworzenia lub rozszerzenia baz danych służących rozpoznawaniu twarzy zwiększa poczucie masowej inwigilacji i może prowadzić do rażących naruszeń praw podstawowych, w tym prawa do prywatności. Wykorzystywanie systemów sztucznej inteligencji z takim zamiarem powinno zatem być zabronione.

Poprawka 52

Wniosek dotyczący rozporządzenia

Motyw 26 c (nowy)

Tekst proponowany przez Komisję Poprawka
(26c) Istnieją poważne obawy co do naukowych podstaw systemów sztucznej inteligencji mających wykrywać emocje oraz cechy fizyczne lub fizjologiczne takie jak mimika twarzy, ruchy, puls czy głos. Emocje czy sposób ich wyrażania i postrzegania różnią się znacznie w zależności od kultury i sytuacji, nawet u tej samej osoby. Do najpoważniejszych niedociągnięć takich technologii należą: ograniczona wiarygodność (kategorie emocji nie są ani wiarygodnie wyrażane, ani jednoznacznie kojarzone ze wspólnym zbiorem ruchów fizycznych lub fizjologicznych), brak swoistości (ekspresja fizyczna czy fizjologiczna nie w pełni odpowiada kategoriom emocji) oraz ograniczona możliwość uogólnienia (wpływ kontekstu i kultury nie jest wystarczająco uwzględniany). Problemy z wiarygodnością, a w konsekwencji poważne ryzyko nadużyć, mogą pojawić się w szczególności podczas wdrażania systemu w rzeczywistych sytuacjach związanych z egzekwowaniem prawa, zarządzaniem granicami, miejscem pracy i instytucjami edukacyjnymi. Dlatego trzeba zakazać wprowadzania do obrotu, oddawania do użytku czy wykorzystywania systemów sztucznej inteligencji przeznaczonych do wykrywania stanu emocjonalnego, osób w takich sytuacjach.

Poprawka 53

Wniosek dotyczący rozporządzenia

Motyw 26 d (nowy)

Tekst proponowany przez Komisję Poprawka
(26d) Niniejsze rozporządzenie nie powinno mieć wpływu na praktyki, które są zakazane na mocy przepisów unijnych, w tym prawa o ochronie danych, prawa o niedyskryminacji, prawa o ochronie konsumentów i prawa konkurencji.

Poprawka 54

Wniosek dotyczący rozporządzenia

Motyw 27

Tekst proponowany przez Komisję Poprawka
(27) Systemy sztucznej inteligencji wysokiego ryzyka powinny być wprowadzane do obrotu w Unii lub oddawane do użytku wyłącznie wówczas, gdy spełniają określone obowiązkowe wymogi. Wymogi te powinny zapewniać, aby systemy sztucznej inteligencji wysokiego ryzyka dostępne w Unii lub takie, których wyniki działania są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez nie chronionych. Klasyfikację systemów sztucznej inteligencji jako systemów wysokiego ryzyka należy ograniczyć do tych systemów, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym, o ile występują. (27) Systemy sztucznej inteligencji wysokiego ryzyka powinny być wprowadzane do obrotu w Unii, oddawane do użytku lub użytkowane wyłącznie wówczas, gdy spełniają określone obowiązkowe wymogi. Wymogi te powinny zapewniać, aby systemy sztucznej inteligencji wysokiego ryzyka dostępne w Unii lub takie, których wyniki działania są w inny sposób wykorzystywane w Unii, nie stwarzały niedopuszczalnego ryzyka dla istotnych interesów publicznych Unii uznanych w prawie Unii i przez nie chronionych, w tym praw podstawowych, demokracji, praworządności i środowiska. Aby zapewnić dostosowanie do przepisów sektorowych i unikać powielania, wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka powinny uwzględniać przepisy sektorowe, które określają wymogi w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka objętych niniejszym rozporządzeniem, takie jak rozporządzenie (UE) 2017/745 w sprawie wyrobów medycznych i rozporządzenie (UE) 2017/746 w sprawie wyrobów do diagnostyki in vitro czy dyrektywa 2006/42/WE w sprawie maszyn. Klasyfikację systemów sztucznej inteligencji jako systemów wysokiego ryzyka należy ograniczyć do tych systemów, które mają znaczący szkodliwy wpływ na zdrowie, bezpieczeństwo i prawa podstawowe osób w Unii, przy czym takie ograniczenie powinno minimalizować wszelkie potencjalne przeszkody w handlu międzynarodowym, o ile występują. Biorąc pod uwagę szybkie tempo rozwoju technologicznego, a także potencjalne zmiany w stosowaniu systemów sztucznej inteligencji, wykaz obszarów i przypadków użycia wysokiego ryzyka zawarty w załączniku III powinien jednak podlegać stałemu przeglądowi w drodze regularnej oceny.

Poprawka 55

Wniosek dotyczący rozporządzenia

Motyw 28

Tekst proponowany przez Komisję Poprawka
(28) Systemy sztucznej inteligencji mogą wywoływać szkodliwe skutki dla zdrowia i bezpieczeństwa osób, w szczególności w przypadku, gdy takie systemy funkcjonują jako elementy produktów. Zgodnie z celami określonymi w unijnym prawodawstwie harmonizacyjnym, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i spełniające pozostałe wymogi, istotne jest odpowiednie zapobieganie i ograniczanie zagrożeń dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy sztucznej inteligencji. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne. Przy klasyfikowaniu systemu sztucznej inteligencji jako systemu wysokiego ryzyka zasadnicze znaczenie ma skala szkodliwego wpływu wywieranego przez system sztucznej inteligencji na prawa podstawowe chronione na mocy Karty. Do praw tych należą: prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz niedyskryminacja, ochrona konsumentów, prawa pracownicze, prawa osób niepełnosprawnych, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 Karty praw podstawowych UE oraz w Konwencji o prawach dziecka (szerzej rozwinięte w komentarzu ogólnym nr 25 do Konwencji ONZ o prawach dziecka w odniesieniu do środowiska cyfrowego), które wymagają uwzględnienia słabości dzieci oraz zapewnienia im takiej ochrony i opieki, jaka jest konieczna dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie powagi szkody, jaką może spowodować system sztucznej inteligencji, w tym w odniesieniu do zdrowia i bezpieczeństwa osób. (28) Systemy sztucznej inteligencji mogą mieć negatywny wpływ na zdrowie i bezpieczeństwo osób, w szczególności w przypadku gdy takie systemy funkcjonują jako elementy bezpieczeństwa produktów. Zgodnie z celami określonymi w unijnym prawodawstwie harmonizacyj- nym, polegającymi na ułatwieniu swobodnego przepływu produktów na rynku wewnętrznym oraz zapewnieniu, aby na rynek trafiały wyłącznie produkty bezpieczne i spełniające pozostałe wymogi, istotne jest odpowiednie zapobieganie i ograniczanie zagrożeń dla bezpieczeństwa, które mogą być powodowane przez produkt jako całość ze względu na jego elementy cyfrowe, w tym systemy sztucznej inteligencji. Na przykład coraz bardziej autonomiczne roboty, zarówno w kontekście działalności produkcyjnej, jak i świadczenia pomocy oraz opieki osobistej, powinny być w stanie bezpiecznie funkcjonować i wykonywać swoje funkcje w złożonych środowiskach. Podobnie w sektorze opieki zdrowotnej, w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne.

Poprawka 56

Wniosek dotyczący rozporządzenia

Motyw 28 a (nowy)

Tekst proponowany przez Komisję Poprawka
(28a) Przy klasyfikowaniu systemu sztucznej inteligencji jako systemu wysokiego ryzyka zasadnicze znaczenie ma skala szkodliwego wpływu systemu sztucznej inteligencji na prawa podstawowe chronione na mocy Karty. Do praw tych należą prawo do godności człowieka, poszanowanie życia prywatnego i rodzinnego, ochrona danych osobowych, wolność wypowiedzi i informacji, wolność zgromadzania się i stowarzyszania się oraz niedyskryminacja, prawo do edukacji, ochrona konsumentów, prawa pracownicze, prawa osób z niepełnos- prawnościami, równość płci, prawa własności intelektualnej, prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, prawo do obrony i domniemania niewinności, prawo do dobrej administracji. Oprócz tych praw należy podkreślić, że dzieciom przysługują szczególne prawa zapisane w art. 24 oraz w Konwencji o prawach dziecka (szerzej rozwinięte w komentarzu ogólnym nr 25 do Konwencji ONZ o prawach dziecka w odniesieniu do środowiska cyfrowego), które wymagają uwzględnienia słabości dzieci oraz zapewnienia im ochrony i opieki koniecznej dla ich dobra. Podstawowe prawo do wysokiego poziomu ochrony środowiska zapisane w Karcie i wdrażane w strategiach politycznych Unii również należy uwzględnić w ocenie powagi szkody, jaką może spowodować system sztucznej inteligencji, np. w odniesieniu do zdrowia i bezpieczeństwa osób lub środowiska.

Poprawka 57

Wniosek dotyczący rozporządzenia

Motyw 29

Tekst proponowany przez Komisję Poprawka
(29) Jeżeli chodzi o systemy sztucznej inteligencji wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (39), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (40), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (41), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (42), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (43), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (44), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (45) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (46) lub które same są takimi produktami lub systemami, wskazane jest wprowadzenie zmian do tych aktów w celu zapewnienia, aby przyjmując wszelkie stosowne przyszłe akty delegowane lub wykonawcze na podstawie wspomnianych aktów, Komisja uwzględniła - w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy i organy zarządzania, oceny zgodności i egzekwowania ustanowione w tych aktach - obowiązkowe wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka określone w niniejszym rozporządzeniu. (29) Jeżeli chodzi o systemy sztucznej inteligencji wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami produktów lub systemów objętych zakresem rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 300/2008 (39), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 167/2013 (40), rozporządzenia Parlamentu Europejskiego i Rady (UE) nr 168/2013 (41), dyrektywy Parlamentu Europejskiego i Rady 2014/90/UE (42), dyrektywy Parlamentu Europejskiego i Rady (UE) 2016/797 (43), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858 (44), rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/1139 (45) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/2144 (46) lub które same są takimi produktami lub systemami, wskazane jest wprowadzenie zmian do tych aktów w celu zapewnienia, aby przyjmując wszelkie stosowne przyszłe akty delegowane lub wykonawcze na podstawie wspomnianych aktów, Komisja uwzględniła - w oparciu o techniczną i regulacyjną charakterystykę każdego sektora oraz bez ingerowania w istniejące mechanizmy i organy zarządzania, oceny zgodności, nadzoru rynku i egzekwowania ustanowione w tych aktach - obowiązkowe wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka określone w niniejszym rozporządzeniu.
(39) Rozporządzenie Parlamentu Europejskiego i Rady (WE)

nr 300/2008 z dnia 11 marca 2008 r. w sprawie wspólnych zasad w dziedzinie ochrony lotnictwa cywilnego i uchylające rozporządzenie (WE) nr 2320/2002 (Dz.U. L 97 z 9.4.2008, s. 72).

(39) Rozporządzenie Parlamentu Europejskiego i Rady (WE)

nr 300/2008 z dnia 11 marca 2008 r. w sprawie wspólnych zasad w dziedzinie ochrony lotnictwa cywilnego i uchylające rozporządzenie (WE) nr 2320/2002 (Dz.U. L 97 z 9.4.2008, s. 72).

(40) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

nr 167/2013 z dnia 5 lutego 2013 r. w sprawie homologacji i nadzoru rynku pojazdów rolniczych i leśnych (Dz.U. L 60 z 2.3.2013, s. 1).

(40) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

nr 167/2013 z dnia 5 lutego 2013 r. w sprawie homologacji i nadzoru rynku pojazdów rolniczych i leśnych (Dz.U. L 60 z 2.3.2013, s. 1).

(41) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

nr 168/2013 z dnia 15 stycznia 2013 r. w sprawie homologacji i nadzoru rynku pojazdów dwu- lub trzykołowych oraz czterokołowców (Dz.U. L 60 z 2.3.2013, s. 52).

(41) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

nr 168/2013 z dnia 15 stycznia 2013 r. w sprawie homologacji i nadzoru rynku pojazdów dwu- lub trzykołowych oraz czterokołowców (Dz.U. L 60 z 2.3.2013, s. 52).

Tekst proponowany przez Komisję Poprawka
(42) Dyrektywa Parlamentu Europejskiego i Rady 2014/90/UE z dnia

23 lipca 2014 r. w sprawie wyposażenia morskiego i uchylająca dyrektywę Rady 96/98/WE (Dz.U. L 257 z 28.8.2014, s. 146).

(42) Dyrektywa Parlamentu Europejskiego i Rady 2014/90/UE z dnia

23 lipca 2014 r. w sprawie wyposażenia morskiego i uchylająca dyrektywę Rady 96/98/WE (Dz.U. L 257 z 28.8.2014, s. 146).

(43) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/797

z dnia 11 maja 2016 r. w sprawie interoperacyjności systemu kolei w Unii Europejskiej (Dz.U. L 138 z 26.5.2016, s. 44).

(43) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/797

z dnia 11 maja 2016 r. w sprawie interoperacyjności systemu kolei w Unii Europejskiej (Dz.U. L 138 z 26.5.2016, s. 44).

(44) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858

z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).

(44) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858

z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).

(45) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

2018/1139 z dnia 4 lipca 2018 r. w sprawie wspólnych zasad w dziedzinie lotnictwa cywilnego i utworzenia Agencji Unii Europejskiej ds. Bezpieczeństwa Lotniczego oraz zmieniające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 2111/2005, (WE) nr 1008/2008, (UE) nr 996/2010, (UE) nr 376/2014 i dyrektywy Parlamentu Europejskiego i Rady 2014/30/UE i 2014/53/UE, a także uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 552/2004 i (WE) nr 216/2008 i rozporządzenie Rady (EWG) nr 3922/91 (Dz.U. L 212 z 22.8.2018, s. 1).

(45) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

2018/1139 z dnia 4 lipca 2018 r. w sprawie wspólnych zasad w dziedzinie lotnictwa cywilnego i utworzenia Agencji Unii Europejskiej ds. Bezpieczeństwa Lotniczego oraz zmieniające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 2111/2005, (WE) nr 1008/2008, (UE) nr 996/2010, (UE) nr 376/2014 i dyrektywy Parlamentu Europejskiego i Rady 2014/30/UE i 2014/53/UE, a także uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 552/2004 i (WE) nr 216/2008 i rozporządzenie Rady (EWG) nr 3922/91 (Dz.U. L 212 z 22.8.2018, s. 1).

(46) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

2019/2144 z dnia 27 listopada 2019 r. w sprawie wymogów dotyczących homologacji typu pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, w odniesieniu do ich ogólnego bezpieczeństwa oraz ochrony osób znajdujących się w pojeździe i niechronionych uczestników ruchu drogowego, zmieniające rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 oraz uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 78/2009, (WE) nr 79/2009 i (WE) nr 661/2009 oraz rozporządzenia Komisji (WE) nr 631/2009, (UE) nr 406/2010, (UE) nr 672/2010, (UE)

nr 1003/2010, (UE) nr 1005/2010, (UE) nr 1008/2010, (UE)

nr 1009/2010, (UE) nr 19/2011, (UE) nr 109/2011, (UE)

nr 458/2011, (UE) nr 65/2012, (UE) nr 130/2012, (UE)

nr 347/2012, (UE) nr 351/2012, (UE) nr 1230/2012 i (UE) 2015/166 (Dz.U. L 325 z 16.12.2019, s. 1).

(46) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

2019/2144 z dnia 27 listopada 2019 r. w sprawie wymogów dotyczących homologacji typu pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, w odniesieniu do ich ogólnego bezpieczeństwa oraz ochrony osób znajdujących się w pojeździe i niechronionych uczestników ruchu drogowego, zmieniające rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 oraz uchylające rozporządzenia Parlamentu Europejskiego i Rady (WE) nr 78/2009, (WE) nr 79/2009 i (WE) nr 661/2009 oraz rozporządzenia Komisji (WE) nr 631/2009, (UE) nr 406/2010, (UE) nr 672/2010, (UE)

nr 1003/2010, (UE) nr 1005/2010, (UE) nr 1008/2010, (UE)

nr 1009/2010, (UE) nr 19/2011, (UE) nr 109/2011, (UE)

nr 458/2011, (UE) nr 65/2012, (UE) nr 130/2012, (UE)

nr 347/2012, (UE) nr 351/2012, (UE) nr 1230/2012 i (UE) 2015/166 (Dz.U. L 325 z 16.12.2019, s. 1).

Poprawka 58

Wniosek dotyczący rozporządzenia

Motyw 30

Tekst proponowany przez Komisję Poprawka
(30) W przypadku systemów sztucznej inteligencji, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami objętymi zakresem stosowania niektórych przepisów unijnego prawodawstwa harmonizacyjnego, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności przez jednostkę oceniającą zgodność będącą osobą trzecią na podstawie tych stosownych przepisów unijnego prawodawstwa harmo- nizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne oraz wyroby medyczne do diagnostyki in vitro. (30) W przypadku systemów sztucznej inteligencji, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami objętymi zakresem stosowania niektórych przepisów unijnego prawa har- monizacyjnego wymienionego w załączniku II, systemy te należy klasyfikować jako systemy wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, jeżeli dany produkt jest poddawany procedurze oceny zgodności w celu zapewnienia jego zgodności z zasadniczymi wymaganiami w zakresie bezpieczeństwa przez jednostkę oceniającą zgodność będącą osobą trzecią na podstawie tych stosownych przepisów unijnego prawa harmonizacyjnego. W szczególności produktami takimi są maszyny, zabawki, dźwigi, urządzenia i systemy ochronne przeznaczone do użytku w atmosferze potencjalnie wybuchowej, urządzenia radiowe, urządzenia ciśnieniowe, wyposażenie rekreacyjnych jednostek pływających, urządzenia kolei linowych, urządzenia spalające paliwa gazowe, wyroby medyczne oraz wyroby medyczne do diagnostyki in vitro.

Poprawka 59

Wniosek dotyczący rozporządzenia

Motyw 31

Tekst proponowany przez Komisję Poprawka
(31) Klasyfikacja systemu sztucznej inteligencji jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna koniecznie oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt uznaje się za produkt "wysokiego ryzyka" zgodnie z kryteriami ustanowionymi w stosownym unijnym prawodawstwie harmonizacyj- nym, które ma zastosowanie do tego produktu. Ma to miejsce w szczególności w przypadku rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/745 (47) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/746 (48), w których ocenę zgodności przeprowadzaną przez osobę trzecią przewidziano dla produktów średniego i wysokiego ryzyka. (31) Klasyfikacja systemu sztucznej inteligencji jako systemu wysokiego ryzyka na podstawie niniejszego rozporządzenia nie powinna oznaczać, że produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt uznaje się za produkt "wysokiego ryzyka" zgodnie z kryteriami ustanowionymi w stosownym unijnym prawie harmonizacyjnym, które ma zastosowanie do tego produktu. Ma to miejsce w szczególności w przypadku rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/745 (47) oraz rozporządzenia Parlamentu Europejskiego i Rady (UE) 2017/746 (48), w których ocenę zgodności przeprowadzaną przez osobę trzecią przewidziano dla produktów średniego i wysokiego ryzyka.
(47) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745

z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych, zmiany dyrektywy 2001/83/WE, rozporządzenia (WE) nr 178/2002 i rozporządzenia (WE) nr 1223/2009 oraz uchylenia dyrektyw Rady 90/385/EWG i 93/42/EWG (Dz.U. L 117 z 5.5.2017, s. 1).

(48) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746

z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych do diagnostyki in vitro oraz uchylenia dyrektywy 98/79/WE i decyzji Komisji 2010/227/UE (Dz.U. L 117 z 5.5.2017, s. 176).

(47) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745

z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych, zmiany dyrektywy 2001/83/WE, rozporządzenia (WE) nr 178/2002 i rozporządzenia (WE) nr 1223/2009 oraz uchylenia dyrektyw Rady 90/385/EWG i 93/42/EWG (Dz.U. L 117 z 5.5.2017, s. 1).

(48) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/746

z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych do diagnostyki in vitro oraz uchylenia dyrektywy 98/79/WE i decyzji Komisji 2010/227/UE (Dz.U. L 117 z 5.5.2017, s. 176).

Poprawka 60

Wniosek dotyczący rozporządzenia

Motyw 32

Tekst proponowany przez Komisję Poprawka
(32) Jeżeli chodzi o samodzielne systemy sztucznej inteligencji, tj. systemy sztucznej inteligencji wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko powstania szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno skalę potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w rozporządzeniu. Identyfikacja tych systemów opiera się na tej samej metodyce i tych samych kryteriach, które przewidziano także dla wszelkich przyszłych zmian w wykazie systemów sztucznej inteligencji wysokiego ryzyka. (32) Jeżeli chodzi o samodzielne systemy sztucznej inteligencji, tj. systemy sztucznej inteligencji wysokiego ryzyka inne niż te, które są związanymi z bezpieczeństwem elementami produktów lub które same są produktami i są wymienione w jednym z obszarów i przypadków użycia w załączniku III, należy je klasyfikować jako systemy wysokiego ryzyka, jeżeli w związku z ich przeznaczeniem stwarzają one poważne ryzyko powstania szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób i środowiska i jeżeli system sztucznej inteligencji jest wykorzystywany jako element bezpieczeństwa infrastruktury krytycznej. Takie poważne ryzyko szkody należy określić poprzez ocenę z jednej strony skutków takiego ryzyka w odniesieniu do jego poziomu dotkliwości, intensywności, prawdopodobieństwa wystąpienia i czasu trwania łącznie, a z drugiej strony tego, czy ryzyko może mieć wpływ na osobę fizyczną, wiele osób lub określoną grupę osób. Taka kombinacja może na przykład skutkować wysokim stopniem dotkliwości, ale niskim prawdopodobieństwem dotknięcia osoby fizycznej lub wysokim prawdopodobieństwem dotknięcia grupy osób z małą intensywnością przez długi czas, w zależności od sytuacji. Identyfikacja tych systemów opiera się na tej samej metodyce i tych samych kryteriach, które przewidziano także dla wszelkich przyszłych zmian w wykazie systemów sztucznej inteligencji wysokiego ryzyka.

Poprawka 61

Wniosek dotyczący rozporządzenia Motyw 32 a (nowy)

Tekst proponowany przez Komisję Poprawka
(32a) Dostawcy, których systemy sztucznej inteligencji wchodzą w zakres jednego z obszarów i przypadków użycia wymienionych w załączniku III, którzy uważają, że ich system nie stwarza poważnego ryzyka szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska, powinni poinformować krajowe organy nadzoru w drodze uzasadnionego powiadomienia. Mogłoby ono przybrać formę jednostronicowego podsumowania istotnych informacji o danym systemie sztucznej inteligencji, w tym o jego przeznaczeniu i wyjaśnieniu, dlaczego nie stwarza on poważnego ryzyka szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Komisja powinna określić kryteria umożliwiające przedsiębiorstwom ocenę, czy ich system stwarza takie ryzyko, a także opracowanie łatwego w użyciu i ujednoliconego wzoru powiadomienia. Dostawcy powinni przedłożyć powiadomienie jak najwcześniej, a w każdym razie przed wprowadzeniem systemu sztucznej inteligencji do obrotu lub jego oddaniem do użytku, najlepiej na etapie opracowywania systemu, i powinni mieć swobodę wprowadzenia go do obrotu w dowolnym momencie po powiadomieniu. Jeżeli jednak organ uzna, że dany system sztucznej inteligencji został błędnie zaklasyfikowany, powinien zakwestionować powiadomienie w terminie trzech miesięcy. Sprzeciw ten powinien być uzasadniony i należy w nim odpowiednio wyjaśnić, dlaczego system sztucznej inteligencji został błędnie zaklasyfikowany. Dostawca powinien zachować prawo do odwołania się i przedstawienia dalszych argumentów. Jeżeli po upływie trzech miesięcy nie zgłoszono sprzeciwu wobec powiadomienia, krajowe organy nadzoru mogą nadal interweniować, jeżeli system sztucznej inteligencji stwarza ryzyko na szczeblu krajowym, tak jak w przypadku każdego innego systemu sztucznej inteligencji na rynku. Krajowe organy nadzoru powinny przedkładać Urzędowi ds. Sztucznej Inteligencji roczne sprawozdania zawierające szczegółowe informacje na temat otrzymanych powiadomień i podjętych decyzji.

Poprawka 62

Wniosek dotyczący rozporządzenia

Motyw 33

Tekst proponowany przez Komisję Poprawka
(33) Techniczne niedokładności systemów sztucznej inteligencji przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji. Jest to szczególnie istotne, jeżeli chodzi o wiek, pochodzenie etniczne, płeć lub niepełnosprawność. W związku z tym systemy zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" i "post factum" należy klasyfikować jako systemy wysokiego ryzyka. Ze względu na zagrożenia, które stwarzają, oba rodzaje systemów zdalnej identyfikacji biometrycznej powinny podlegać szczególnym wymogom dotyczącym funkcji rejestracji zdarzeń i nadzoru ze strony człowieka. skreśla się

Poprawka 63

Wniosek dotyczący rozporządzenia

Motyw 33 a (nowy)

Tekst proponowany przez Komisję Poprawka
(33a) Ponieważ dane biometryczne stanowią szczególną kategorię wrażliwych danych osobowych zgodnie z rozporządzeniem (UE) 2016/679, kilka krytycznych przypadków użycia systemów biometrycznych i systemów opartych na biometrii należy sklasyfikować jako obarczone wysokim ryzykiem. Systemy sztucznej inteligencji przeznaczone do stosowania do identyfikacji biometrycznej osób fizycznych oraz systemy sztucznej inteligencji przeznaczone do wykorzystywania do wyciągania wniosków o cechach osobowych osób fizycznych na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji, z wyjątkiem systemów, które są zakazane na mocy niniejszego rozporządzenia, należy zatem sklasyfikować jako systemy wysokiego ryzyka. Nie powinno to obejmować systemów sztucznej inteligencji przeznaczonych do weryfikacji biometrycznej, których jedynym celem jest potwierdzenie, że dana osoba fizyczna jest osobą, za którą się podaje, oraz potwierdzenie tożsamości osoby fizycznej wyłącznie w celu uzyskania dostępu do usługi, urządzenia lub pomieszczeń (weryfikacja "jeden do jednego"). Systemów biometrycznych i opartych na biometrii przewidzianych w prawie Unii w celu umożliwienia stosowania środków w zakresie cyberbezpieczeństwa i ochrony danych osobowych nie należy uznawać za stwarzające znaczne ryzyko szkody dla zdrowia, bezpieczeństwa i praw podstawowych.

Poprawka 64

Wniosek dotyczący rozporządzenia

Motyw 34

Tekst proponowany przez Komisję Poprawka
(34) W odniesieniu do zarządzania infrastrukturą krytyczną i jej funkcjonowania wskazane jest klasyfikowanie jako systemy wysokiego ryzyka systemów sztucznej inteligencji, które mają być użytkowane jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi ruchu drogowego oraz zaopatrzenia w wodę, gaz, ciepło i energię elektryczną, ponieważ ich awaria lub nieprawidłowe działanie mogą stanowić zagrożenie dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. (34) W odniesieniu do zarządzania infrastrukturą krytyczną i jej funkcjonowania wskazane jest klasyfikowanie jako systemy wysokiego ryzyka systemów sztucznej inteligencji, które mają być użytkowane jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi zaopatrzenia w wodę, gaz, ciepło i energię elektryczną oraz krytycznej infrastruktury cyfrowej, ponieważ ich awaria lub nieprawidłowe działanie mogą naruszyć bezpieczeństwo i integralność takiej infrastruktury krytycznej lub stanowić zagrożenie dla życia i zdrowia osób na dużą skalę i prowadzić do znacznych zakłóceń w zwykłym prowadzeniu działalności społecznej i gospodarczej. Elementy bezpieczeństwa infrastruktury krytycznej, w tym krytycznej infrastruktury cyfrowej, to systemy wykorzystywane do bezpośredniej ochrony integralności fizycznej infrastruktury krytycznej lub zdrowia i bezpieczeństwa osób i mienia. Awaria lub nieprawidłowe działanie takich elementów mogą bezpośrednio prowadzić do zagrożenia fizycznej integralności infrastruktury krytycznej, i, co za tym idzie, do zagrożenia dla zdrowia i bezpieczeństwa osób i mienia. Elementy przeznaczone do stosowania wyłącznie do celów cyberbezpieczeństwa nie powinny być kwalifikowane jako elementy bezpieczeństwa. Przykłady takich elementów bezpieczeństwa mogą obejmować systemy monitorowania ciśnienia wody lub systemy kontroli alarmu przeciwpożarowego w ośrodkach przetwarzania w chmurze.

Poprawka 65

Wniosek dotyczący rozporządzenia

Motyw 35

Tekst proponowany przez Komisję Poprawka
(35) Systemy sztucznej inteligencji wykorzystywane w obszarze kształcenia lub szkolenia zawodowego, w szczególności przy podejmowaniu decyzji o dostępie do instytucji kształcenia i szkolenia zawodowego lub nadawaniu osobom przydziału do tych instytucji lub też do oceniania osób na testach w ramach kształcenia lub jako warunek dopuszczenia do kształcenia, należy uznać za systemy wysokiego ryzyka, ponieważ mogą one decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i nieodpowiednio stosowane, mogą naruszać prawo do nauki i odbywania szkoleń, a także prawo do niedyskryminacji i mogą utrwalać historyczne wzorce dyskryminacji. (35) Wdrożenie systemów sztucznej inteligencji w edukacji jest ważne dla zmodernizowania całych systemów edukacji, zwiększenia jakości kształcenia, zarówno stacjonarnego, jak i online, oraz przyspieszenia edukacji cyfrowej, a zatem także udostępnienia jej szerszemu gronu odbiorców. Systemy sztucznej inteligencji wykorzystywane w obszarze kształcenia lub szkolenia zawodowego, w szczególności przy podejmowaniu decyzji lub istotnym wpływaniu na decyzje o dostępie do instytucji kształcenia i szkolenia zawodowego, lub nadawaniu osobom przydziału do tych instytucji, lub też ocenianiu osób na testach w ramach kształcenia czy jako warunek dopuszczenia do kształcenia, lub ocenie odpowiedniego poziomu wykształcenia w przypadku danej osoby i istotnego wpływania na poziom wykształcenia i szkolenia zawodowego, jaki dana osoba otrzyma lub do jakiego będzie mogła mieć dostęp, lub monitorowaniu i wykrywaniu zabronionego zachowania studentów podczas testów, należy klasyfikować jako systemy wysokiego ryzyka, ponieważ mogą one decydować o przebiegu kształcenia i kariery zawodowej danej osoby, a tym samym wpływać na jej zdolność do zapewnienia sobie źródła utrzymania. Takie systemy, jeżeli są niewłaściwie zaprojektowane i stosowane, mogą być szczególnie inwazyjne i naruszać prawo do nauki i odbywania szkoleń, a także prawo do niedyskryminacji oraz mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej.

Poprawka 66

Wniosek dotyczący rozporządzenia

Motyw 36

Tekst proponowany przez Komisję Poprawka
(36) Systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji o awansie i rozwiązaniu stosunku pracy oraz do przydzielania zadań, monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również klasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe i źródła utrzymania tych osób. Odnośne umowne stosunki pracy powinny obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o których mowa w programie prac Komisji na 2021 r. Co do zasady osób takich nie należy uznawać za użytkowników w rozumieniu niniejszego rozporządzenia. W całym procesie rekrutacji oraz w ramach oceny, awansu lub retencji osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z nie- pełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej. Systemy sztucznej inteligencji wykorzystywane do monitorowania wydajności i zachowania tych osób mogą wpływać również na ich prawo do ochrony danych i prywatności. (36) Systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy oraz do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowe lub dane biometryczne, monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również klasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. Odnośne umowne stosunki pracy powinny w znaczący sposób obejmować pracowników i osoby pracujące za pośrednictwem platform internetowych, o których mowa w programie prac Komisji na 2021 r. W całym procesie rekrutacji oraz w ramach oceny, awansu lub retencji osób pozostających w umownych stosunkach pracy systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z nie- pełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym bądź określonej orientacji seksualnej. Systemy sztucznej inteligencji wykorzystywane do monitorowania wydajności i zachowania tych osób mogą również podważać istotę ich podstawowych praw do ochrony danych i prywatności. Niniejsze rozporządzenie ma zastosowanie bez uszczerbku dla kompetencji Unii i państw członkowskich w zakresie ustanawiania bardziej szczegółowych przepisów w sprawie korzystania z systemów sztucznej inteligencji w kontekście zatrudnienia.

Poprawka 67

Wniosek dotyczący rozporządzenia

Motyw 37

Tekst proponowany przez Komisję Poprawka
(37) Innym obszarem, w którym stosowanie systemów sztucznej inteligencji zasługuje na szczególną uwagę, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia oraz korzystanie z tych usług i świadczeń. W szczególności systemy sztucznej inteligencji wykorzystywane do przeprowadzania punktowej oceny kredytowej lub oceny zdolności kredytowej osób fizycznych należy klasyfikować jako systemy wysokiego ryzyka, ponieważ decydują one o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy sztucznej inteligencji wykorzystywane w tym celu mogą prowadzić do dyskryminacji osób lub grup i utrwalać historyczne wzorce dyskryminacji, na przykład ze względu na pochodzenie rasowe lub etniczne, niepełnosprawność, wiek, orientację seksualną, lub powodować powstawanie dyskryminujących skutków w nowej postaci. Biorąc pod uwagę bardzo ograniczoną skalę skutków i dostępność na rynku alternatywnych rozwiązań, wskazane jest wyłączenie systemów sztucznej inteligencji stosowanych do oceny zdolności kredytowej i punktowej oceny kredytowej, w przypadku gdy są one oddawane do użytku przez drobnych dostawców na ich własny użytek. Osoby fizyczne ubiegające się o świadczenia i usługi w ramach pomocy publicznej zapewniane przez organy publiczne lub korzystające z takich świadczeń i usług są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy sztucznej inteligencji są wykorzystywane do ustalenia, czy organy powinny odmówić takich świadczeń i usług, ograniczyć je, cofnąć lub odzyskać, mogą one mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego. W związku z tym systemy te należy klasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej, która może odnieść korzyści z powszechniejszego wykorzystywania spełniających odnośne wymogi i bezpiecznych systemów sztucznej inteligencji, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto systemy sztucznej inteligencji wykorzystywane do wysyłania służb pierwszej pomocy w sytuacjach nadzwyczajnych lub ustalania priorytetów w ich wysyłaniu również należy klasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia. (37) Innym obszarem, w którym stosowanie systemów sztucznej inteligencji zasługuje na szczególną uwagę, jest dostęp do niektórych podstawowych usług i świadczeń prywatnych i publicznych, w tym opieki zdrowotnej i podstawowych usług, w tym m.in. mieszkań, elektryczności, ogrzewania, chłodzenia i internetu, oraz świadczeń niezbędnych ludziom do pełnego uczestnictwa w życiu społecznym lub do poprawy poziomu życia. W szczególności systemy sztucznej inteligencji wykorzystywane do przeprowadzania punktowej oceny kredytowej lub oceny zdolności kredytowej osób fizycznych należy klasyfikować jako systemy wysokiego ryzyka, ponieważ decydują one o dostępie tych osób do zasobów finansowych lub podstawowych usług, takich jak mieszkalnictwo, energia elektryczna i usługi telekomunikacyjne. Systemy sztucznej inteligencji wykorzystywane w tym celu mogą prowadzić do dyskryminacji osób lub grup i utrwalać historyczne wzorce dyskryminacji, na przykład ze względu na pochodzenie rasowe lub etniczne, płeć, niepełnosprawność, wiek, orientację seksualną, lub powodować powstawanie dyskryminujących skutków w nowej postaci. Systemów sztucznej inteligencji przewidzianych w prawie Unii do celów wykrywania oszustw w oferowaniu usług finansowych nie należy jednak uznawać za systemy wysokiego ryzyka na mocy niniejszego rozporządzenia. Osoby fizyczne ubiegające się o świadczenia i usługi w ramach pomocy publicznej zapewniane przez organy publiczne lub korzystające z takich świadczeń i usług, w tym opieki zdrowotnej i podstawowych usług, w tym m.in. mieszkań, elektryczności, ogrzewania, chłodzenia i internetu, są zazwyczaj zależne od tych świadczeń i usług oraz znajdują się w słabszym położeniu względem odpowiedzialnych organów. Jeżeli systemy sztucznej inteligencji są wykorzystywane do ustalenia, czy organy powinny odmówić takich świadczeń i usług, ograniczyć je, cofnąć lub odzyskać, mogą one mieć znaczący wpływ na źródła utrzymania osób i mogą naruszać ich prawa podstawowe, takie jak prawo do ochrony socjalnej, niedyskryminacji, godności człowieka lub skutecznego środka prawnego. Podobnie systemy sztucznej inteligencji przeznaczone do wykorzystywania w podejmowaniu decyzji lub wywieraniu istotnego wpływu na decyzje dotyczące kwalifikowalności osób fizycznych do ubezpieczenia zdrowotnego i ubezpieczenia na życie mogą również mieć znaczący wpływ na środki utrzymania tych osób i naruszać ich prawa podstawowe, np. przez ograniczenie dostępu do opieki zdrowotnej lub utrwalanie dyskryminacji ze względu na cechy osobowe. W związku z tym systemy te należy klasyfikować jako systemy wysokiego ryzyka. Niniejsze rozporządzenie nie powinno jednak utrudniać rozwoju i stosowania innowacyjnych rozwiązań w administracji publicznej,
która może odnieść korzyści z powszechniejszego wykorzystywania spełniających odnośne wymogi i bezpiecznych systemów sztucznej inteligencji, pod warunkiem że systemy te nie stwarzają wysokiego ryzyka dla osób prawnych i fizycznych. Ponadto systemy sztucznej inteligencji wykorzystywane do oceny i klasyfikacji zgłoszeń alarmowych dokonywanych przez osoby fizyczne, wysyłania służb pierwszej pomocy w sytuacjach nadzwyczajnych lub ustalania priorytetów w ich wysyłaniu również należy klasyfikować jako systemy wysokiego ryzyka, ponieważ służą one do podejmowania decyzji o krytycznym znaczeniu dla życia i zdrowia osób oraz ich mienia.

Poprawka 68

Wniosek dotyczący rozporządzenia

Motyw 37 a (nowy)

Tekst proponowany przez Komisję Poprawka
(37a) Z uwagi na rolę i zakres odpowiedzialności policji i organów wymiaru sprawiedliwości oraz wpływ podejmowanych przez nie decyzji w odniesieniu do działań zapobiegawczych, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych oraz wykonywania kar niektóre konkretne przypadki wykorzystania zastosowań sztucznej inteligencji do egzekwowania prawa należy uznać za obarczone wysokim ryzykiem, zwłaszcza w przypadkach, w których istnieje możliwość znacznego wpływu na życie lub prawa podstawowe ludzi.

Poprawka 69

Wniosek dotyczący rozporządzenia

Motyw 38

Tekst proponowany przez Komisję Poprawka
(38) Działania organów ścigania związane z niektórymi zastosowaniami systemów sztucznej inteligencji charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej niejawnym nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innych niekorzystnych skutków dla praw podstawowych gwarantowanych w Karcie. W szczególności jeżeli system sztucznej inteligencji nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem dokładności lub solidności lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy sztucznej inteligencji nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów sztucznej inteligencji przeznaczonych do stosowania w kontekście egzekwowania prawa, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia szkodliwych skutków, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka. Ze względu na charakter przedmiotowych działań i związane z nimi ryzyko do systemów sztucznej inteligencji wysokiego ryzyka należy zaliczyć w szczególności systemy sztucznej inteligencji przeznaczone do stosowania przez organy ścigania do przeprowadzenia indywidualnej oceny ryzyka, jako poligrafy i podobne narzędzia lub do wykrywania stanu emocjonalnego osoby fizycznej, do wykrywania treści typu "deepfake", do oceny wiarygodności dowodów w postępowaniu karnym, do przewidywania wystąpienia lub ponownego wystąpienia faktycznego lub potencjalnego przestępstwa na podstawie profilowania osób fizycznych lub oceny cech osobowości i charakterystyki lub wcześniejszego zachowania przestępnego osób fizycznych lub grup, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania, jak również do analizy przestępczości osób fizycznych. Systemów sztucznej inteligencji specjalnie przeznaczonych do stosowania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne nie należy uznawać za systemy sztucznej inteligencji wysokiego ryzyka wykorzystywane przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. (38) Działania organów ścigania związane z niektórymi zastosowaniami systemów sztucznej inteligencji charakteryzują się znacznym brakiem równowagi sił i mogą prowadzić do objęcia osoby fizycznej niejawnym nadzorem, do jej aresztowania lub pozbawienia wolności, jak również do zaistnienia innych niekorzystnych skutków dla praw podstawowych gwarantowanych w Karcie. W szczególności jeżeli system sztucznej inteligencji nie jest trenowany z wykorzystaniem danych wysokiej jakości, nie spełnia odpowiednich wymogów pod względem swoich wyników, dokładności lub solidności, lub nie został odpowiednio zaprojektowany i przetestowany przed wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób, może on wskazywać osoby w sposób dyskryminacyjny lub w inny nieprawidłowy lub niesprawiedliwy sposób. Ponadto korzystanie z istotnych procesowych praw podstawowych, takich jak prawo do skutecznego środka prawnego i dostępu do bezstronnego sądu, jak również prawo do obrony i domniemania niewinności, może być utrudnione, w szczególności w przypadku gdy takie systemy sztucznej inteligencji nie są w wystarczającym stopniu przejrzyste, wyjaśnialne i udokumentowane. W związku z tym szereg systemów sztucznej inteligencji przeznaczonych do stosowania w kontekście egzekwowania prawa, w którym dokładność, wiarygodność i przejrzystość są szczególnie ważne dla uniknięcia szkodliwych skutków, zachowania zaufania publicznego oraz zapewnienia odpowiedzialności i skutecznego dochodzenia roszczeń, należy klasyfikować jako systemy wysokiego ryzyka. Ze względu na charakter przedmiotowych działań i związane z nimi ryzyko do systemów sztucznej inteligencji wysokiego ryzyka należy zaliczyć w szczególności systemy sztucznej inteligencji przeznaczone do stosowania przez organy ścigania lub w ich imieniu bądź przez agencje, urzędy lub organy Unii wspierające organy ścigania, takie jak poligrafy i podobne narzędzia, o ile ich na ich stosowanie zezwala odnośne prawo unijne i krajowe, lub do wykrywania stanu emocjonalnego osoby fizycznej, do oceny wiarygodności dowodów w postępowaniu karnym, do profilowania w trakcie wykrywania przestępstw, prowadzenia postępowań przygotowawczych w ich sprawie lub ich ścigania, jak również do analizy przestępczości osób fizycznych. Systemów sztucznej inteligencji specjalnie przeznaczonych do stosowania w postępowaniach administracyjnych prowadzonych przez organy podatkowe i celne nie należy sklasyfikować jako systemy sztucznej inteligencji wysokiego ryzyka wykorzystywane przez organy ścigania do celów zapobiegania przestępstwom, ich wykrywania, prowadzenia postępowań przygotowawczych w ich sprawie i ich ścigania. Stosowanie narzędzi sztucznej inteligencji przez organy ścigania i organy wymiaru sprawiedliwości nie powinno stać się czynnikiem powodującym nierówności, podziały społeczne lub wykluczenie. Nie należy ignorować wpływu stosowania
narzędzi sztucznej inteligencji na prawo podejrzanych do obrony, w szczególności na trudności w uzyskaniu istotnych informacji na temat funkcjonowania tych narzędzi oraz wynikające z tego trudności w kwestionowaniu dostarczanych przez nie wyników przed sądem, w szczególności przez osoby objęte dochodzeniem.

Poprawka 70

Wniosek dotyczący rozporządzenia

Motyw 39

Tekst proponowany przez Komisję Poprawka
(39) Systemy sztucznej inteligencji wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedys- kryminujący charakter i przejrzystość systemów sztucznej inteligencji wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych zainteresowanych osób, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. Za systemy wysokiego ryzyka należy zatem uznać systemy sztucznej inteligencji przeznaczone do wykorzystywania przez właściwe organy publiczne odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną jako poligrafy i podobne narzędzia lub do wykrywania stanu emocjonalnego osoby fizycznej; w celu oceny niektórych zagrożeń stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl; w celu weryfikacji autentyczności odpowiednich dokumentów osób fizycznych; w celu udzielenia pomocy właściwym organom publicznym przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu. Systemy sztucznej inteligencji w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (49), rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (50) i innych właściwych przepisach. (39) Systemy sztucznej inteligencji wykorzystywane w zarządzaniu migracją, azylem i kontrolą graniczną mają wpływ na osoby, które często znajdują się w szczególnie trudnej sytuacji i które są zależne od rezultatów działań właściwych organów publicznych. Dokładność, niedys- kryminujący charakter i przejrzystość systemów sztucznej inteligencji wykorzystywanych w tych kontekstach są zatem szczególnie istotne w celu zapewnienia poszanowania praw podstawowych zainteresowanych osób, w szczególności ich prawa do swobodnego przemieszczania się, niedyskryminacji, ochrony życia prywatnego i danych osobowych, ochrony międzynarodowej i dobrej administracji. Za systemy wysokiego ryzyka należy zatem uznać systemy sztucznej inteligencji przeznaczone do wykorzystywania przez właściwe organy publiczne lub w ich imieniu bądź przez agencje, urzędy lub organy Unii odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną jako poligrafy i podobne narzędzia, o ile na ich stosowanie zezwala odnośne prawo unijne i krajowe, w celu oceny niektórych zagrożeń stwarzanych przez osoby fizyczne wjeżdżające na terytorium państwa członkowskiego lub ubiegające się o wizę lub azyl; w celu weryfikacji autentyczności odpowiednich dokumentów osób fizycznych; w celu udzielenia pomocy właściwym organom publicznym przy rozpatrywaniu i ocenie prawdziwości dowodów w odniesieniu do wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do celu, jakim jest ustalenie kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu; w celu monitorowania, nadzorowania lub przetwarzania danych osobowych w kontekście działań związanych z zarządzaniem granicami, do celów wykrywania, rozpoznawania lub identyfikacji osób fizycznych; w celu prognozowania lub przewidywania tendencji
(49) Dyrektywa Parlamentu Europejskiego i Rady 2013/32/UE z dnia

26 czerwca 2013 r. w sprawie wspólnych procedur udzielania i cofania ochrony międzynarodowej (Dz.U. L 180 z 29.6.2013, s. 60).

(50) Rozporządzenie Parlamentu Europejskiego i Rady (WE)

nr 810/2009 z dnia 13 lipca 2009 r. ustanawiające Wspólnotowy Kodeks Wizowy (kodeks wizowy) (Dz.U. L 243 z 15.9.2009, s. 1).

związanych z ruchami migracyjnymi i przekraczaniem granic. Systemy sztucznej inteligencji w obszarze zarządzania migracją, azylem i kontrolą graniczną objęte niniejszym rozporządzeniem powinny być zgodne z odpowiednimi wymogami proceduralnymi określonymi w dyrektywie Parlamentu Europejskiego i Rady 2013/32/UE (49), rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 810/2009 (50) i innych właściwych przepisach. Stosowanie systemów sztucznej inteligencji w zarządzaniu migracją, azylem i kontrolą graniczną w żadnym wypadku nie może być wykorzystywane przez państwa członkowskie lub instytucje, organy lub jednostki organizacyjne Unii do obchodzenia zobowiązań międzynarodowych w ramach Konwencji z 28 lipca 1951 r. dotyczącej statusu uchodźców, zmienionej protokołem z 31 stycznia 1967 r., ani wykorzystywane do naruszania w dowolny sposób zasady non-refoulement lub odmawiania bezpiecznych i skutecznych legalnych dróg migracji na terytorium Unii, w tym prawa do ochrony międzynarodowej.
(49) Dyrektywa Parlamentu Europejskiego i Rady 2013/32/UE z dnia

26 czerwca 2013 r. w sprawie wspólnych procedur udzielania i cofania ochrony międzynarodowej (Dz.U. L 180 z 29.6.2013, s. 60).

(50) Rozporządzenie Parlamentu Europejskiego i Rady (WE)

nr 810/2009 z dnia 13 lipca 2009 r. ustanawiające Wspólnotowy Kodeks Wizowy (kodeks wizowy) (Dz.U. L 243 z 15.9.2009, s. 1).

Poprawka 71

Wniosek dotyczący rozporządzenia

Motyw 40

Tekst proponowany przez Komisję Poprawka
(40) Niektóre systemy sztucznej inteligencji przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy sklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka odwoławczego i do rzetelnego procesu sądowego. W szczególności, aby wyeliminować potencjalne ryzyko tendencyjności, efektu czarnej skrzynki i błędów, jako systemy wysokiego ryzyka należy kwalifikować systemy sztucznej inteligencji, które mają za zadanie pomóc organom sądowym w badaniu i interpretacji faktów i przepisów oraz w stosowaniu tych przepisów do konkretnego stanu faktycznego. Taka kwalifikacja nie powinna jednak rozciągać się na systemy sztucznej inteligencji przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne lub przydział zasobów. (40) Niektóre systemy sztucznej inteligencji przeznaczone na potrzeby sprawowania wymiaru sprawiedliwości i procesów demokratycznych należy sklasyfikować jako systemy wysokiego ryzyka, biorąc pod uwagę ich potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste, a także prawo do skutecznego środka odwoławczego i do rzetelnego procesu sądowego. W szczególności, aby wyeliminować potencjalne ryzyko tendencyjności, błędów i efektu czarnej skrzynki, jako systemy wysokiego ryzyka należy kwalifikować systemy sztucznej inteligencji przeznaczone do wykorzystania przez organ sądowy lub administracyjny lub w ich imieniu, które mają za zadanie pomóc organom sądowym lub administracyjnym w badaniu i interpretacji faktów i przepisów oraz w stosowaniu tych przepisów do konkretnego stanu faktycznego lub wykorzystywane w podobny sposób w alternatywnych metodach rozwiązywania sporów. Stosowanie narzędzi sztucznej inteligencji może wspierać uprawnienia decyzyjne sędziów lub niezależność sądownictwa, ale nie powinno ich zastępować, gdyż podejmowanie ostatecznej decyzji musi pozostać działaniem kierowanym przez człowieka. Taka kwalifikacja nie powinna jednak rozciągać się na systemy sztucznej inteligencji przeznaczone do czysto pomocniczych czynności administracyjnych, które nie mają wpływu na faktyczne sprawowanie wymiaru sprawiedliwości w poszczególnych przypadkach, takich jak anonimizacja lub pseudonimizacja orzeczeń sądowych, dokumentów lub danych, komunikacja między członkami personelu, zadania administracyjne lub przydział zasobów.

Poprawka 72

Wniosek dotyczący rozporządzenia

Motyw 40 a (nowy)

Tekst proponowany przez Komisję Poprawka
(40a) Aby zapobiec ryzyku nadmiernej zewnętrznej ingerencji w prawo do głosowania zapisane w art. 39 Karty oraz nieproporcjonalnemu wpływowi na procesy demokratyczne, demokrację i praworządność, systemy sztucznej inteligencji przeznaczone do wykorzystania, by wpływać na wynik wyborów lub referendum lub na zachowanie wyborcze osób fizycznych podczas głosowania w wyborach lub referendach, należy klasyfikować jako systemy sztucznej inteligencji wysokiego ryzyka, z wyjątkiem systemów sztucznej inteligencji, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.

Poprawka 73

Wniosek dotyczący rozporządzenia

Motyw 40 b (nowy)

Tekst proponowany przez Komisję Poprawka
(40b) Biorąc pod uwagę skalę korzystania przez osoby fizyczne z usług platform mediów społecznościowych będących bardzo dużymi platformami internetowymi, takie platformy internetowe mogą być wykorzystywane w sposób, który wywiera silny wpływ na bezpieczeństwo w internecie, kształtowanie opinii publicznej i dyskursu publicznego, wybory, procesy demokratyczne i obawy społeczne. Systemy sztucznej inteligencji wykorzystywane przez te platformy internetowe w ich systemach rekomendacji powinny zatem podlegać niniejszemu rozporządzeniu, aby zapewnić zgodność tych systemów sztucznej inteligencji z wymogami określonymi w niniejszym rozporządzeniu, w tym z wymogami technicznymi dotyczącymi zarządzania danymi, dokumentacji technicznej, identyfikowalności, przejrzystości, nadzoru ze strony człowieka, dokładności i solidności. Zgodność z niniejszym rozporządzeniem powinna umożliwić takim bardzo dużym platformom internetowym przestrzeganie ich szerszych obowiązków w zakresie oceny ryzyka i ograniczania ryzyka określonych w art. 34 i 35 rozporządzenia (UE) 2022/2065. Obowiązki określone w niniejszym rozporządzeniu pozostają bez uszczerbku dla rozporządzenia (UE) 2022/2065 i powinny uzupełniać obowiązki wymagane na mocy rozporządzenia (UE) 2022/2065, jeżeli platforma mediów społecznościowych została uznana za bardzo dużą platformę internetową. Biorąc pod uwagę ogólnoeuropejski wpływ platform mediów społecznościowych będących bardzo dużymi platformami internetowymi, organy wyznaczone na podstawie rozporządzenia (UE) 2022/2065 powinny działać jako organy egzekwowania prawa do celów egzekwowania tego przepisu.

Poprawka 74

Wniosek dotyczący rozporządzenia

Motyw 41

Tekst proponowany przez Komisję Poprawka
(41) Faktu, że dany system sztucznej inteligencji został sklasyfikowany jako system wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest siłą rzeczy zgodne z prawem na gruncie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania poligrafów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych. Każde takie wykorzystanie należy kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego. Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych. (41) Faktu, że dany system sztucznej inteligencji został sklasyfikowany jako system sztucznej inteligencji wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest siłą rzeczy zgodne albo niezgodne z prawem na gruncie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych. Każde takie wykorzystanie należy kontynuować wyłącznie w sposób zgodny z mającymi zastosowanie wymogami wynikającymi z Karty oraz z mającymi zastosowanie aktami prawa wtórnego Unii i prawa krajowego.

Poprawka 75

Wniosek dotyczący rozporządzenia

Motyw 41 a (nowy)

Tekst proponowany przez Komisję Poprawka
(41a) Szereg prawnie wiążących przepisów na szczeblu europejskim, krajowym i międzynarodowym już dziś obowiązuje w stosunku do systemów sztucznej inteligencji lub ma w odniesieniu do nich znaczenie, w tym między innymi prawo pierwotne UE (traktaty Unii Europejskiej i Karta praw podstawowych), prawo wtórne UE (takie jak ogólne rozporządzenie o ochronie danych, dyrektywa w sprawie odpowiedzialności za produkty, rozporządzenie w sprawie swobodnego przepływu danych nieoso- bowych, dyrektywy antydyskryminacyjne, prawo ochrony konsumentów oraz dyrektywy w sprawie bezpieczeństwa i zdrowia w miejscu pracy), traktaty ONZ dotyczące praw człowieka i konwencje Rady Europy (takie jak europejska konwencja praw człowieka) oraz prawo krajowe. Poza przepisami o zastosowaniu horyzontalnym istnieje szereg przepisów, które regulują poszczególne dziedziny i odnoszą się do konkretnych zastosowań sztucznej inteligencji (takie jak np. rozporządzenie w sprawie wyrobów medycznych w sektorze opieki zdrowotnej).

Poprawka 76

Wniosek dotyczący rozporządzenia

Motyw 42

Tekst proponowany przez Komisję Poprawka
(42) Aby ograniczyć ryzyko dla użytkowników i zainteresowanych osób stwarzane przez systemy sztucznej inteligencji wysokiego ryzyka wprowadzone do obrotu lub w inny sposób oddawane do użytku na rynku unijnym, należy wprowadzić pewne obowiązkowe wymogi, z uwzględnieniem docelowego zastosowania systemu oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. (42) Aby ograniczyć ryzyko dla operatorów systemów sztucznej inteligencji i zainteresowanych osób stwarzane przez systemy sztucznej inteligencji wysokiego ryzyka wprowadzone do obrotu lub w inny sposób oddawane do użytku na rynku unijnym, należy wprowadzić pewne obowiązkowe wymogi, z uwzględnieniem docelowego lub racjonalnie przewidywanego nadużywania systemu oraz zgodnie z systemem zarządzania ryzykiem, który ma zostać ustanowiony przez dostawcę. Wymogi te powinny być ukierunkowane na cel, dostosowane do swojego przeznaczenia, rozsądne i skuteczne, bez nakładania zbędnych obciążeń regulacyjnych lub kosztów na operatorów.

Poprawka 77

Wniosek dotyczący rozporządzenia

Motyw 43

Tekst proponowany przez Komisję Poprawka
(43) Systemy sztucznej inteligencji wysokiego ryzyka powinny podlegać wymogom dotyczącym jakości wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji użytkownikom, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć zagrożenia dla zdrowia, bezpieczeństwa i praw podstawowych, w stosownych przypadkach w świetle przeznaczenia systemu, gdy nie są racjonalnie dostępne inne środki, które powodowałyby mniejsze ograniczenia w handlu, co pozwala uniknąć nieuzasadnionych ograniczeń w handlu. (43) Systemy sztucznej inteligencji wysokiego ryzyka powinny podlegać wymogom dotyczącym jakości i istotności wykorzystywanych zbiorów danych, dokumentacji technicznej i rejestrowania zdarzeń, przejrzystości i przekazywania informacji operatorom systemów sztucznej inteligencji, nadzoru ze strony człowieka oraz solidności, dokładności i cyberbezpieczeństwa. Wymogi te są konieczne, aby skutecznie ograniczyć zagrożenia dla zdrowia, bezpieczeństwa i praw podstawowych, a także środowiska, demokracji, praworządności, w stosownych przypadkach w świetle przeznaczenia lub racjonalnie przewidywanego nadużycia systemu, gdy nie są racjonalnie dostępne inne środki, które powodowałyby mniejsze ograniczenia w handlu, co pozwala uniknąć nieuzasadnionych ograniczeń w handlu.

Poprawka 78

Wniosek dotyczący rozporządzenia

Motyw 44

Tekst proponowany przez Komisję Poprawka
(44) Wysoka jakość danych ma zasadnicze znaczenie dla skuteczności działania wielu systemów sztucznej inteligencji, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system sztucznej inteligencji wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie zarządzania danymi. Zbiory danych treningowych, walidacyjnych i testowych powinny być wystarczająco adekwatne, reprezentatywne i wolne od błędów oraz kompletne z punktu widzenia przeznaczenia systemu. Powinny one również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system sztucznej inteligencji wysokiego ryzyka ma być wykorzystywany. W szczególności zbiory danych treningowych, walidacyjnych i testowych powinny uwzględniać - w zakresie wymaganym w świetle ich przeznaczenia - cechy, właściwości lub elementy, które są specyficzne dla określonego kontekstu geograficznego, behawioralnego lub funkcjonalnego lub okoliczności, w których system sztucznej inteligencji ma być wykorzystywany. Aby chronić prawa innych osób przed dyskryminacją, która może wynikać z tendencyjności systemów sztucznej inteligencji, dostawcy powinni mieć możliwość przetwarzania również szczególnych kategorii danych osobowych przez wzgląd na istotny interes publiczny w celu zapewnienia monitorowania, wykrywania i eliminowania tendencyjności w systemach sztucznej inteligencji wysokiego ryzyka. (44) Dostęp do wysokiej jakości danych odgrywa kluczową rolę w zapewnianiu struktury i skuteczności działania wielu systemów sztucznej inteligencji, w szczególności w przypadku stosowania technik obejmujących trenowanie modeli, w celu zapewnienia, aby system sztucznej inteligencji wysokiego ryzyka działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem zakazanej przez prawo Unii dyskryminacji. Wysokiej jakości zbiory danych treningowych, walidacyjnych i testowych wymagają wdrożenia odpowiednich praktyk w zakresie zarządzania danymi. Zbiory danych treningowych, a w stosownych przypadkach walidacyjnych i testowych, w tym etykiety, powinny być wystarczająco adekwatne, reprezentatywne, odpowiednio zweryfikowane pod kątem błędów oraz jak najbardziej kompletne z punktu widzenia przeznaczenia systemu. Powinny one również charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system sztucznej inteligencji wysokiego ryzyka ma być wykorzystywany, przy czym szczególną uwagę należy poświęcić zmniejszeniu ewentualnej tendencyjności w zbiorach danych, która mogłaby skutkować zagrożeniami dla praw podstawowych lub dyskryminacją osób mających styczność z systemem sztucznej inteligencji wysokiego ryzyka. Tendencyjność może być na przykład nieodłączną cechą podstawowych zbiorów danych, szczególnie jeżeli używa się danych historycznych wprowadzonych przez twórców algorytmów lub wygenerowanych na etapie wdrażania systemów w warunkach rzeczywistych. Na wyniki osiągane przez systemy sztucznej inteligencji wpływa taka nieodłączna tendencyjność, która z zasady stopniowo zwiększa się, a tym samym utrwala i pogłębia istniejącą dyskryminację, zwłaszcza w odniesieniu do osób należących do niektórych słabszych grup lub grup etnicznych czy społeczności rasowych. W szczególności zbiory danych treningowych, walidacyjnych i testowych powinny uwzględniać - w zakresie wymaganym w świetle ich przeznaczenia - cechy, właściwości lub elementy, które są specyficzne dla określonych uwarunkowań geograficznych, kontekstowych, behawioralnych lub funkcjonalnych lub kontekstu, w którym system sztucznej inteligencji ma być wykorzystywany. Aby chronić prawa innych osób przed dyskryminacją, która może
wynikać z tendencyjności systemów sztucznej inteligencji, dostawcy - wyjątkowo i po spełnieniu wszystkich obowiązujących warunków określonych w niniejszym rozporządzeniu, rozporządzeniu (UE) 2016/679, dyrektywie (UE) 2016/680 i rozporządzeniu (UE) 2018/1725 - powinni mieć możliwość przetwarzania również szczególnych kategorii danych osobowych przez wzgląd na istotny interes publiczny w celu zapewnienia monitorowania, wykrywania i eliminowania tendencyjności w systemach sztucznej inteligencji wysokiego ryzyka. Negatywna tendencyjność powinna być rozumiana jako wywołująca bezpośredni lub pośredni skutek dyskryminacyjny wobec osoby fizycznej. Wymogi związane z zarządzaniem danymi można spełnić, korzystając z usług osób trzecich, które oferują certyfikowane usługi w zakresie zgodności, w tym weryfikację zarządzania danymi, integralność zbiorów danych oraz praktyki w zakresie szkolenia, walidacji i testowania danych.

Poprawka 79

Wniosek dotyczący rozporządzenia

Motyw 45

Tekst proponowany przez Komisję Poprawka
(45) W celu opracowania systemów sztucznej inteligencji wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, w tym ośrodki innowacji cyfrowych, ośrodki testowo- doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w swoich odpowiednich obszarach działalności związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedyskryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów sztucznej inteligencji na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz przy odpowiednim zarządzaniu instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. (45) W celu opracowania i oceny systemów sztucznej inteligencji wysokiego ryzyka niektóre podmioty, takie jak dostawcy, jednostki notyfikowane i inne odpowiednie podmioty, w tym ośrodki innowacji cyfrowych, ośrodki testowo-doświadczalne i naukowcy, powinny mieć możliwość uzyskania dostępu do wysokiej jakości zbiorów danych i korzystania z nich w swoich odpowiednich obszarach działalności związanych z niniejszym rozporządzeniem. Wspólne europejskie przestrzenie danych ustanowione przez Komisję oraz ułatwienie wymiany danych między przedsiębiorstwami i udostępniania danych administracji publicznej w interesie publicznym będą miały zasadnicze znaczenie dla zapewnienia zaufanego, odpowiedzialnego i niedyskryminacyjnego dostępu do danych wysokiej jakości na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji. Na przykład w dziedzinie zdrowia europejska przestrzeń danych dotyczących zdrowia ułatwi niedys- kryminacyjny dostęp do danych dotyczących zdrowia oraz trenowanie algorytmów sztucznej inteligencji na tych zbiorach danych w sposób bezpieczny, terminowy, przejrzysty, wiarygodny i zapewniający ochronę prywatności oraz przy odpowiednim zarządzaniu instytucjonalnym. Odpowiednie właściwe organy, w tym organy sektorowe, zapewniające dostęp do danych lub wspierające taki dostęp, mogą również wspierać dostarczanie wysokiej jakości danych na potrzeby trenowania, walidacji i testowania systemów sztucznej inteligencji.

Poprawka 80

Wniosek dotyczący rozporządzenia Motyw 45 a (nowy)

Tekst proponowany przez Komisję Poprawka
(45a) Prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu sztucznej inteligencji. W tym względzie zasady minimalizacji danych oraz uwzględnienia ochrony danych już w fazie projektowania i domyślnej ochrony danych, określone w unijnych przepisach o ochronie danych, mają zasadnicze znaczenie, gdy przetwarzanie danych wiąże się z istotnym ryzykiem dla praw podstawowych osób fizycznych. Dostawcy i użytkownicy systemów sztucznej inteligencji powinni wdrożyć najnowocześniejsze środki techniczne i organizacyjne w celu ochrony tych praw. Środki te powinny obejmować nie tylko anonimizację i szyfrowanie, ale także wykorzystanie coraz bardziej dostępnej technologii, która pozwala na zastosowanie algorytmów do danych i umożliwia uzyskanie cennej wiedzy bez konieczności przekazywania danych między stronami lub niepotrzebnego kopiowania samych danych surowych lub ustrukturyzowanych.

Poprawka 81

Wniosek dotyczący rozporządzenia

Motyw 46

Tekst proponowany przez Komisję Poprawka
(46) Dysponowanie informacjami na temat tego, w jaki sposób opracowano systemy sztucznej inteligencji wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu. Wymaga to prowadzenia rejestrów zdarzeń oraz zapewnienia dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu sztucznej inteligencji z odpowiednimi wymogami. Informacje takie powinny obejmować ogólne właściwości, możliwości i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać aktualizacji. (46) Dysponowanie kompleksowymi informacjami na temat tego, w jaki sposób opracowano systemy sztucznej inteligencji wysokiego ryzyka i jak działają one w całym cyklu życia, ma zasadnicze znaczenie dla weryfikacji zgodności z wymogami określonymi w niniejszym rozporządzeniu. Wymaga to prowadzenia rejestrów zdarzeń oraz zapewnienia dostępności dokumentacji technicznej zawierającej informacje niezbędne do oceny zgodności systemu sztucznej inteligencji z odpowiednimi wymogami. Informacje takie powinny obejmować ogólne właściwości, możliwości i ograniczenia systemu, algorytmy, dane, procesy związane z trenowaniem, testowaniem i walidacją, a także dokumentację dotyczącą odpowiedniego systemu zarządzania ryzykiem. Dokumentacja techniczna powinna podlegać odpowiedniej aktualizacji w całym cyklu życia systemu sztucznej inteligencji. Systemy sztucznej inteligencji mogą mieć duży i istotny wpływ na środowisko i wysokie zużycie energii podczas swojego cyklu życia. Aby lepiej uwzględnić wpływ systemów sztucznej inteligencji na środowisko, dokumentacja techniczna sporządzana przez dostawców powinna zawierać informacje na temat zużycia energii przez system sztucznej inteligencji, w tym zużycia podczas opracowywania i przewidywanego zużycia podczas użytkowania. Informacje takie powinny uwzględniać odpowiednie przepisy unijne i krajowe. Te zgłaszane informacje powinny być zrozumiałe, porównywalne i weryfikowalne i w tym celu Komisja powinna opracować wytyczne dotyczące zharmonizowanej metodologii obliczania i przekazywania tych informacji. W celu zapewnienia, aby możliwa była jedna dokumentacja, terminy i definicje związane z wymaganą dokumentacją oraz wszelkie dokumenty wymagane w odpowiednich unijnych przepisach muszą być w jak największym stopniu ze sobą zgodne.

Poprawka 82

Wniosek dotyczący rozporządzenia

Motyw 46 a (nowy)

Tekst proponowany przez Komisję Poprawka
(46a) Systemy sztucznej inteligencji powinny uwzględniać nowoczesne metody i odnośne obowiązujące standardy w celu redukcji zużycia energii i zasobów, zmniejszenia ilości odpadów, zwiększenia efektywności energetycznej i ogólnej efektywności systemu. Aspekty środowiskowe systemów sztucznej inteligencji, które są istotne do celów niniejszego rozporządzenia, to zużycie energii przez system sztucznej inteligencji na etapie opracowywania, szkolenia i wdrażania, a także rejestrowanie, zgłaszanie i przechowywanie tych danych. Projektowanie systemów sztucznej inteligencji powinno umożliwiać pomiar i rejestrowanie zużycia energii i zasobów na każdym etapie opracowywania, szkolenia i wdrażania. Monitorowanie i sprawozdawczość w zakresie emisji z systemów sztucznej inteligencji muszą być solidne, przejrzyste, spójne i dokładne. W celu zapewnienia jednolitego stosowania niniejszego rozporządzenia i stabilnego ekosystemu prawnego dla dostawców i operatorów systemów sztucznej inteligencji na jednolitym rynku Komisja powinna opracować wspólne specyfikacje dotyczące metodyki spełnienia wymogów w zakresie sprawozdawczości i dokumentacji dotyczących zużycia energii i zasobów podczas opracowywania, szkolenia i wdrażania. Takie wspólne specyfikacje dotyczące metodyki pomiaru mogą stanowić podstawę, na której Komisja może lepiej decydować, czy potrzebne są przyszłe interwencje regulacyjne po przeprowadzeniu oceny skutków uwzględniającej obowiązujące prawo.

Poprawka 83

Wniosek dotyczący rozporządzenia

Motyw 46 b (nowy)

Tekst proponowany przez Komisję Poprawka
(46b) Aby osiągnąć cele niniejszego rozporządzenia i przyczynić się do realizacji celów środowiskowych Unii, przy jednoczesnym zapewnieniu sprawnego funkcjonowania rynku wewnętrznego, konieczne może być opracowanie zaleceń i wytycznych oraz, ostatecznie, celów zrówno- ważoności. Dlatego Komisja jest uprawniona do opracowania metodyki, która pozwoli wnieść wkład w kluczowe wskaźniki skuteczności działania oraz odniesienie dla celów zrównoważonego rozwoju. Celem powinno być przede wszystkim umożliwienie uczciwego porównania wyborów dotyczących wdrażania sztucznej inteligencji, które zachęcają do promowania stosowania bardziej wydajnych technologii sztucznej inteligencji rozwiązujących problemy związane z energią i zasobami. Aby osiągnąć ten cel, niniejsze rozporządzenie powinno zapewnić środki do ustanowienia podstaw gromadzenia danych zgłaszanych na temat emisji pochodzących z opracowywania, szkolenia i wdrażania.

Poprawka 84

Wniosek dotyczący rozporządzenia

Motyw 47 a (nowy)

Tekst proponowany przez Komisję Poprawka
(47a) Takie wymogi dotyczące przejrzystości i wytłumaczal- ności procesu decyzyjnego w zakresie sztucznej inteligencji powinny również pomóc w przeciwdziałaniu odstraszającym skutkom asymetrii cyfrowej i tzw. zwodniczych interfejsów ukierunkowanych na osoby fizyczne i ich świadomą zgodę.

Poprawka 85

Wniosek dotyczący rozporządzenia

Motyw 49

Tekst proponowany przez Komisję Poprawka
(49) Systemy sztucznej inteligencji wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa zgodnie z powszechnie uznawanym stanem wiedzy. O poziomie dokładności i wskaźnikach dokładności należy informować użytkowników. (49) Systemy sztucznej inteligencji wysokiego ryzyka powinny działać w sposób spójny w całym cyklu życia i charakteryzować się odpowiednim poziomem dokładności, solidności i cyberbezpieczeństwa zgodnie z powszechnie uznawanym stanem wiedzy.Wskaźniki skuteczności i ich spodziewany poziom należy zdefiniować zgodnie z zasadniczym celem ograniczenia zagrożeń i negatywnego wpływu systemu sztucznej inteligencji. O oczekiwanym poziomie wskaźników skuteczności należy informować operatorów systemów sztucznej inteligencji w jasny, przejrzysty, zrozumiały i czytelny sposób. Deklaracji wskaźników skuteczności nie można uznać za dowód przyszłych poziomów, ale należy zastosować odpowiednie metody, aby zapewnić spójność poziomów podczas stosowania. Chociaż istnieją organizacje normalizacyjne, które ustanawiają normy, konieczna jest koordynacja w zakresie analizy porównawczej w celu ustalenia, w jaki sposób należy mierzyć te znormalizowane wymogi i właściwości systemów sztucznej inteligencji. Europejski Urząd ds. Sztucznej Inteligencji powinien skupiać krajowe i międzynarodowe organy ds. metrologii i ustalania wskaźników oraz wydawać niewiążące wytyczne dotyczące technicznych aspektów pomiaru odpowiedniego poziomu skuteczności i solidności.

Poprawka 86

Wniosek dotyczący rozporządzenia

Motyw 50

Tekst proponowany przez Komisję Poprawka
(50) Kluczowym wymogiem dotyczącym systemów sztucznej inteligencji wysokiego ryzyka jest solidność techniczna. Systemy te powinny być odporne na zagrożenia związane z ograniczeniami systemu (np. błędami, usterkami, niespójnościami, nieprzewidzianymi sytuacjami), jak również na szkodliwe działania, które mogą naruszyć bezpieczeństwo systemu sztucznej inteligencji i prowadzić do szkodliwych lub innych niepożądanych zachowań. Brak ochrony przed tymi zagrożeniami może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji bądź nieprawidłowych lub tendencyjnych wyników działania generowanych przez system sztucznej inteligencji. (50) Kluczowym wymogiem dotyczącym systemów sztucznej inteligencji wysokiego ryzyka jest solidność techniczna. Systemy te powinny być odporne na zagrożenia związane z ograniczeniami systemu (np. błędami, usterkami, niespójnościami, nieprzewidzianymi sytuacjami), jak również na szkodliwe działania, które mogą naruszyć bezpieczeństwo systemu sztucznej inteligencji i prowadzić do szkodliwych lub innych niepożądanych zachowań. Brak ochrony przed tymi zagrożeniami może mieć konsekwencje dla bezpieczeństwa lub negatywnie wpłynąć na prawa podstawowe, na przykład z powodu błędnych decyzji bądź nieprawidłowych lub tendencyjnych wyników działania generowanych przez system sztucznej inteligencji. Użytkownicy systemów sztucznej inteligencji powinni dokładać starań, by ewentualny kompromis między solidnością a dokładnością nie prowadził do dyskryminujących lub negatywnych skutków dla podgrup mniejszości.

Poprawka 87

Wniosek dotyczący rozporządzenia

Motyw 51

Tekst proponowany przez Komisję Poprawka
(51) Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów sztucznej inteligencji na próby modyfikacji ich zastosowania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące podatności systemu. Cyberataki na systemy sztucznej inteligencji mogą polegać na wykorzystaniu konkretnych zasobów, takich jak zbiory danych treningowych (np. "data poisoning") lub trenowane modele (np. ataki polegające na wprowadzeniu do modelu złośliwych danych w celu spowodowania niezamierzonego działania systemu), lub wykorzystaniu podatności w zasobach cyfrowych systemu sztucznej inteligencji lub w infrastrukturze ICT, na której opiera się dany system. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów sztucznej inteligencji wysokiego ryzyka powinni zatem wdrożyć odpowiednie środki, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system. (51) Cyberbezpieczeństwo odgrywa kluczową rolę w zapewnianiu odporności systemów sztucznej inteligencji na próby modyfikacji ich zastosowania, zachowania, skuteczności działania lub obejścia ich zabezpieczeń przez działające w złej wierze osoby trzecie wykorzystujące podatności systemu. Cyberataki na systemy sztucznej inteligencji mogą polegać na wykorzystaniu konkretnych zasobów, takich jak zbiory danych treningowych (np. "data poisoning") lub trenowane modele (np. ataki polegające na wprowadzeniu do modelu złośliwych danych w celu spowodowania niezamierzonego działania systemu lub ataki na poufność), lub wykorzystaniu podatności w zasobach cyfrowych systemu sztucznej inteligencji lub w infrastrukturze ICT, na której opiera się dany system. Aby zapewnić poziom cyberbezpieczeństwa odpowiedni do ryzyka, dostawcy systemów sztucznej inteligencji wysokiego ryzyka, jak również jednostki notyfikowane, właściwe organy krajowe i organy nadzoru rynku powinni zatem wdrożyć odpowiednie środki, uwzględniając również w stosownych przypadkach infrastrukturę ICT, na której opiera się dany system. Systemy sztucznej inteligencji wysokiego ryzyka powinny być wyposażone w rozwiązania w zakresie bezpieczeństwa i w łatki zabezpieczające przewidziane na cały cykl życia konkretnego produktu lub - w przypadku braku zależności od konkretnego produktu - na czas określony przez producenta.

Poprawka 88

Wniosek dotyczący rozporządzenia

Motyw 53 a (nowy)

Tekst proponowany przez Komisję Poprawka
(53a) Jako sygnatariusze Konwencji ONZ o prawach osób niepełnosprawnych Unia i państwa członkowskie są prawnie zobowiązane do ochrony osób z niepełnospraw- nościami przed dyskryminacją i do propagowania ich równości, do zapewnienia im dostępu na równych zasadach z innymi osobami do technologii i systemów informacyjno-komunikacyjnych oraz do zapewnienia poszanowania ich prywatności. Z uwagi na rosnące znaczenie i stosowanie systemów sztucznej inteligencji stosowanie zasad projektowania uniwersalnego do wszystkich nowych technologii i usług powinno zapewniać pełny, równy i nieograniczony dostęp dla wszystkich osób, których potencjalnie dotyczą technologie sztucznej inteligencji lub które je stosują, w tym osób z niepełnosprawnościami, w sposób uwzględniający w pełni ich przyrodzoną godność i różnorodność. Istotne jest zatem, aby dostawcy zapewniali pełną zgodność z wymogami dostępności, w tym z dyrektywą (UE) 2016/2102 i dyrektywą (UE) 2019/882. Dostawcy powinni zapewnić zgodność z tymi wymogami już na etapie projektowania. W związku z tym w projektowaniu systemu sztucznej inteligencji wysokiego ryzyka należy w jak największym stopniu uwzględnić niezbędne środki.

Poprawka 89

Wniosek dotyczący rozporządzenia

Motyw 54

Tekst proponowany przez Komisję Poprawka
(54) Dostawca powinien ustanowić skuteczny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. Organy publiczne, które oddają do użytku systemy sztucznej inteligencji wysokiego ryzyka na własny użytek, mogą przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością w ramach systemu zarządzania jakością przyjętego, stosownie do przypadku, na szczeblu krajowym lub regionalnym, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego. (54) Dostawca powinien ustanowić skuteczny system zarządzania jakością, zapewnić przeprowadzenie wymaganej procedury oceny zgodności, sporządzić odpowiednią dokumentację i ustanowić solidny system monitorowania po wprowadzeniu do obrotu. W przypadku dostawców, którzy już posiadają systemy zarządzania jakością oparte na normach takich jak ISO 9001 lub innych odpowiednich normach, nie należy oczekiwać pełnego powielania systemu zarządzania jakością, lecz raczej dostosowania istniejących systemów do pewnych aspektów związanych ze zgodnością ze szczegółowymi wymogami niniejszego rozporządzenia. Powinno to również znaleźć odzwierciedlenie w przyszłej działalności normalizacyjnej lub w wytycznych przyjętych przez Komisję w tym zakresie. Organy publiczne, które oddają do użytku systemy sztucznej inteligencji wysokiego ryzyka na własny użytek, mogą przyjąć i wdrożyć zasady dotyczące systemu zarządzania jakością w ramach systemu zarządzania jakością przyjętego, stosownie do przypadku, na szczeblu krajowym lub regionalnym, z uwzględnieniem specyfiki sektora oraz kompetencji i organizacji danego organu publicznego.

Poprawka 90

Wniosek dotyczący rozporządzenia

Motyw 56

Tekst proponowany przez Komisję Poprawka
(56) W celu umożliwienia egzekwowania niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także biorąc pod uwagę różnorakie formy udostępniania produktów cyfrowych, należy zapewnić, aby osoba mająca siedzibę w Unii zawsze była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności systemu sztucznej inteligencji z przepisami. W związku z tym w przypadku, gdy nie ma możliwości zidentyfikowania importera, dostawcy mający siedzibę poza terytorium Unii są zobowiązani wyznaczyć - na podstawie pisemnego pełnomocnictwa - upoważnionego przedstawiciela mającego siedzibę w Unii przed udostępnieniem swoich systemów sztucznej inteligencji w Unii. (56) W celu umożliwienia egzekwowania niniejszego rozporządzenia i stworzenia równych warunków działania dla operatorów, a także biorąc pod uwagę różnorakie formy udostępniania produktów cyfrowych, należy zapewnić, aby osoba mająca siedzibę w Unii zawsze była w stanie przekazać organom wszystkie niezbędne informacje dotyczące zgodności systemu sztucznej inteligencji z przepisami. W związku z tym dostawcy mający siedzibę poza terytorium Unii są zobowiązani wyznaczyć - na podstawie pisemnego pełnomocnictwa - upoważnionego przedstawiciela mającego siedzibę w Unii przed udostępnieniem swoich systemów sztucznej inteligencji w Unii.

Poprawka 91

Wniosek dotyczący rozporządzenia

Motyw 58

Tekst proponowany przez Komisję Poprawka
(58) Ze względu na naturę systemów sztucznej inteligencji oraz zagrożenia dla bezpieczeństwa i praw podstawowych, jakie mogą wiązać się z ich wykorzystywaniem, w tym uwzględniając potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu sztucznej inteligencji w warunkach rzeczywistych, należy określić szczególne obowiązki użytkowników. Użytkownicy powinni w szczególności korzystać z systemów sztucznej inteligencji wysokiego ryzyka zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów sztucznej inteligencji oraz rejestrowania zdarzeń. (58) Ze względu na naturę systemów sztucznej inteligencji oraz zagrożenia dla bezpieczeństwa i praw podstawowych, jakie mogą wiązać się z ich wykorzystywaniem, w tym uwzględniając potrzebę zapewnienia właściwego monitorowania skuteczności działania systemu sztucznej inteligencji w warunkach rzeczywistych, należy określić szczególne obowiązki operatorów sztucznej inteligencji. Operatorzy sztucznej inteligencji powinni w szczególności korzystać z systemów sztucznej inteligencji wysokiego ryzyka zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów sztucznej inteligencji oraz rejestrowania zdarzeń.

Poprawka 92

Wniosek dotyczący rozporządzenia

Motyw 58 a (nowy)

Tekst proponowany przez Komisję Poprawka
(58a) Ryzyko związane z systemami sztucznej inteligencji może wynikać ze sposobu projektowania takich systemów, jak również ze sposobu korzystania z nich. Operatorzy systemu sztucznej inteligencji wysokiego ryzyka odgrywają zatem kluczową rolę w zapewnianiu ochrony praw podstawowych jako uzupełnienie obowiązków dostawcy podczas opracowywania systemu sztucznej inteligencji. Operatorzy systemu sztucznej inteligencji najlepiej rozumieją, jak konkretnie stosowany będzie system sztucznej inteligencji wysokiego ryzyka, i mogą w związku z tym zidentyfikować potencjalne poważne ryzyka, które nie zostały przewidziane na etapie opracowywania, dzięki bardziej precyzyjnej wiedzy na temat kontekstu stosowania oraz osób lub grup osób, na które system może wywierać wpływ, w tym grup zmarginalizowanych i szczególnie wrażliwych. Operatorzy powinni określić odpowiednie struktury zarządzania w tym konkretnym kontekście użytkowania, takie jak ustalenia dotyczące nadzoru ze strony człowieka oraz procedury rozpatrywania skarg i dochodzenia roszczeń, ponieważ wybory w strukturach zarządzania mogą mieć zasadnicze znaczenie dla ograniczania zagrożeń dla praw podstawowych w konkretnych przypadkach użycia. Aby skutecznie
zapewnić ochronę praw podstawowych, operator systemu sztucznej inteligencji wysokiego ryzyka powinien w związku z tym przeprowadzić ocenę wpływu systemu na prawa podstawowe, zanim odda go do użytku. Ocenie wpływu powinien towarzyszyć szczegółowy plan opisujący środki lub narzędzia, które pomogą ograniczać zidentyfikowane ryzyko dla praw podstawowych najpóźniej z chwilą oddania systemu do użytku. Jeżeli nie można zidentyfikować takiego planu, operator systemu sztucznej inteligencji powinien powstrzymać się od oddania systemu do użytku. Przeprowadzając ocenę skutków, operator systemu sztucznej inteligencji powinien powiadomić krajowy organ nadzoru oraz, w jak największym stopniu, odpowiednie zainteresowane strony, a także przedstawicieli grup osób, na które system sztucznej inteligencji może mieć wpływ, w celu zebrania odpowiednich informacji niezbędnych do przeprowadzenia oceny skutków, i zachęca je do podawania podsumowania oceny skutków w zakresie praw podstawowych do wiadomości publicznej na stronie internetowej. Obowiązki te nie powinny mieć zastosowania do MŚP, które ze względu na brak zasobów mogą mieć trudności z przeprowadzeniem takich konsultacji. Nie mniej jednak powinni oni starać się też angażować takich przedstawicieli przy przeprowadzaniu oceny wpływu na prawa podstawowe.Ponadto, biorąc pod uwagę potencjalny wpływ i potrzebę demokratycznego nadzoru i kontroli, od operatorów systemów sztucznej inteligencji wysokiego ryzyka, którzy są organami publicznymi lub instytucjami, organami, urzędami i agencjami Unii, a także od operatorów, którzy są przedsiębiorstwami wyznaczonymi jako strażnicy dostępu na podstawie rozporządzenia (UE) 2022/1925, należy wymagać rejestracji zastosowania każdego systemu sztucznej inteligencji wysokiego ryzyka w publicznej bazie danych. Inni operatorzy mogą zarejestrować się dobrowolnie.

Poprawka 93

Wniosek dotyczący rozporządzenia

Motyw 59

Tekst proponowany przez Komisję Poprawka
(59) Należy przewidzieć, że za użytkownika systemu sztucznej inteligencji uznaje się osobę fizyczną lub prawną, organ publiczny, agencję lub inny organ, które odpowiadają za eksploatację systemu sztucznej inteligencji, chyba że system jest wykorzystywany w ramach osobistej działalności pozazawodowej. (59) Należy przewidzieć, że za operatora systemu sztucznej inteligencji uznaje się osobę fizyczną lub prawną, organ publiczny, agencję lub inny organ, które odpowiadają za eksploatację systemu sztucznej inteligencji, chyba że system jest wykorzystywany w ramach osobistej działalności pozazawodowej.

Poprawka 94

Wniosek dotyczący rozporządzenia

Motyw 60

Tekst proponowany przez Komisję Poprawka
(60) Ponieważ łańcuch wartości sztucznej inteligencji jest złożony, odpowiednie osoby trzecie - w szczególności zajmujące się sprzedażą i dostarczaniem oprogramowania, narzędzi i elementów oprogramowania, wcześniej wytrenowanych modeli i danych lub dostawcy usług sieciowych - powinny współpracować, w stosownych przypadkach, z dostawcami i użytkownikami, aby umożliwić im wypełnianie obowiązków wynikających z niniejszego rozporządzenia, oraz z właściwymi organami ustanowionymi na podstawie niniejszego rozporządzenia. (60) W ramach łańcucha wartości sztucznej inteligencji wiele podmiotów często dostarcza narzędzia i usługi, ale również elementy lub procesy, które są następnie włączane przez dostawcę do systemu sztucznej inteligencji, w tym w odniesieniu do gromadzenia i wstępnego przetwarzania danych, trenowania modelu, przekwalifikowania modelu, testowania i oceny modelu, integracji z oprogramowaniem lub innych aspektów rozwoju modelu. Podmioty zaangażowane mogą udostępniać swoją ofertę komercyjną bezpośrednio lub pośrednio, za pośrednictwem interfejsów, takich jak interfejsy programowania aplikacji, i dystrybuować je na bezpłatnych i otwartych licencjach, ale również coraz częściej przez platformy pracowników AI, odsprzedaż przetrenowanych parametrów, zestawy do własnoręcznego tworzenia modeli lub oferowanie płatnego dostępu do modelu obsługującego architekturę służącą do opracowywania i trenowania modeli. Ponieważ łańcuch wartości sztucznej inteligencji jest złożony, wszystkie odpowiednie osoby trzecie - w szczególności te, które zajmują się opracowywaniem, sprzedażą i komercyjnym dostarczaniem narzędzi oprogramowania, komponentów, wcześniej wytrenowanych modeli lub danych wbudowanych w system sztucznej inteligencji, lub dostawcy usług sieciowych - powinny udostępniać, nie naruszając własnych praw własności intelektualnej lub tajemnic przedsiębiorstwa, wymagane informacje, szkolenia lub wiedzę fachową oraz współpracować, w stosownych przypadkach, z dostawcami, aby umożliwić im kontrolę nad wszystkimi aspektami systemu sztucznej inteligencji, które wchodzą w zakres niniejszego rozporządzenia, istotnymi dla wypełniania obowiązków. Aby umożliwić racjonalne pod względem kosztów zarządzanie łańcuchem wartości sztucznej inteligencji, poziom kontroli jest wyraźnie ujawniany przez każdą osobę trzecią, która dostarcza dostawcy narzędzie, usługę, komponent lub proces, włączane później przez dostawcę do systemu sztucznej inteligencji.

Poprawka 95

Wniosek dotyczący rozporządzenia

Motyw 60 a (nowy)

Tekst proponowany przez Komisję Poprawka
(60a) Jeżeli jedna ze stron ma silniejszą pozycję negocjacyjną, istnieje ryzyko, że strona ta mogłaby wykorzystać taką pozycję ze szkodą dla drugiej umawiającej się strony podczas negocjowania dostarczania narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub zakończenia powiązanych obowiązków. Takie zaburzenia równowagi umownej szkodzą w szczególności mikroprzedsiębiorstwom oraz małym i średnim przedsiębiorstwom, a także przedsiębiorstwom typu startup, chyba że są one własnością lub podwykonawcą przedsiębiorstwa, które jest w stanie odpowiednio wypłacić podwykonawcom rekompensaty, ponieważ nie mają one istotnej zdolności do negocjowania warunków umowy i mogą nie mieć innego wyboru, jak tylko zaakceptować postanowienia umowne na zasadzie "przyjmij albo zrezygnuj". W związku z tym nieuczciwe postanowienia umowne regulujące dostarczanie narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środki zaradcze w przypadku naruszenia lub wygaśnięcia powiązanych obowiązków, nie powinny być wiążące dla takich mikroprzedsiębiorstw, małych i średnich przedsiębiorstw oraz przedsiębiorstw typu startup, jeżeli zostały na nie jednostronnie nałożone.

Poprawka 96

Wniosek dotyczący rozporządzenia

Motyw 60 b (nowy)

Tekst proponowany przez Komisję Poprawka
(60b) W przepisach dotyczących postanowień umownych należy uwzględnić zasadę swobody zawierania umów będącą podstawową ideą, jeżeli chodzi o stosunki między przedsiębiorstwami. Dlatego też analizie nieuczciwego charakteru nie powinny podlegać wszystkie postanowienia umowne, a jedynie te, które zostały jednostronnie nałożone na mikroprzedsiębiorstwa oraz małe i średnie przedsiębiorstwa oraz przedsiębiorstwa typu startup. Dotyczy to stosowania zasady "przyjmij albo zrezygnuj" - w takiej sytuacji mikroprzedsiębiorstwo lub małe lub średnie przedsiębiorstwo oraz przedsiębiorstwo typu startup nie jest w stanie wywrzeć wpływu na treść postanowienia umownego zaproponowanego przez drugą stronę pomimo prób negocjacji treści takiego postanowienia. Za postanowienie umowne nałożone jednostronnie nie należy uznać postanowienia umownego, które zostało zwyczajnie przedstawione przez jedną stronę i zaakceptowane przez mikroprzedsiębior- stwo lub małe lub średnie przedsiębiorstwo lub przedsiębiorstwo typu startup ani też postanowienia wynegocjowanego i następnie uzgodnionego na zasadzie zmiany między umawiającymi się stronami.

Poprawka 97

Wniosek dotyczący rozporządzenia

Motyw 60 c (nowy)

Tekst proponowany przez Komisję Poprawka
(60c) Ponadto przepisy dotyczące nieuczciwych postanowień umownych należy stosować wyłącznie do tych elementów umowy, które dotyczą dostarczania narzędzi, usług, komponentów lub procesów, które są wykorzystywane lub zintegrowane z systemem sztucznej inteligencji wysokiego ryzyka, lub środków zaradczych w przypadku naruszenia lub zakończenia powiązanych obowiązków. Analiza nieuczciwego charakteru określona w niniejszym rozporządzeniu nie powinna mieć zastosowania do innych części tej samej umowy, niezwiązanych z tymi elementami.

Poprawka 98

Wniosek dotyczący rozporządzenia

Motyw 60 d (nowy)

Tekst proponowany przez Komisję Poprawka
(60d) Kryteria służące do identyfikacji nieuczciwych postano-
wień umownych należy stosować wyłącznie wobec nieproporcjonalnych postanowień umownych, w przypadku których dochodzi do nadużycia silniejszej pozycji negocjacyjnej. Zdecydowana większość postanowień umownych, które w kontekście handlowym są korzystniejsze dla jednej ze stron, w tym postanowienia zwykle występujące w umowach między przedsiębiorstwami, zwyczajnie odzwierciedla zasadę swobody zawierania umów i nadal obowiązuje. Jeżeli postanowienie umowne nie figuruje w wykazie warunków zawsze uznawanych za nieuczciwe, zastosowanie ma ogólny przepis dotyczący nieuczciwego charakteru. W tym względzie postanowienia wymienione jako nieuczciwe postanowienia umowne powinny służyć jako kryteria interpretacji ogólnego przepisu dotyczącego nieuczciwego charakteru.

Poprawka 99

Wniosek dotyczący rozporządzenia

Motyw 60 e (nowy)

Tekst proponowany przez Komisję Poprawka
(60e) Modele generatywne to nowe zjawisko, w którym modele sztucznej inteligencji są opracowywane na podstawie algorytmów zaprojektowanych w celu optymalizacji pod kątem ogólnego i wszechstronnego charakteru wyników. Modele te są często trenowane na szerokim wachlarzu źródeł danych i dużej ilości danych w celu realizacji szerokiego zakresu zadań niższego szczebla, w tym niektórych, w odniesieniu do których nie zostały one specjalnie opracowane i przetrenowane. Model generatywny może być jednomodalny lub multimodalny, przetrenowany za pomocą różnych metod, takich jak uczenie nadzorowane lub uczenie przez wzmacnianie. Systemy sztucznej inteligencji o szczególnym przeznaczeniu lub systemy sztucznej inteligencji ogólnego przeznaczenia mogą być wdrożeniem modelu generatywnego, co oznacza, że każdy model generatywny może być ponownie wykorzystany w niezliczonych systemach sztucznej inteligencji niższego szczebla lub systemach sztucznej inteligencji ogólnego przeznaczenia. Modele te mają coraz większe znaczenie dla wielu aplikacji i systemów niższego szczebla.

Poprawka 100

Wniosek dotyczący rozporządzenia Motyw 60 f (nowy)

Tekst proponowany przez Komisję Poprawka
(60f) W przypadku modeli generatywnych świadczonych jako usługa, np. poprzez dostęp do interfejsu programowania aplikacji, współpraca z dostawcami niższego szczebla powinna trwać przez cały okres, w którym usługa ta jest świadczona i obsługiwana, aby umożliwić odpowiednie ograniczenie ryzyka, chyba że dostawca modelu genera- tywnego przekazuje model treningowy, a także obszerne i odpowiednie informacje na temat zbiorów danych i procesu rozwoju systemu lub ogranicza usługę, taką jak dostęp do interfejsu programowania aplikacji, w taki sposób, aby dostawca niższego szczebla był w stanie w pełni przestrzegać niniejszego rozporządzenia bez dalszego wsparcia ze strony pierwotnego dostawcy modelu generatywnego.

Poprawka 101

Wniosek dotyczący rozporządzenia Motyw 60 g (nowy)

Tekst proponowany przez Komisję Poprawka
(60g) W świetle charakteru i złożoności łańcucha wartości systemu sztucznej inteligencji zasadnicze znaczenie ma wyjaśnienie roli podmiotów przyczyniających się do opracowywania systemów sztucznej inteligencji. Istnieje znaczna niepewność co do sposobu rozwoju modeli generatywnych, zarówno pod względem typologii modeli, jak i autonomii. W związku z tym konieczne jest wyjaśnienie sytuacji prawnej dostawców modeli gene- ratywnych. W połączeniu z ich złożonością i nieoczekiwanym wpływem, brakiem kontroli ze strony dostawcy sztucznej inteligencji niższego szczebla nad rozwojem modelu generatywnego i wynikającym z tego brakiem równowagi sił, a także w celu zapewnienia sprawiedliwego podziału odpowiedzialności w całym łańcuchu wartości sztucznej inteligencji, modele takie powinny podlegać proporcjonalnym i bardziej szczegółowym wymogom i obowiązkom na mocy niniejszego rozporządzenia, a mianowicie modele generatywne powinny oceniać i ograniczać ewentualne ryzyko i szkody poprzez odpowiednie projektowanie, testowanie i analizę, powinny wdrażać środki zarządzania danymi, w tym ocenę tendencyjności, oraz powinny być zgodne z wymogami projektu technicznego, aby zapewnić odpowiednie poziomy efektywności, przewidywalności, interpretowal- ności, poprawialności, bezpieczeństwa i cyberbezpieczeń- stwa oraz powinny być zgodne z normami środowiskowymi. Obowiązkom tym powinny towarzyszyć normy. Ponadto modele generatywne powinny zawierać obowiązki informacyjne i przygotowywać całą niezbędną dokumentację techniczną, aby potencjalni dostawcy niższego szczebla mogli wypełniać swoje obowiązki wynikające z niniejszego rozporządzenia. Modele generatywne powinny zapewniać przejrzystość w odniesieniu do faktu, że treści są generowane przez system sztucznej inteligencji, a nie przez człowieka. Te szczególne wymogi i obowiązki nie sprowadzają się do uznania modeli generatywnych za systemy sztucznej inteligencji wysokiego ryzyka, ale powinny gwarantować osiągnięcie celów niniejszego rozporządzenia polegających na zapewnieniu wysokiego poziomu ochrony praw podstawowych, zdrowia i bezpieczeństwa, środowiska, demokracji i praworządności. Wstępnie przetrenowanych modeli opracowanych dla węższego, mniej ogólnego, bardziej ograniczonego zestawu zastosowań, których nie można dostosować do szerokiego zakresu zadań, takich jak proste, wielofunkcyjne systemy sztucznej inteligencji, nie należy uznawać za modele generatywne do celów niniejszego rozporządzenia ze względu na ich większą interpretowalność, co sprawia, że ich zachowanie jest mniej nieprzewidywalne.

Poprawka 102

Wniosek dotyczący rozporządzenia Motyw 60 h (nowy)

Tekst proponowany przez Komisję Poprawka
(60h) Biorąc pod uwagę charakter modeli generatywnych, brakuje wiedzy fachowej w zakresie oceny zgodności, a metody audytu prowadzonego przez osoby trzecie są nadal w fazie opracowywania. W związku z tym sam sektor opracowuje nowe sposoby oceny modeli generatywnych, które częściowo spełniają cel audytu (takie jak ocena modelu, red teaming lub techniki weryfikacji i walidacji uczenia się maszyn). Te wewnętrzne oceny modeli generatywnych powinny mieć szerokie zastosowanie (np. niezależnie od kanałów dystrybucji, trybu, metod rozwoju), aby uwzględnić ryzyko specyficzne dla takich modeli, z uwzględnieniem najnowocześniejszych praktyk w branży, oraz koncentrować się na rozwijaniu wystarczającego poziomu wiedzy technicznej i kontroli nad modelem, zarządzaniu racjonalnie przewidywalnym ryzykiem oraz szeroko zakrojonej analizie i testowaniu modelu za pomocą odpowiednich środków, takich jak zaangażowanie niezależnych oceniających. Ponieważ modele generatywne są nowym i szybko zmieniającym się zjawiskiem w dziedzinie sztucznej inteligencji, Komisja i Urząd ds. Sztucznej Inteligencji powinny monitorować i okresowo oceniać ramy legislacyjne i ramy zarządzania takimi modelami, a w szczególności generatywne systemy sztucznej inteligencji oparte na takich modelach, które budzą poważne wątpliwości związane z generowaniem treści z naruszeniem prawa Unii, przepisów dotyczących praw autorskich i potencjalnym niewłaściwym wykorzystaniem. Należy wyjaśnić, że niniejsze rozporządzenie powinno pozostawać bez uszczerbku dla prawa Unii dotyczącego prawa autorskiego i praw pokrewnych, w tym dla dyrektyw Parlamentu Europejskiego i Rady 2001/29/WE, 2004/48/WE i (UE) 2019/790.

Poprawka 103

Wniosek dotyczący rozporządzenia

Motyw 61

Tekst proponowany przez Komisję Poprawka
(61) Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja. Zgodność z normami zharmonizowanymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 1025/ (54) powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Komisja może jednak przyjąć wspólne specyfikacje techniczne w obszarach, w których nie istnieją normy zharmonizowane lub w których są one niewystarczające. (61) Kluczową rolę w dostarczaniu dostawcom rozwiązań technicznych w celu zapewnienia zgodności z niniejszym rozporządzeniem powinna odgrywać normalizacja. Zgodność z normami zharmonizowanymi określonymi w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 1025/2012 (54) powinna stanowić dla dostawców sposób wykazania zgodności z wymogami niniejszego rozporządzenia. Aby zapewnić skuteczność norm jako narzędzi polityki Unii, a także mając na uwadze znaczenie norm dla zapewnienia zgodności z wymogami niniejszego rozporządzenia oraz dla konkurencyjności przedsiębiorstw, konieczne jest zapewnienie zrównoważonej reprezentacji interesów poprzez zaangażowanie wszystkich odpowiednich zainteresowanych stron w opracowywanie norm. Proces normalizacji powinien być przejrzysty w odniesieniu do osób prawnych i fizycznych, które uczestniczą w działaniach normalizacyjnych.
(54) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

nr 1025/2012 z dnia 25 października 2012 r. w sprawie normalizacji europejskiej, zmieniające dyrektywy Rady 89/686/EWG i 93/15/EWG oraz dyrektywy Parlamentu Europejskiego i Rady 94/9/WE, 94/25/WE, 95/16/WE, 97/23/WE, 98/34/WE, 2004/22/WE, 2007/23/WE, 2009/23/WE

i 2009/105/WE oraz uchylające decyzję Rady 87/95/EWG i decyzję Parlamentu Europejskiego i Rady nr 1673/2006/WE (Dz.U. L 316 z 14.11.2012, s. 12).

(54) Rozporządzenie Parlamentu Europejskiego i Rady (UE)

nr 1025/2012 z dnia 25 października 2012 r. w sprawie normalizacji europejskiej, zmieniające dyrektywy Rady 89/686/EWG i 93/15/EWG oraz dyrektywy Parlamentu Europejskiego i Rady 94/9/WE, 94/25/WE, 95/16/WE, 97/23/WE, 98/34/WE, 2004/22/WE, 2007/23/WE, 2009/23/WE

i 2009/105/WE oraz uchylające decyzję Rady 87/95/EWG i decyzję Parlamentu Europejskiego i Rady nr 1673/2006/WE (Dz.U. L 316 z 14.11.2012, s. 12).

Poprawka 104

Wniosek dotyczący rozporządzenia Motyw 61 a (nowy)

Tekst proponowany przez Komisję Poprawka
(61a) Aby ułatwić przestrzeganie przepisów, pierwsze wnioski o normalizację powinny zostać wydane przez Komisję najpóźniej dwa miesiące po wejściu w życie niniejszego rozporządzenia. Powinno to służyć zwiększeniu pewności prawa, a tym samym promowaniu inwestycji i innowacji w dziedzinie sztucznej inteligencji, a także konkurencyjności i wzrostu rynku unijnego, przy jednoczesnym wzmocnieniu wielostronnego zarządzania reprezentującego wszystkie odpowiednie europejskie zainteresowane strony, takie jak Urząd ds. Sztucznej Inteligencji, europejskie organizacje i organy normalizacyjne lub grupy ekspertów ustanowione na mocy odpowiedniego prawa sektorowego Unii, a także przemysł, MŚP, przedsiębiorstwa typu startup, społeczeństwo obywatelskie, badaczy i partnerów społecznych, a także powinno ostatecznie ułatwić globalną współpracę w dziedzinie normalizacji w dziedzinie sztucznej inteligencji w sposób zgodny z wartościami Unii. Przygotowując wniosek o normalizację, Komisja powinna skonsultować się z Urzędem ds. Sztucznej Inteligencji i forum doradczym ds. sztucznej inteligencji, aby zebrać odpowiednią wiedzę fachową.

Poprawka 105

Wniosek dotyczący rozporządzenia Motyw 61 b (nowy)

Tekst proponowany przez Komisję Poprawka
(61b) W przypadku gdy systemy sztucznej inteligencji są przeznaczone do wykorzystywania w miejscu pracy, normy zharmonizowane powinny być ograniczone do specyfikacji i procedur technicznych.

Poprawka 106

Wniosek dotyczący rozporządzenia Motyw 61 c (nowy)

Tekst proponowany przez Komisję Poprawka
(61c) Komisja powinna mieć możliwość przyjęcia wspólnych specyfikacji pod pewnymi warunkami, jeżeli nie istnieje odpowiednia norma zharmonizowana, lub w celu rozwiązania konkretnych problemów związanych z prawami podstawowymi. W ramach całego procesu opracowywania projektu Komisja powinna regularnie konsultować się z Urzędem ds. Sztucznej Inteligencji i jego forum doradczym, europejskimi organizacjami i organami normalizacyjnymi lub grupami ekspertów ustanowionymi na mocy odpowiednich przepisów sektorowych Unii, a także z odpowiednimi zainteresowanymi stronami, takimi jak przemysł, MŚP, przedsiębiorstwa typu startup, społeczeństwo obywatelskie, badacze i partnerzy społeczni.

Poprawka 107

Wniosek dotyczący rozporządzenia Motyw 61 d (nowy)

Tekst proponowany przez Komisję Poprawka
(61d) Podczas przyjmowania wspólnych specyfikacji Komisja powinna dążyć do dostosowania regulacyjnego sztucznej inteligencji do globalnych partnerów o podobnych poglądach, co ma kluczowe znaczenie dla wspierania innowacji i partnerstw transgranicznych w dziedzinie sztucznej inteligencji, ponieważ koordynacja z partnerami o podobnych poglądach w międzynarodowych organach normalizacyjnych ma ogromne znaczenie.

Poprawka 108

Wniosek dotyczący rozporządzenia

Motyw 62

Tekst proponowany przez Komisję Poprawka
(62) Aby zapewnić wysoki poziom wiarygodności systemów sztucznej inteligencji wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku. (62) Aby zapewnić wysoki poziom wiarygodności systemów sztucznej inteligencji wysokiego ryzyka, takie systemy powinny podlegać ocenie zgodności przed wprowadzeniem ich do obrotu lub oddaniem do użytku. Aby zwiększyć zaufanie do łańcucha wartości i dać przedsiębiorstwom pewność co do działania ich systemów, osoby trzecie, które dostarczają komponenty sztucznej inteligencji, mogą dobrowolnie ubiegać się o ocenę zgodności przeprowadzoną przez osobę trzecią.

Poprawka 109

Wniosek dotyczący rozporządzenia

Motyw 64

Tekst proponowany przez Komisję Poprawka
(64) Biorąc pod uwagę większe doświadczenie zawodowych podmiotów, które zajmują się certyfikacją przed wprowadzeniem do obrotu w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez osobę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami. Dlatego też ocenę zgodności takich systemów powinien zasadniczo przeprowadzać dostawca na swoją własną odpowiedzialność, przy czym jedynym wyjątkiem są systemy sztucznej inteligencji przeznaczone do zdalnej identyfikacji biometrycznej osób, w przypadku których to systemów w ocenie zgodności należy przewidzieć zaangażowanie jednostki notyfikowanej w zakresie, w jakim nie jest to zabronione. (64) Biorąc pod uwagę złożoność systemów sztucznej inteligencji wysokiego ryzyka i związane z nimi ryzyko, konieczne jest opracowanie bardziej odpowiednich zdolności do stosowania oceny zgodności przeprowadzanej przez osoby trzecie w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka. Jednak z uwagi na obecne doświadczenie zawodowych podmiotów, które zajmują się certyfikacją przed wprowadzeniem do obrotu w dziedzinie bezpieczeństwa produktów, oraz odmienny charakter odnośnego ryzyka, zakres stosowania oceny zgodności przeprowadzanej przez osobę trzecią należy ograniczyć, przynajmniej na początkowym etapie stosowania niniejszego rozporządzenia, w przypadku systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami. Dlatego też ocenę zgodności takich systemów powinien zasadniczo przeprowadzać dostawca na swoją własną odpowiedzialność, przy czym jedynym wyjątkiem są systemy sztucznej inteligencji przeznaczone do zdalnej identyfikacji biometrycznej osób lub systemy sztucznej inteligencji przeznaczone do stosowania w celu wyciągania wniosków na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji, w przypadku których to systemów w ocenie zgodności należy przewidzieć zaangażowanie jednostki notyfikowanej w zakresie, w jakim nie jest to zabronione.

Poprawka 110

Wniosek dotyczący rozporządzenia

Motyw 65

Tekst proponowany przez Komisję Poprawka
(65) Do celów oceny zgodności systemów sztucznej inteligencji przeznaczonych do zdalnej identyfikacji biometrycznej osób przeprowadzanej przez osobę trzecią właściwe organy krajowe powinny wyznaczyć na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że spełniają one szereg wymogów, w szczególności dotyczących niezależności, kompetencji i braku konfliktu interesów. (65) Do celów oceny zgodności przeprowadzanej przez osobę trzecią, jeśli jest ona wymagana, właściwe organy krajowe powinny wyznaczyć na podstawie niniejszego rozporządzenia jednostki notyfikowane, pod warunkiem że spełniają one szereg wymogów, w szczególności dotyczących niezależności, kompetencji, braku konfliktu interesów i minimalnych wymogów dotyczących cyber- bezpieczeństwa. Państwa członkowskie powinny zachęcać do wyznaczenia wystarczającej liczby jednostek oceniających zgodność, aby zagwarantować terminową certyfikację. Procedury oceny, wyznaczania, notyfikacji i monitorowania jednostek oceniających zgodność należy wdrażać w sposób możliwie jak najbardziej jednakowy w poszczególnych państwach członkowskich, co służy zniesieniu administracyjnych barier wyznaczonych granicami i zapewnieniu realizacji potencjału rynku wewnętrznego.

Poprawka 111

Wniosek dotyczący rozporządzenia

Motyw 65 a (nowy)

Tekst proponowany przez Komisję Poprawka
(65a) Zgodnie ze zobowiązaniami Unii wynikającymi z Porozumienia Światowej Organizacji Handlu w sprawie barier technicznych w handlu należy zwiększyć akceptację wyników testów opracowanych przez właściwe jednostki oceniające zgodność, niezależnie od terytorium, na którym są one ustanowione, jeżeli jest to konieczne do wykazania zgodności z mającymi zastosowanie wymogami rozporządzenia. Komisja powinna aktywnie badać ewentualne instrumenty międzynarodowe służące temu celowi, a w szczególności dążyć do ewentualnego ustanowienia umów o wzajemnym uznawaniu z państwami o porównywalnym poziomie rozwoju technicznego i stosującymi kompatybilne podejście do sztucznej inteligencji i oceny zgodności.

Poprawka 112

Wniosek dotyczący rozporządzenia

Motyw 66

Tekst proponowany przez Komisję Poprawka
(66) Zgodnie z powszechnie przyjętym pojęciem istotnej zmiany w odniesieniu do produktów objętych unijnym prawodawstwem harmonizacyjnym system sztucznej inteligencji należy poddawać nowej ocenie zgodności w przypadku każdej zmiany, która może mieć wpływ na zgodność systemu z niniejszym rozporządzeniem, lub w przypadku zmiany przeznaczenia systemu. Ponadto w przypadku systemów sztucznej inteligencji, które nadal "uczą się" po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku (tj. automatycznie dostosowują sposób, w jaki wykonują swoje funkcje), należy ustanowić przepisy, zgodnie z którymi zmiany algorytmu i jego funkcjonowania, które zostały z góry zaplanowane przez dostawcę i które oceniono w chwili przeprowadzania oceny zgodności, nie powinny być uznawane za istotne zmiany. (66) Zgodnie z powszechnie przyjętym pojęciem istotnej zmiany w odniesieniu do produktów objętych unijnym prawodawstwem harmonizacyjnym system sztucznej inteligencji wysokiego ryzyka należy poddawać nowej ocenie zgodności w przypadku każdej nieplanowanej zmiany, która wykracza poza kontrolowane bądź z góry zaplanowane przez dostawcę zmiany, w tym stałe uczenie się, i która może tworzyć nowe niemożliwe do zaakceptowania ryzyko i mieć istotny wpływ na zgodność systemu sztucznej inteligencji wysokiego ryzyka z niniejszym rozporządzeniem, lub w przypadku zmiany przeznaczenia systemu. Ponadto w przypadku systemów sztucznej inteligencji, które nadal "uczą się" po wprowadzeniu ich do obrotu lub po oddaniu ich do użytku (tj. automatycznie dostosowują sposób, w jaki wykonują swoje funkcje), należy ustanowić przepisy, zgodnie z którymi zmiany algorytmu i jego funkcjonowania, które zostały z góry zaplanowane przez dostawcę i które oceniono w chwili przeprowadzania oceny zgodności, nie powinny być uznawane za istotne zmiany. To samo powinno mieć zastosowanie do aktualizacji systemu sztucznej inteligencji ogólnie ze względów bezpieczeństwa oraz do ochrony przed zmieniającymi się zagrożeniami związanymi z manipulacją systemem, pod warunkiem że nie stanowią one istotnej zmiany.

Poprawka 113

Wniosek dotyczący rozporządzenia

Motyw 67

Tekst proponowany przez Komisję Poprawka
(67) Systemy sztucznej inteligencji wysokiego ryzyka powinny posiadać oznakowanie CE świadczące o ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów sztucznej inteligencji wysokiego ryzyka zgodnych z wymogami określonymi w niniejszym rozporządzeniu i posiadających oznakowanie CE. (67) Systemy sztucznej inteligencji wysokiego ryzyka powinny posiadać oznakowanie CE świadczące o ich zgodności z niniejszym rozporządzeniem, aby umożliwić ich swobodny przepływ na rynku wewnętrznym. W przypadku fizycznych systemów sztucznej inteligencji wysokiego ryzyka należy umieścić fizyczne oznakowanie CE, które może zostać uzupełnione cyfrowym oznakowaniem CE. W przypadku wyłącznie cyfrowych systemów sztucznej inteligencji wysokiego ryzyka należy stosować cyfrowe oznakowanie CE. Państwa członkowskie nie powinny stwarzać nieuzasadnionych przeszkód dla wprowadzania do obrotu lub oddawania do użytku systemów sztucznej inteligencji wysokiego ryzyka zgodnych z wymogami określonymi w niniejszym rozporządzeniu i posiadających oznakowanie CE.

Poprawka 114

Wniosek dotyczący rozporządzenia

Motyw 68

Tekst proponowany przez Komisję Poprawka
(68) W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób fizycznych oraz ochrony własności przemysłowej i handlowej państwa członkowskie mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów sztucznej inteligencji, których nie poddano ocenie zgodności. (68) W pewnych warunkach szybka dostępność innowacyjnych technologii może być kluczowa dla zdrowia i bezpieczeństwa osób, środowiska i zmiany klimatu oraz dla całego społeczeństwa. Jest zatem właściwe, aby w przypadku wystąpienia nadzwyczajnych względów dotyczących ochrony zdrowia i życia osób fizycznych, ochrony środowiska oraz ochrony krytycznej infrastruktury państwa członkowskie mogły zezwolić na wprowadzenie do obrotu lub oddanie do użytku systemów sztucznej inteligencji, których nie poddano ocenie zgodności.

Poprawka 115

Wniosek dotyczący rozporządzenia

Motyw 69

Tekst proponowany przez Komisję Poprawka
(69) Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie sztucznej inteligencji, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami objętymi zakresem odpowiedniego istniejącego unijnego prawodawstwa harmonizacyjnego należy zobowiązać do rejestracji swoich systemów sztucznej inteligencji wysokiego ryzyka w unijnej bazie danych, którą utworzy i którą zarządzać będzie Komisja. Komisja powinna być administratorem tej bazy danych zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2018/1725 (55). W celu zapewnienia pełnej funkcjonalności tej bazy danych po jej wdrożeniu procedura ustanawiania bazy danych powinna obejmować opracowanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. (69) Aby ułatwić pracę Komisji i państw członkowskich w dziedzinie sztucznej inteligencji, jak również zwiększyć przejrzystość wobec ogółu społeczeństwa, dostawców systemów sztucznej inteligencji wysokiego ryzyka innych niż systemy powiązane z produktami objętymi zakresem odpowiedniego istniejącego unijnego prawodawstwa harmonizacyjnego należy zobowiązać do rejestracji swoich systemów sztucznej inteligencji wysokiego ryzyka i modeli generatywnych w unijnej bazie danych, którą utworzy i którą zarządzać będzie Komisja. Baza ta powinna być swobodnie i publicznie dostępna, łatwo zrozumiała i nadawać się do odczytu maszynowego. Baza danych powinna być również przyjazna dla użytkownika i łatwa do przeszukiwania, z funkcjami wyszukiwania co najmniej umożliwiającymi ogółowi społeczeństwa przeszukiwanie bazy danych pod kątem konkretnych systemów wysokiego ryzyka, lokalizacji, kategorii ryzyka określonych w załączniku IV i słów
(55) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679

z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).

kluczowych. Operatorzy sztucznej inteligencji będący władzami publicznymi lub unijnymi instytucjami, organami i jednostkami organizacyjnymi lub operatorzy sztucznej inteligencji działający w ich imieniu oraz operatorzy sztucznej inteligencji, którzy są przedsiębiorstwami wyznaczonymi jako strażnik dostępu na podstawie rozporządzenia (UE) 2022/1925 powinni również zarejestrować się w unijnej bazie danych przed uruchomieniem lub użyciem systemu sztucznej inteligencji wysokiego ryzyka po raz pierwszy i w następstwie każdej istotnej zmiany. Inni operatorzy sztucznej inteligencji powinni być uprawnieni do zrobienia tego dobrowolnie. W unijnej bazie danych rejestruje się również wszelkie istotne zmiany systemów sztucznej inteligencji wysokiego ryzyka. Komisja powinna być administratorem tej bazy danych zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2018/1725 (55). W celu zapewnienia pełnej funkcjonalności tej bazy danych po jej wdrożeniu procedura ustanawiania bazy danych powinna obejmować opracowanie przez Komisję specyfikacji funkcjonalnych oraz sprawozdanie z niezależnego audytu. Wykonując swoje zadania jako administrator danych unijnej bazy danych, Komisja powinna wziąć pod uwagę cyberbezpieczeństwo i ryzyko związane z zagrożeniami. Aby zmaksymalizować dostępność i wykorzystywanie bazy danych przez społeczeństwo, baza danych, w tym udostępniane za jej pośrednictwem informacje, powinna być zgodna z wymogami określonymi w dyrektywie 2019/882.
(55) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679

z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).

Poprawka 116

Wniosek dotyczący rozporządzenia

Motyw 71

Tekst proponowany przez Komisję Poprawka
(71) Sztuczna inteligencja jest szybko rozwijającą się grupą technologii, wymagającą nowatorskich form nadzoru regulacyjnego oraz bezpiecznej przestrzeni do eksperymentów, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń i środków zmniejszających ryzyko. Aby zapewnić ramy prawne przyjazne innowacjom, nieulega- jące dezaktualizacji i odporne na zakłócenia, należy zachęcić właściwe organy krajowe z co najmniej jednego państwa członkowskiego do ustanowienia piaskownic regulacyjnych w zakresie sztucznej inteligencji, aby ułatwić rozwijanie i testowanie innowacyjnych systemów sztucznej inteligencji pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. Piaskownice regulacyjne powinny mieć na celu: (71) Sztuczna inteligencja jest szybko rozwijającą się grupą technologii, wymagającą nadzoru regulacyjnego oraz bezpiecznej i kontrolowanej przestrzeni do eksperymentów, przy jednoczesnym zapewnieniu odpowiedzialnej innowacji oraz uwzględnieniu odpowiednich zabezpieczeń etycznych i środków zmniejszających ryzyko. Aby zapewnić ramy prawne wspierające innowacje, nieulega- jące dezaktualizacji i odporne na zakłócenia, państwa członkowskie powinny ustanowić co najmniej jedną piaskownicę regulacyjną w zakresie sztucznej inteligencji, aby ułatwić rozwijanie i testowanie innowacyjnych systemów sztucznej inteligencji pod ścisłym nadzorem regulacyjnym przed ich wprowadzeniem do obrotu lub oddaniem do użytku w inny sposób. W istocie pożądane jest ustanowienie piaskownic regulacyjnych, których ustanawianie pozostaje obecnie w gestii państw członkowskich, jako kolejny krok, który powinien stać się obowiązkowy w oparciu o ustalone kryteria. Tę obowiązkową piaskownicę można również ustanowić wspólnie z jednym lub kilkoma innymi państwami członkowskimi, o ile piaskownica ta obejmowałaby odpowiedni poziom krajowy zaangażowanych państw członkowskich. Aby ułatwić współpracę transgraniczną i synergię, można również ustanowić dodatkowe piaskownice na różnych szczeblach, w tym między państwami członkowskimi. Z wyjątkiem obowiązkowej piaskownicy na szczeblu krajowym państwa członkowskie powinny mieć również możliwość tworzenia piaskownic wirtualnych lub hybrydowych. Wszystkie piaskownice regulacyjne powinny być w stanie pomieścić zarówno produkty fizyczne, jak i wirtualne. Organy ustanawiające powinny również zapewnić, by piaskownice regulacyjne dysponowały odpowiednimi zasobami finansowymi i ludzkimi na potrzeby ich funkcjonowania.

Poprawka 117

Wniosek dotyczący rozporządzenia

Motyw 72

Tekst proponowany przez Komisję Poprawka
(72) Piaskownice regulacyjne powinny mieć na celu: wspieranie innowacji w zakresie sztucznej inteligencji poprzez ustanowienie kontrolowanego środowiska do eksperymentów i testów na etapie rozwoju i przed wprowadzeniem do obrotu, z myślą o zapewnieniu zgodności innowacyjnych systemów sztucznej inteligencji z niniejszym rozporządzeniem oraz z innymi odnośnymi przepisami Unii i państw członkowskich; zwiększenie pewności prawa dla innowatorów, a także usprawnienie nadzoru ze strony właściwych organów oraz podnoszenie poziomu ich wiedzy na temat możliwości, pojawiających się rodzajów ryzyka oraz skutków związanych z wykorzystywaniem sztucznej inteligencji, a także przyspieszenie dostępu do rynków, w tym poprzez usuwanie barier dla małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu startup. Aby zapewnić wdrożenie w całej Unii oraz korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Niniejsze rozporządzenie powinno zapewnić podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do opracowywania, w ramach piaskownicy regulacyjnej w zakresie sztucznej inteligencji, określonych systemów sztucznej inteligencji w interesie publicznym zgodnie z art. 6 ust. 4 rozporządzenia (UE) 2016/679 i art. 6 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 dyrektywy (UE) 2016/680. Uczestnicy korzystający z piaskownicy regulacyjnej powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu ograniczenia wszelkiego rodzaju wysokiego ryzyka dla bezpieczeństwa i praw podstawowych, jakie może powstać w trakcie opracowywania produktów oraz prowadzenia eksperymentów w ramach piaskownicy regulacyjnej. Przy podejmowaniu przez właściwe organy decyzji o ewentualnym nałożeniu administracyjnej kary pieniężnej na podstawie art. 83 ust. 2 rozporządzenia 2016/679 oraz art. 57 dyrektywy 2016/680 należy uwzględnić postępowanie uczestników korzystających z piaskownicy regulacyjnej. (72) Piaskownice regulacyjne powinny mieć na celu: w przypadku organów ustanawiających - lepsze zrozumienie rozwoju technicznego, poprawę metod nadzoru i zapewnienie wytycznych dla twórców i dostawców systemów sztucznej inteligencji, aby osiągnąć zgodność regulacyjną z niniejszym rozporządzeniem lub, w stosownych przypadkach, z innymi mającymi zastosowanie przepisami Unii i państw członkowskich, a także z Kartą praw podstawowych; w przypadku potencjalnych dostawców - umożliwienie i ułatwienie testowania i opracowywania innowacyjnych rozwiązań związanych z systemami sztucznej inteligencji na etapie poprzedzającym wprowadzenie do obrotu, aby zwiększyć pewność prawa, umożliwić szersze uczenie się przepisów przez ustanowienie organów w kontrolowanym środowisku w celu opracowania lepszych wytycznych i określenia ewentualnych przyszłych ulepszeń ram prawnych w drodze zwykłej procedury ustawodawczej. Wykrycie jakichkolwiek istotnych zagrożeń na etapie opracowywania i testowania takich systemów powinno powodować konieczność natychmiastowego zaradzenia tym zagrożeniom, a w przypadku ich nieusunięcia - skutkować zawieszeniem procesu opracowywania i testowania systemu, dopóki wspomniane zagrożenia nie zostaną wyeliminowane. Aby zapewnić wdrożenie w całej Unii oraz korzyści skali, należy ustanowić wspólne przepisy regulujące uruchamianie piaskownic regulacyjnych oraz ramy współpracy między odpowiednimi organami uczestniczącymi w nadzorze nad piaskownicami regulacyjnymi. Państwa członkowskie powinny zapewnić, aby piaskownice regulacyjne były szeroko dostępne w całej Unii, przy czym uczestnictwo powinno pozostać dobrowolne. Szczególnie ważne jest zapewnienie MŚP i przedsiębiorstwom typu startup łatwego dostępu do tych piaskownic, a także zapewnienie ich aktywnego zaangażowania w opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji i udziału w tych procesach, aby mogły wnieść w nie swój wkład w postaci wiedzy fachowej i doświadczenia.

Poprawka 118

Wniosek dotyczący rozporządzenia Motyw 72 a (nowy)

Tekst proponowany przez Komisję Poprawka
(72a) Niniejsze rozporządzenie powinno zapewnić podstawę prawną do wykorzystywania danych osobowych zebranych w innych celach do opracowywania, w ramach piaskownicy regulacyjnej w zakresie sztucznej inteligencji, określonych systemów sztucznej inteligencji w interesie publicznym i wyłącznie na określonych warunkach zgodnie z art. 6 ust. 4 rozporządzenia (UE) 2016/679 i art. 6 rozporządzenia (UE) 2018/1725 i nie naruszając przepisów art. 4 ust. 2 dyrektywy (UE) 2016/680. Potencjalni dostawcy korzystający z piaskownicy regulacyjnej powinni zapewnić odpowiednie zabezpieczenia i współpracować z właściwymi organami, w tym przestrzegać wytycznych tych organów, a także podejmować w dobrej wierze bezzwłoczne działania w celu ograniczenia wszelkiego rodzaju wysokiego ryzyka dla bezpieczeństwa, zdrowia, środowiska i praw podstawowych, jakie może powstać w trakcie opracowywania produktów oraz prowadzenia eksperymentów w ramach piaskownicy regulacyjnej. Przy podejmowaniu przez właściwe organy decyzji o tymczasowym lub stałym zawieszeniu uczestnictwa w piaskownicy regulacyjnej lub nałożeniu administracyjnej kary pieniężnej na podstawie art. 83 ust. 2 rozporządzenia 2016/679 oraz art. 57 dyrektywy 2016/680 należy uwzględnić postępowanie potencjalnych dostawców korzystających z piaskownicy regulacyjnej.

Poprawka 119

Wniosek dotyczący rozporządzenia Motyw 72 b (nowy)

Tekst proponowany przez Komisję Poprawka
(72b) W celu zapewnienia, by sztuczna inteligencja prowadziła do wyników korzystnych pod względem społecznym i środowiskowym, państwa członkowskie powinny wspierać i promować badania i rozwój w obszarze sztucznej inteligencji w celu wzmacniania wyników korzystnych pod względem społecznym i środowiskowym w drodze przydzielenia wystarczających zasobów, w tym finansowania publicznego i unijnego, oraz nadania priorytetowego dostępu do piaskownic regulacyjnych projektom prowadzonym przez społeczeństwo obywatelskie. Projekty takie powinny opierać się na zasadzie współpracy międzydyscyplinarnej między twórcami sztucznej inteligencji, ekspertami ds. nierówności i niedyskryminacji, dostępności, praw konsumentów, praw środowiskowych i cyfrowych oraz środowiska akademickiego.

Poprawka 120

Wniosek dotyczący rozporządzenia

Motyw 73

Tekst proponowany przez Komisję Poprawka
(73) W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów drobnych dostawców i użytkowników systemów sztucznej inteligencji. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu świadomości i przekazywaniu informacji. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby drobnych dostawców. Koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, zwłaszcza tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i zaakceptowanych przez nie do celów dokumentacji sporządzanej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę użytkowników transgranicznych. (73) W celu promowania i ochrony innowacji ważne jest szczególne uwzględnienie interesów drobnych dostawców i użytkowników systemów sztucznej inteligencji. W tym celu państwa członkowskie powinny opracować inicjatywy skierowane do tych operatorów, w tym inicjatywy służące podnoszeniu kompetencji w zakresie sztucznej inteligencji oraz kampanie uświadamiające i służące przekazywaniu informacji. Państwa członkowskie korzystają z istniejących kanałów komunikacji, a w stosownych przypadkach tworzą nowy specjalny kanał komunikacji z MŚP, przedsiębiorstwami typu startup, użytkownikami i innymi innowacyjnymi podmiotami, aby udzielać im wskazówek i odpowiadać na ich pytania dotyczące wdrażania niniejszego rozporządzenia. Takimi istniejącymi już kanałami mogą być m.in. zespoły reagowania na incydenty bezpieczeństwa komputerowego ENISA, krajowe agencje ochrony danych, platforma "Sztuczna inteligencja na żądanie", europejskie ośrodki innowacji cyfrowych oraz ośrodki testowo-doświadczalne stworzone przez Komisję i państwa członkowskie na szczeblu krajowym lub unijnym. W stosownych przypadkach kanały te współpracują ze sobą, by uzyskać synergię i czuwać nad jednolitością wskazówek dla przedsiębiorstw typu startup, MŚP i użytkowników. Ponadto przy ustalaniu przez jednostki notyfikowane wysokości opłat z tytułu oceny zgodności należy uwzględnić szczególne interesy i potrzeby drobnych dostawców. Komisja regularnie ocenia koszty certyfikacji i przestrzegania przepisów ponoszone przez MŚP i przedsiębiorstwa typu startup, w tym w drodze przejrzystych konsultacji z MŚP, przedsiębiorstwami typu startup i użytkownikami, oraz współpracuje z państwami członkowskimi na rzecz obniżenia tych kosztów. Przykładowo koszty tłumaczeń związane z prowadzeniem obowiązkowej dokumentacji i komunikacji z organami mogą stanowić istotny koszt dla dostawców i innych operatorów, zwłaszcza tych działających na mniejszą skalę. Państwa członkowskie powinny w miarę możliwości zapewnić, aby jednym z języków wskazanych i zaakceptowanych przez nie do celów dokumentacji sporządzanej przez odpowiednich dostawców oraz komunikacji z operatorami był język powszechnie rozumiany przez możliwie największą liczbę użytkowników transgranicznych. Średnie przedsiębiorstwa, które niedawno przeszły z kategorii małych przedsiębiorstw do średnich w rozumieniu załącznika do zalecenia 2003/361/WE (art. 16), przez okres uznany za odpowiedni przez państwa członkowskie mają dostęp do tych inicjatyw i wskazówek, ponieważ te nowo zaklasyfikowane średnie przedsiębiorstwa mogą czasami nie dysponować zasobami prawnymi i szkoleniami niezbędnymi do zapewnienia właściwego zrozumienia i przestrzegania przepisów.

Poprawka 121

Wniosek dotyczący rozporządzenia

Motyw 74

Tekst proponowany przez Komisję Poprawka
(74) Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom i jednostkom notyfikowanym wykonywanie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma "Sztuczna inteligencja na żądanie", europejskie ośrodki innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na szczeblu krajowym lub unijnym powinny w miarę możliwości przyczynić się do wdrożenia niniejszego rozporządzenia. W ramach przypisanych zadań i obszarów kompetencji mogą one w szczególności zapewniać wsparcie techniczne i naukowe dostawcom oraz jednostkom notyfikowanym. (74) Aby zminimalizować zagrożenia dla wdrożenia wynikające z braku wiedzy o rynku i jego znajomości, a także aby ułatwić dostawcom i jednostkom notyfikowanym wykonywanie obowiązków ustanowionych w niniejszym rozporządzeniu, platforma "Sztuczna inteligencja na żądanie", europejskie ośrodki innowacji cyfrowych oraz ośrodki testowo-doświadczalne ustanowione przez Komisję i państwa członkowskie na szczeblu krajowym lub unijnym powinny przyczynić się do wdrożenia niniejszego rozporządzenia. W ramach przypisanych zadań i obszarów kompetencji mogą one w szczególności zapewniać wsparcie techniczne i naukowe dostawcom oraz jednostkom notyfikowanym.

Poprawka 122

Wniosek dotyczący rozporządzenia

Motyw 76

Tekst proponowany przez Komisję Poprawka
(76) Aby ułatwić sprawne, skuteczne i zharmonizowane wdrożenie niniejszego rozporządzenia, należy ustanowić Europejską Radę ds. Sztucznej Inteligencji. Rada powinna odpowiadać za szereg zadań doradczych, w tym wydawanie opinii lub zaleceń oraz udzielanie porad lub wskazówek w dziedzinach związanych z wdrażaniem niniejszego rozporządzenia, także w sprawie specyfikacji technicznych lub istniejących norm dotyczących wymogów ustanowionych w niniejszym rozporządzeniu, jak również za udzielanie porad i wsparcia Komisji w konkretnych kwestiach związanych ze sztuczną inteligencją. (76) Aby uniknąć fragmentacji, zapewnić optymalne funkcjonowanie jednolitego rynku, zapewnić skuteczne i zharmonizowane wdrożenie niniejszego rozporządzenia, osiągnąć wysoki poziom wiarygodności oraz ochrony zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i rządów prawa w całej Unii w odniesieniu do systemów sztucznej inteligencji, aktywnie wspierać krajowe organy nadzorcze oraz unijne instytucje, organy i jednostki organizacyjne w sprawach odnoszących się do niniejszego rozporządzenia, a także zwiększyć zastosowanie sztucznej inteligencji w całej Unii, należy ustanowić Urząd Unii Europejskiej ds. Sztucznej Inteligencji. Urząd ds. Sztucznej Inteligencji powinien mieć osobowość prawną, działać w pełnej niezależności, odpowiadać za szereg zadań doradczych i koordynacyjnych, w tym za wydawanie opinii, zaleceń oraz udzielanie porad lub wskazówek w dziedzinach związanych z wdrażaniem niniejszego rozporządzenia, oraz powinien być odpowiednio finansowany i wyposażony w personel. Państwa członkowskie powinny zapewniać strategiczne wytyczne dla Urzędu ds. Sztucznej Inteligencji i sprawować nad nim kontrolę za pośrednictwem zarządu Urzędu ds. Sztucznej Inteligencji, u boku Komisji, EIOD, FRA i ENISA. Dyrektor wykonawczy powinien odpowiadać za zarządzanie działaniami sekretariatu Urzędu ds. Sztucznej Inteligencji oraz za reprezentowanie Urzędu ds. Sztucznej Inteligencji. Zainteresowane strony powinny formalnie uczestniczyć w pracach Urzędu ds. Sztucznej Inteligencji w ramach forum doradczego, które powinno zapewniać wyważoną reprezentację różnorodnych zainteresowanych stron i doradzać Urzędowi ds. Sztucznej Inteligencji w kwestiach odnoszących się do niniejszego rozporządzenia. W przypadku gdy ustanowienie Urzędu ds. Sztucznej Inteligencji okaże się niewystarczające do zapewnienia w pełni spójnego stosowania niniejszego rozporządzenia na szczeblu Unii, a także skutecznych transgranicznych środków egzekwowania prawa, należy rozważyć utworzenie agencji ds. sztucznej inteligencji.

Poprawka 123

Wniosek dotyczący rozporządzenia

Motyw 77

Tekst proponowany przez Komisję Poprawka
(77) Państwa członkowskie odgrywają kluczową rolę w stosowaniu i egzekwowaniu niniejszego rozporządzenia. W tym zakresie każde państwo członkowskie powinno wyznaczyć co najmniej jeden właściwy organ krajowy do celów sprawowania nadzoru nad stosowaniem i wdrażaniem niniejszego rozporządzenia. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić oficjalny punkt kontaktowy dla społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym, w każdym państwie członkowskim należy wyznaczyć jeden organ krajowy jako krajowy organ nadzorczy. (77) Każde państwo członkowskie powinno wyznaczyć krajowy organ nadzorczy do celów sprawowania nadzoru nad stosowaniem i wdrażaniem niniejszego rozporządzenia. Powinien on także reprezentować swoje państwo członkowskie w zarządzie Urzędu ds. Sztucznej Inteligencji. Aby zwiększyć efektywność organizacyjną po stronie państw członkowskich oraz ustanowić oficjalny punkt kontaktowy dla społeczeństwa oraz innych partnerów na szczeblu państw członkowskich i na szczeblu unijnym. Każdy krajowy organ nadzorczy podczas wypełniania swoich zadań i wykonywania swoich uprawnień zgodnie z niniejszym rozporządzeniem powinien działać w sposób w pełni niezależny.

Poprawka 124

Wniosek dotyczący rozporządzenia Motyw 77 a (nowy)

Tekst proponowany przez Komisję Poprawka
(77a) Krajowe organy nadzorcze powinny monitorować stosowanie przepisów zgodnie z niniejszym rozporządzeniem oraz powinny przyczyniać się do ich spójnego stosowania w całej Unii. W tym celu krajowe organy nadzorcze powinny współpracować ze sobą, z odpowiednimi właściwymi organami krajowymi, Komisją oraz z Urzędem ds. Sztucznej Inteligencji.

Poprawka 125

Wniosek dotyczący rozporządzenia Motyw 77 b (nowy)

Tekst proponowany przez Komisję Poprawka
(77b) Członek lub personel każdego z krajowych organów nadzorczych powinni podlegać, zgodnie z prawem Unii lub prawem krajowym, obowiązkowi zachowania tajemnicy służbowej - w trakcie kadencji oraz po jej zakończeniu - w odniesieniu do wszelkich poufnych informacji, które uzyskali w toku wypełniania zadań lub wykonywania swoich uprawnień. Obowiązek zachowania tajemnicy służbowej w trakcie ich kadencji powinien dotyczyć w szczególności tajemnicy handlowej i sytuacji, w których osoby fizyczne zgłaszają naruszenia niniejszego rozporządzenia.

Poprawka 126

Wniosek dotyczący rozporządzenia

Motyw 78

Tekst proponowany przez Komisję Poprawka
(78) W celu zapewnienia, aby dostawcy systemów sztucznej inteligencji wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów sztucznej inteligencji wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym zagrożeniom związanym z systemami sztucznej inteligencji, które nadal "uczą się" po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do posiadania systemu zgłaszania właściwym organom wszelkich poważnych incydentów lub wszelkich naruszeń prawa krajowego i prawa Unii chroniącego prawa podstawowe, zaistniałych w związku ze stosowaniem ich systemów sztucznej inteligencji. (78) W celu zapewnienia, aby dostawcy systemów sztucznej inteligencji wysokiego ryzyka mogli wykorzystywać doświadczenia związane ze stosowaniem systemów sztucznej inteligencji wysokiego ryzyka do ulepszenia swoich systemów oraz procesu projektowania i rozwoju lub byli w stanie odpowiednio szybko podejmować wszelkie możliwe działania naprawcze, każdy dostawca powinien wdrożyć system monitorowania po wprowadzeniu do obrotu. System ten ma również zasadnicze znaczenie dla zapewnienia skuteczniejszego i terminowego przeciwdziałania możliwym zagrożeniom związanym z systemami sztucznej inteligencji, które nadal "uczą się" lub rozwijają po wprowadzeniu do obrotu lub oddaniu do użytku. W tym kontekście dostawcy powinni być również zobowiązani do posiadania systemu zgłaszania właściwym organom wszelkich poważnych incydentów lub wszelkich naruszeń prawa krajowego i prawa Unii, w tym chroniącego prawa podstawowe i prawa konsumenta, zaistniałych w związku ze stosowaniem ich systemów sztucznej inteligencji, oraz do podejmowania odpowiednich działań naprawczych. Operatorzy sztucznej inteligencji powinni również zgłaszać odpowiednim organom wszelkie poważne incydenty lub naruszenia prawa krajowego i unijnego, wynikające z korzystania z ich systemów sztucznej inteligencji, gdy dowiedzą się o takich poważnych incydentach lub naruszeniach.

Poprawka 127

Wniosek dotyczący rozporządzenia

Motyw 79

Tekst proponowany przez Komisję Poprawka
(79) Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020 powinien mieć zastosowanie w całości. Jeżeli jest to niezbędne do wykonywania ich uprawnień, krajowe organy publiczne lub podmioty prawa publicznego, które nadzorują stosowanie prawa Unii chroniącego prawa podstawowe, w tym organy ds. równości, powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. (79) Aby zapewnić odpowiednie i skuteczne egzekwowanie wymogów i obowiązków ustanowionych w niniejszym rozporządzeniu, które należy do unijnego prawodawstwa harmonizacyjnego, system nadzoru rynku i zgodności produktów ustanowiony rozporządzeniem (UE) 2019/1020 powinien mieć zastosowanie w całości. Do celów niniejszego rozporządzenia krajowe organy nadzorcze powinny działać jako organy nadzoru rynku w odniesieniu do systemów sztucznej inteligencji objętych niniejszym rozporządzeniem, z wyjątkiem systemów sztucznej inteligencji objętych załącznikiem II do niniejszego rozporządzenia. W przypadku systemów sztucznej inteligencji objętych aktami prawnymi wymienionymi w załączniku II właściwe organy na mocy tych aktów prawnych powinny pozostać organem wiodącym. Krajowe organy nadzorcze i właściwe organy na mocy aktów prawnych wymienionych w załączniku II powinny w razie potrzeby współpracować. W stosownych przypadkach właściwe organy na mocy aktów prawnych wymienionych w załączniku II powinny wysłać właściwy personel do krajowego organu nadzorczego, aby pomóc mu w wykonywaniu jego zadań. Do celów niniejszego rozporządzenia krajowe organy nadzorcze powinny mieć takie same uprawnienia i obowiązki jak organy nadzoru rynku na mocy rozporządzenia (UE) 2019/1020. Jeżeli jest to niezbędne do wykonywania ich uprawnień, krajowe organy publiczne lub podmioty prawa publicznego, które nadzorują stosowanie prawa Unii chroniącego prawa podstawowe, w tym organy ds. równości, powinny również mieć dostęp do wszelkiej dokumentacji sporządzonej na podstawie niniejszego rozporządzenia. Po wyczerpaniu wszystkich innych racjonalnych sposobów oceny / weryfikacji zgodności i na uzasadniony wniosek krajowy organ nadzorczy powinien uzyskać dostęp do zbiorów danych treningowych, walidacyjnych i testowych, przeszkolonego i treningowego modelu systemu sztucznej inteligencji wysokiego ryzyka, w tym jego odpowiednich parametrów modelu oraz ich środowiska wykonania / działania. W przypadku prostszych systemów oprogramowania objętych niniejszym rozporządzeniem, które nie opierają się na przetrenowanych modelach, oraz w przypadku gdy wszystkie inne sposoby weryfikacji zgodności zostały wyczerpane, krajowy organ nadzorczy może wyjątkowo uzyskać dostęp do kodu źródłowego na uzasadniony wniosek. W przypadku gdy krajowemu organowi nadzorczemu przyznano dostęp do zbiorów danych treningowych, walidacyjnych i testowych zgodnie z niniejszym rozporządzeniem, taki dostęp należy osiągnąć za pomocą odpowiednich środków i narzędzi
technicznych, w tym dostępu na miejscu, a w wyjątkowych okolicznościach zdalnego dostępu. Krajowy organ nadzorczy powinien traktować wszelkie uzyskane informacje, w tym kod źródłowy, oprogramowanie i dane, stosownie do przypadku, jako informacje poufne i przestrzegać odpowiednich przepisów Unii dotyczących ochrony własności intelektualnej i tajemnic przedsiębiorstwa. Krajowy organ nadzorczy powinien usunąć wszelkie informacje uzyskane po zakończeniu dochodzenia.

Poprawka 128

Wniosek dotyczący rozporządzenia

Motyw 80

Tekst proponowany przez Komisję Poprawka
(80) Przepisy Unii dotyczące usług finansowych obejmują zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do objętych regulacją instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów sztucznej inteligencji. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w przepisach Unii dotyczących usług finansowych, organy odpowiedzialne za nadzór nad przepisami dotyczącymi usług finansowych i ich egzekwowanie, w tym w stosownych przypadkach Europejski Bank Centralny, należy wyznaczyć jako właściwe organy do celów nadzoru nad wdrażaniem niniejszego rozporządzenia, w tym do celów działań związanych z nadzorem rynku, w odniesieniu do systemów sztucznej inteligencji dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy Parlamentu Europejskiego i Rady 2013/36/UE (56), procedurę oceny zgodności oraz niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po (80) Prawo Unii dotyczące usług finansowych obejmuje zasady i wymogi dotyczące zarządzania wewnętrznego i zarządzania ryzykiem, które mają zastosowanie do objętych regulacją instytucji finansowych podczas świadczenia tych usług, w tym wówczas, gdy korzystają one z systemów sztucznej inteligencji. Aby zapewnić spójne stosowanie i egzekwowanie obowiązków ustanowionych w niniejszym rozporządzeniu oraz odpowiednich zasad i wymogów ustanowionych w prawie Unii dotyczącym usług finansowych, właściwe organy odpowiedzialne za nadzór nad prawem dotyczącym usług finansowych i jego egzekwowanie, w tym w stosownych przypadkach Europejski Bank Centralny, należy wyznaczyć jako właściwe organy do celów nadzoru nad wdrażaniem niniejszego rozporządzenia, w tym do celów działań związanych z nadzorem rynku, w odniesieniu do systemów sztucznej inteligencji dostarczanych lub wykorzystywanych przez objęte regulacją i nadzorem instytucje finansowe. Aby dodatkowo zwiększyć spójność między niniejszym rozporządzeniem a przepisami mającymi zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy Parlamentu Europejskiego i Rady 2013/36/UE (56), procedurę oceny zgodności oraz niektóre obowiązki proceduralne dostawców związane z zarządzaniem ryzykiem, monitorowaniem po
wprowadzeniu do obrotu oraz dokumentowaniem należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością dostawców oraz obowiązku monitorowania nałożonego na użytkowników systemów sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy 2013/36/UE. wprowadzeniu do obrotu oraz dokumentowaniem należy również włączyć do istniejących obowiązków i procedur przewidzianych w dyrektywie 2013/36/UE. Aby uniknąć nakładania się przepisów, należy również przewidzieć ograniczone odstępstwa dotyczące systemu zarządzania jakością dostawców oraz obowiązku monitorowania nałożonego na operatorów systemów sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim mają one zastosowanie do instytucji kredytowych objętych regulacją na mocy dyrektywy 2013/36/UE.
(56) Dyrektywa Parlamentu Europejskiego i Rady 2013/36/UE z dnia

26 czerwca 2013 r. w sprawie warunków dopuszczenia instytucji kredytowych do działalności oraz nadzoru ostrożnościowego nad instytucjami kredytowymi i firmami inwestycyjnymi, zmieniająca dyrektywę 2002/87/WE i uchylająca dyrektywy 2006/48/WE oraz 2006/49/WE (Dz.U. L 176 z 27.6.2013, s. 338).

(56) Dyrektywa Parlamentu Europejskiego i Rady 2013/36/UE z dnia

26 czerwca 2013 r. w sprawie warunków dopuszczenia instytucji kredytowych do działalności oraz nadzoru ostrożnościowego nad instytucjami kredytowymi i firmami inwestycyjnymi, zmieniająca dyrektywę 2002/87/WE i uchylająca dyrektywy 2006/48/WE oraz 2006/49/WE (Dz.U. L 176 z 27.6.2013, s. 338).

Poprawka 129

Wniosek dotyczący rozporządzenia Motyw 80 a (nowy)

Tekst proponowany przez Komisję Poprawka
(80a) Biorąc pod uwagę cele niniejszego rozporządzenia, a mianowicie zapewnienie równoważnego poziomu ochrony zdrowia, bezpieczeństwa i praw podstawowych osób fizycznych, zapewnienie ochrony praworządności i demokracji, oraz biorąc pod uwagę fakt, że ograniczanie ryzyka związanego z systemami sztucznej inteligencji w odniesieniu do tych praw może nie zostać w wystarczającym stopniu osiągnięte na poziomie krajowym lub może podlegać rozbieżnym interpretacjom, co mogłoby ostatecznie doprowadzić do nierównego poziomu ochrony osób fizycznych i spowodować rozdrobnienie rynku, krajowe organy nadzorcze powinny być uprawnione do wszczynania wspólnych postępowań lub polegać na unijnej procedurze ochronnej przewidzianej w rozporządzeniu w sprawie skutecznego egzekwowania. Wspólne postępowanie należy wszcząć, jeżeli krajowy organ nadzorczy ma wystarczające powody, by sądzić, że naruszenie niniejszego rozporządzenia stanowi naruszenie powszechne lub naruszenie powszechne o wymiarze unijnym, lub gdy system sztucznej inteligencji lub model generatywny stwarza zagrożenie, które dotyczy lub może dotyczyć co najmniej 45 milionów osób w co najmniej dwóch państwach członkowskich.

Poprawka 130

Wniosek dotyczący rozporządzenia

Motyw 82

Tekst proponowany przez Komisję Poprawka
(82) Istotne jest, aby systemy sztucznej inteligencji związane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą spełniać ustanowionych w nim wymogów, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady (57) miałaby zastosowanie jako "bezpiecznik". (82) Istotne jest, aby systemy sztucznej inteligencji związane z produktami, które nie są systemami wysokiego ryzyka w rozumieniu niniejszego rozporządzenia, a zatem nie muszą spełniać wymogów dla systemów sztucznej inteligencji wysokiego ryzyka, były mimo to bezpieczne w chwili wprowadzenia ich do obrotu lub oddawania ich do użytku. Aby przyczynić się do osiągnięcia tego celu, dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady (57) miałaby zastosowanie jako "bezpiecznik".
(57) Dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady z dnia

3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów (Dz.U. L 11 z 15.1.2002, s. 4).

(57) Dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady z dnia

3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów (Dz.U. L 11 z 15.1.2002, s. 4).

Poprawka 131

Wniosek dotyczący rozporządzenia

Motyw 83

Tekst proponowany przez Komisję Poprawka
(83) W celu zapewnienia opartej na zaufaniu i konstruktywnej współpracy właściwych organów na szczeblu unijnym i krajowym wszystkie strony zaangażowane w stosowanie niniejszego rozporządzenia powinny przestrzegać zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań. (83) Aby zapewnić opartą na zaufaniu i konstruktywną współpracę właściwych organów na szczeblu unijnym i krajowym, wszystkie strony zaangażowane w stosowanie niniejszego rozporządzenia powinny dążyć do przejrzystości i otwartości, przy jednoczesnym poszanowaniu poufności informacji i danych uzyskanych podczas wykonywania swoich zadań, poprzez wprowadzenie środków technicznych i organizacyjnych służących ochronie bezpieczeństwa i poufności informacji uzyskanych w ramach prowadzonych przez nie działań, w tym w odniesieniu do praw własności intelektualnej oraz interesów bezpieczeństwa publicznego i narodowego. Jeżeli działania Komisji, właściwych organów krajowych i jednostek notyfikowanych zgodnie z przepisami niniejszego artykułu naruszają prawa własności intelektualnej, państwa członkowskie powinny wprowadzić niezbędne działania, procedury i środki ochrony prawne, aby zapewnić egzekwowanie praw własności intelektualnej zgodnie z dyrektywą 2004/48/WE.

Poprawka 132

Wniosek dotyczący rozporządzenia

Motyw 84

Tekst proponowany przez Komisję Poprawka
(84) Państwa członkowskie powinny wprowadzić wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie. W przypadku niektórych szczególnych naruszeń państwa członkowskie powinny uwzględnić marginesy i kryteria określone w niniejszym rozporządzeniu. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania grzywien na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia. (84) Zgodność z niniejszym rozporządzeniem powinna być egzekwowana poprzez nakładanie grzywien przez krajowy organ nadzorczy w trakcie prowadzenia postępowania zgodnie z procedurą określoną w niniejszym rozporządzeniu. Państwa członkowskie powinny wprowadzić wszelkie niezbędne środki, aby zapewnić wdrożenie przepisów niniejszego rozporządzenia, w tym poprzez ustanowienie skutecznych, proporcjonalnych i odstraszających kar za ich naruszenie. Aby wzmocnić i zharmonizować kary administracyjne za naruszenie niniejszego rozporządzenia należy ustanowić górne limity dla ustalania grzywien administracyjnych za niektóre konkretne naruszenia. Przy ocenie wysokości grzywien, właściwe organy krajowe powinny w każdym indywidualnym przypadku brać pod uwagę wszystkie istotne okoliczności danej sytuacji, z należytym uwzględnieniem w szczególności charakteru, wagi i czasu trwania naruszenia oraz jego skutków, a także wielkości dostawcy, w szczególności jeżeli dostawca jest MŚP lub przedsiębiorstwem typu startup. Europejski Inspektor Ochrony Danych powinien mieć uprawnienia do nakładania grzywien na instytucje, organy i jednostki organizacyjne Unii objęte zakresem stosowania niniejszego rozporządzenia. Kary i koszty postępowania sądowego na mocy niniejszego rozporządzenia nie powinny podlegać klauzulom umownym ani innym ustaleniom.

Poprawka 133

Wniosek dotyczący rozporządzenia Motyw 84 a (nowy)

Tekst proponowany przez Komisję Poprawka
(84a) Ponieważ prawa i wolności osób fizycznych i prawnych oraz grup osób fizycznych mogą zostać poważnie naruszone przez systemy sztucznej inteligencji, istotne jest, aby osoby fizyczne i prawne lub grupy osób fizycznych miały znaczący dostęp do mechanizmów zgłaszania i dochodzenia roszczeń oraz były uprawnione do dostępu do proporcjonalnych i skutecznych środków ochrony prawnej. Powinny one mieć możliwość zgłaszania naruszeń niniejszego rozporządzenia krajowym organom nadzorczym, a także mieć prawo do złożenia skargi przeciwko operatorom systemów sztucznej inteligencji. W stosownych przypadkach operatorzy sztucznej inteligencji powinni zapewnić wewnętrzne mechanizmy składania skarg, które mają być wykorzystywane przez osoby fizyczne i prawne lub grupy osób fizycznych. Z zastrzeżeniem wszelkich innych administracyjnych lub pozasądowych środków odwoławczych osoby fizyczne i prawne oraz grupy osób fizycznych i prawnych powinny mieć również prawo do skutecznego sądowego środka odwoławczego w odniesieniu do prawnie wiążącej decyzji krajowego organu nadzorczego, która ich dotyczy, lub w przypadku gdy krajowy organ nadzorczy nie rozpatruje skargi, nie informuje skarżącego o postępach lub wstępnym wyniku rozpatrzenia złożonej skargi lub nie wywiązuje się z obowiązku podjęcia ostatecznej decyzji w odniesieniu do skargi.

Poprawka 134

Wniosek dotyczący rozporządzenia Motyw 84 b (nowy)

Tekst proponowany przez Komisję Poprawka
(84b) Zainteresowane osoby powinny być zawsze informowane, że dotyczy ich zastosowanie systemu sztucznej inteligencji wysokiego ryzyka, gdy operatorzy sztucznej inteligencji korzystają z systemu sztucznej inteligencji wysokiego ryzyka, aby pomóc im w podejmowaniu decyzji lub podejmowaniu decyzji dotyczących osób fizycznych. Informacje te mogą stanowić podstawę dla osób, których to dotyczy, do korzystania z przysługującego im prawa do wyjaśnienia na mocy niniejszego rozporządzenia. Przy udzielaniu wyjaśnień osobom, których to dotyczy, na mocy niniejszego rozporządzenia, operatorzy sztucznej inteligencji powinni uwzględniać poziom wiedzy fachowej i wiedzy przeciętnego konsumenta lub osoby fizycznej.

Poprawka 135

Wniosek dotyczący rozporządzenia Motyw 84 c (nowy)

Tekst proponowany przez Komisję Poprawka
(84c) Unijne prawo w sprawie ochrony sygnalistów (dyrektywa (UE) 2019/1937) ma pełne zastosowanie do naukowców, projektantów, twórców, uczestników projektów, kontrolerów, kierowników ds. produktu, inżynierów i podmiotów gospodarczych uzyskujących informacje na temat naruszeń unijnych przepisów przez dostawcę systemu sztucznej inteligencji lub jego system sztucznej inteligencji.

Poprawka 136

Wniosek dotyczący rozporządzenia

Motyw 85

Tekst proponowany przez Komisję Poprawka
(85) Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy powierzyć Komisji uprawnienia do przyjmowania aktów na podstawie art. 290 TFUE w celu zmiany technik i podejść, o których mowa w załączniku I, do definiowania systemów sztucznej inteligencji, zmiany unijnego prawodawstwa harmoni- zacyjnego wymienionego w załączniku II, systemów sztucznej inteligencji wysokiego ryzyka wymienionych w załączniku III, przepisów dotyczących dokumentacji technicznej wymienionych w załączniku IV, treści deklaracji zgodności UE zawartej w załączniku V, przepisów dotyczących procedur oceny zgodności zawartych w załącznikach VI i VII oraz przepisów określających systemy sztucznej inteligencji wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu mię- dzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (58). W szczególności, aby zapewnić udział na równych zasadach Parlamentu Europejskiego i Rady w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych. (85) Aby zapewnić możliwość dostosowania w razie potrzeby ram regulacyjnych, należy powierzyć Komisji uprawnienia do przyjmowania aktów na podstawie art. 290 TFUE w celu zmiany unijnego prawodawstwa harmonizacyj- nego wymienionego w załączniku II, systemów sztucznej inteligencji wysokiego ryzyka wymienionych w załączniku III, przepisów dotyczących dokumentacji technicznej wymienionych w załączniku IV, treści deklaracji zgodności UE zawartej w załączniku V, przepisów dotyczących procedur oceny zgodności zawartych w załącznikach VI i VII oraz przepisów określających systemy sztucznej inteligencji wysokiego ryzyka, do których powinna mieć zastosowanie procedura oceny zgodności oparta na ocenie systemu zarządzania jakością oraz ocenie dokumentacji technicznej. Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła stosowne konsultacje, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu mię- dzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa (58). Konsultacje te powinny wiązać się z udziałem zainteresowanych stron, dobranych na zasadzie zrównoważonej reprezentacji, w tym organizacji konsumenckich, społeczeństwa obywatelskiego, stowarzyszeń reprezentujących zainteresowane osoby, przedstawicieli przedsiębiorstw z różnych sektorów i różnej wielkości, a także badaczy i naukowców. W szczególności, aby zapewnić udział na równych zasadach Parlamentu Europejskiego i Rady w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą systematycznie brać udział w posiedzeniach grup eksperckich Komisji zajmujących się przygotowaniem aktów delegowanych.
(58) Dz.U. L 123 z 12.5.2016, s. 1.
(58) Dz.U. L 123 z 12.5.2016, s. 1.

Poprawka 137

Wniosek dotyczący rozporządzenia Motyw 85 a (nowy)

Tekst proponowany przez Komisję Poprawka
(85a) Biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę techniczną przy przeprowadzaniu oceny systemów sztucznej inteligencji wysokiego ryzyka, Komisja powinna dokonywać regularnego przeglądu wdrażania niniejszego rozporządzenia, w szczególności zakazanych systemów sztucznej inteligencji, obowiązków w zakresie przejrzystości oraz wykazu obszarów wysokiego ryzyka i przypadków użycia, co najmniej raz w roku, konsultując się z Urzędem ds. Sztucznej Inteligencji i odpowiednimi zainteresowanymi stronami.

Poprawka 138

Wniosek dotyczący rozporządzenia Motyw 87 a (nowy)

Tekst proponowany przez Komisję Poprawka
(87a) Ponieważ ograniczone są wiarygodne informacje na temat wykorzystania zasobów i energii, wytwarzania odpadów i innego wpływu na środowisko systemów sztucznej inteligencji i związanych z nimi technologii ICT, w tym oprogramowania, sprzętu komputerowego, a w szczególności centrów danych, Komisja powinna wprowadzić odpowiednią metodykę, aby mierzyć wpływ na środowisko i skuteczność niniejszego rozporządzenia w świetle celów UE w dziedzinie środowiska i klimatu.

Poprawka 139

Wniosek dotyczący rozporządzenia

Motyw 89

Tekst proponowany przez Komisję Poprawka
(89) Zgodnie z art. 42 ust. 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i z Europejską Radą Ochrony Danych, które zakończyły się wydaniem opinii w dniu [...] r., (89) Zgodnie z art. 42 ust. 2 rozporządzenia (UE) 2018/1725 skonsultowano się z Europejskim Inspektorem Ochrony Danych i z Europejską Radą Ochrony Danych, które zakończyły się wydaniem opinii w dniu 18 czerwca 2021 r.,

Poprawka 140

Wniosek dotyczący rozporządzenia

Artykuł 1 - ustęp 1 (nowy)

Tekst proponowany przez Komisję Poprawka
1. Celem niniejszego rozporządzenia jest promowanie upowszechniania ukierunkowanej na człowieka i godnej zaufania sztucznej inteligencji oraz zapewnienie wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych, demokracji i praworządności oraz środowiska przed szkodliwymi skutkami systemów sztucznej inteligencji w Unii, przy jednoczesnym wspieraniu innowacji.

Poprawka 141

Wniosek dotyczący rozporządzenia

Artykuł 1 - akapit 1 - litera d

Tekst proponowany przez Komisję Poprawka
d) szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów; d) zharmonizowane przepisy dotyczące przejrzystości w przypadku niektórych systemów sztucznej inteligencji;

Poprawka 142

Wniosek dotyczący rozporządzenia

Artykuł 1 - akapit 1 - litera e

Tekst proponowany przez Komisję Poprawka
e) przepisy dotyczące monitorowania po wprowadzeniu do obrotu i nadzoru rynku. e) przepisy dotyczące monitorowania po wprowadzeniu do obrotu, zarządzania i egzekwowania nadzoru rynku;

Poprawka 143

Wniosek dotyczący rozporządzenia

Artykuł 1 - akapit 1 - litera e a (nowa)

Tekst proponowany przez Komisję Poprawka
ea) środki wspierania innowacji skierowane w szczególności do MŚP i przedsiębiorstw typu startup, w tym piaskownice regulacyjne oraz ukierunkowane środki, które mają zmniejszyć obciążenia regulacyjne MŚP i przedsiębiorstw typu startup;

Poprawka 144

Wniosek dotyczący rozporządzenia

Artykuł 1 - akapit 1 - litera e b (nowa)

Tekst proponowany przez Komisję Poprawka
eb) przepisy regulujące utworzenie i funkcjonowanie Urzędu Unii ds. Sztucznej Inteligencji;

Poprawka 145

Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera b

Tekst proponowany przez Komisję Poprawka
b) użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii; b) operatorów systemów sztucznej inteligencji, którzy mają siedzibę lub znajdują się w Unii;

Poprawka 146

Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera c

Tekst proponowany przez Komisję Poprawka
c) dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu wykorzystywane w Unii. c) dostawców i operatorów systemów sztucznej inteligencji, którzy mają siedzibę lub znajdują się w państwie trzecim, w przypadku gdy prawo państwa członkowskiego ma zastosowanie na mocy międzynarodowego prawa publicznego lub gdy wyniki działania systemu mają być wykorzystywane w Unii;

Poprawka 147

Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera c a (nowa)

Tekst proponowany przez Komisję Poprawka
ca) dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji, o których mowa w art. 5, poza Unią, w przypadku gdy dostawca lub dystrybutor takich systemów znajduje się w Unii;

Poprawka 148

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 1 - litera c b (nowa)

Tekst proponowany przez Komisję Poprawka
cb) importerów i dystrybutorów systemów sztucznej inteligencji, a także upoważnionych przedstawicieli dostawców systemów sztucznej inteligencji, w przypadku gdy tacy importerzy, dystrybutorzy lub upoważnieni przedstawiciele mają siedzibę lub znajdują się w Unii;

Poprawka 149

Wniosek dotyczący rozporządzenia Artykuł 2 - ustęp 1 - litera c c (nowa)

Tekst proponowany przez Komisję Poprawka
cc) zainteresowanych osób zdefiniowanych w art. 3 pkt 8a, które znajdują się w Unii i na których zdrowie, bezpieczeństwo lub prawa podstawowe negatywnie wpływa stosowanie systemu sztucznej inteligencji wprowadzanego do obrotu lub oddawanego do użytku w Unii.

Poprawka 150

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
2. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów lub systemów objętych zakresem stosowania poniższych aktów lub które same są takimi produktami lub systemami, zastosowanie ma wyłącznie art. 84 niniejszego rozporządzenia: 2. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, które stanowią związane z bezpieczeństwem elementy produktów lub systemów objętych zakresem stosowania prawodawstwa harmonizacyjnego wymienionego w sekcji B złącz- nika II lub które same są takimi produktami lub systemami, zastosowanie ma wyłącznie art. 84 niniejszego rozporządzenia:

Poprawka 151

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera a

Tekst proponowany przez Komisję Poprawka
a) rozporządzenie (WE) 300/2008; skreśla się

Poprawka 152

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera b

Tekst proponowany przez Komisję Poprawka
b) rozporządzenie (UE) nr 167/2013; skreśla się

Poprawka 153

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera c

Tekst proponowany przez Komisję Poprawka
c) rozporządzenie (UE) nr 168/2013; skreśla się

Poprawka 154

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera d

Tekst proponowany przez Komisję Poprawka
d) dyrektywa 2014/90/UE; skreśla się

Poprawka 155

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera e

Tekst proponowany przez Komisję Poprawka
e) dyrektywa (UE) 2016/797; skreśla się

Poprawka 156

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera f

Tekst proponowany przez Komisję Poprawka
f) rozporządzenie (UE) 2018/858; skreśla się

Poprawka 157

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera g

Tekst proponowany przez Komisję Poprawka
g) rozporządzenie (UE) 2018/1139; skreśla się

Poprawka 158

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 2 - litera h

Tekst proponowany przez Komisję Poprawka
h) rozporządzenie (UE) 2019/2144. skreśla się

Poprawka 159

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Niniejsze rozporządzenie nie ma zastosowania do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia na podstawie ust. 1, jeżeli te organy lub organizacje wykorzystują systemy sztucznej inteligencji w ramach umów międzynarodowych w sprawie egzekwowania prawa i współpracy sądowej zawartych z Unią lub z jednym państwem członkowskim bądź ich większą liczbą. 4. Niniejsze rozporządzenie nie ma zastosowania do organów publicznych w państwie trzecim ani do organizacji międzynarodowych objętych zakresem stosowania niniejszego rozporządzenia zgodnie z ust. 1, jeżeli te organy lub organizacje wykorzystują systemy sztucznej inteligencji w ramach współpracy międzynarodowej lub umów międzynarodowych w sprawie egzekwowania prawa i współpracy sądowej zwartych z Unią lub z co najmniej jednym państwem członkowskim i są przedmiotem decyzji Komisji przyjętej zgodnie z art. 36 dyrektywy (UE) 2016/680 lub art. 45 rozporządzenia 2016/679 ("decyzja stwierdzająca odpowiedni stopień ochrony") lub są częścią umowy międzynarodowej zawartej między Unią a tym państwem trzecim lub organizacją międzynarodową na podstawie art. 218 TFUE, w której przewidziano odpowiednie zabezpieczenia w odniesieniu do ochrony prywatności oraz podstawowych praw i wolności osób fizycznych.

Poprawka 160

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 5 a (nowy)

Tekst proponowany przez Komisję Poprawka
5a. Prawo Unii w zakresie ochrony danych osobowych, prywatności i poufności komunikacji ma zastosowanie do danych osobowych przetwarzanych w związku z prawami i obowiązkami określonymi w niniejszym rozporządzeniu. Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 i (UE) 2018/1725 ani na dyrektywy 2002/58/WE i (UE) 2016/680, z zastrzeżeniem ustaleń przewidzianych w art. 10 ust. 5 i art. 54 niniejszego rozporządzenia.

Poprawka 161

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 5 b (nowy)

Tekst proponowany przez Komisję Poprawka
5b. Niniejsze rozporządzenie nie narusza przepisów określonych w innych aktach prawnych Unii dotyczących ochrony konsumentów i bezpieczeństwa produktów.

Poprawka 162

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 5 c (nowy)

Tekst proponowany przez Komisję Poprawka
5c. Niniejsze rozporządzenie nie uniemożliwia państwom członkowskim ani Unii utrzymywania lub wprowadzania przepisów ustawowych, wykonawczych lub administracyjnych, które są korzystniejsze dla pracowników pod względem ochrony ich praw w odniesieniu do korzystania z systemów sztucznej inteligencji przez pracodawców, ani zachęcania do stosowania korzystniejszych dla pracowników układów zbiorowych lub zezwalania na ich stosowanie.

Poprawka 163

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 5 d (nowy)

Tekst proponowany przez Komisję Poprawka
5d. Niniejsze rozporządzenie nie ma zastosowania do działań w zakresie badań, testowania i rozwoju dotyczących systemu sztucznej inteligencji przed wprowadzeniem tego systemu do obrotu lub oddaniem go do użytku, pod warunkiem że działania te są prowadzone z poszanowaniem praw podstawowych i mającego zastosowanie prawa Unii. Testowanie w warunkach rzeczywistych nie jest objęte tym wyłączeniem. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73, które precyzują stosowanie niniejszego ustępu w celu określenia tego wyłączenia, aby zapobiec jego istniejącym i potencjalnym nadużyciom. Urząd ds. Sztucznej Inteligencji przedstawia wytyczne dotyczące zarządzania badaniami i rozwojem zgodnie z art. 56, mające również na celu koordynację sposobu jego stosowania przez krajowe organy nadzorcze.

Poprawka 164

Wniosek dotyczący rozporządzenia

Artykuł 2 - ustęp 5 e (nowy)

Tekst proponowany przez Komisję Poprawka
5e. Niniejsze rozporządzenie nie stosuje się do elementów sztucznej inteligencji dostarczonych na podstawie wolnej i otwartej licencji, chyba że są one wprowadzane do obrotu lub oddawane do użytku przez dostawcę jako część systemu sztucznej inteligencji wysokiego ryzyka lub systemu sztucznej inteligencji objętego tytułem II lub IV. Wyłączenie to nie ma zastosowania do modeli generatywnych określonych w art. 3.

Poprawka 165

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 1

Tekst proponowany przez Komisję Poprawka
1) "system sztucznej inteligencji" oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może - dla danego zestawu celów określonych przez człowieka - generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję; 1) "system sztucznej inteligencji" oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii i który może - do wyraźnych lub dorozumianych celów - generować wyniki, takie jak przewidywania, zalecenia lub decyzje wpływające na środowiska fizyczne lub wirtualne;

Poprawka 166

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a) "ryzyko" oznacza połączenie prawdopodobieństwa wystąpienia szkody oraz stopnia jej powagi;

Poprawka 167

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 b (nowy)

Tekst proponowany przez Komisję Poprawka
1b) "znaczące ryzyko" oznacza ryzyko, które jest znaczące w wyniku połączenia jego powagi, intensywności, prawdopodobieństwa wystąpienia i czasu trwania jego skutków oraz zdolności do oddziaływania na osobę fizyczną, na wiele osób lub do oddziaływania na określoną grupę osób;

Poprawka 168

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 1 c (nowy)

Tekst proponowany przez Komisję Poprawka
1c) "model generatywny" oznacza model systemu sztucznej inteligencji, który jest trenowany na szerokiej skali danych, jest zaprojektowany z myślą o ogólnym charakterze wyników i może być dostosowany do szerokiego zakresu odrębnych zadań;

Poprawka 169

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 d (nowy)

Tekst proponowany przez Komisję Poprawka
1d) "system sztucznej inteligencji ogólnego przeznaczenia" oznacza system sztucznej inteligencji, który może być wykorzystywany i dostosowany do szerokiego zakresu zastosowań, do których nie został celowo i specjalnie zaprojektowany;

Poprawka 170

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 1 e (nowy)

Tekst proponowany przez Komisję Poprawka
1e) "duże cykle treningowe" oznaczają proces produkcji modelu sztucznej inteligencji o dużych zdolnościach, który wymaga zasobów obliczeniowych powyżej bardzo wysokiego progu;

Poprawka 171

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 3

Tekst proponowany przez Komisję Poprawka
3) "drobny dostawca" oznacza dostawcę będącego mikro- przedsiębiorstwem lub małym przedsiębiorstwem w rozumieniu zalecenia Komisji 2003/361/WE (61);

(61) Zalecenie Komisji z dnia 6 maja 2003 r. dotyczące definicji

mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw (Dz.U. L 124 z 20.5.2003, s. 36).

skreśla się

Poprawka 172

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 4

Tekst proponowany przez Komisję Poprawka
4) "użytkownik" oznacza osobą fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawo- dowej; 4) "operator sztucznej inteligencji" oznacza osobą fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawodowej;

Poprawka 173

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 8

Tekst proponowany przez Komisję Poprawka
8) "operator" oznacza dostawcę, użytkownika, upoważnionego przedstawiciela, importera i dystrybutora; 8) "operator" oznacza dostawcę, operatora sztucznej inteligencji, upoważnionego przedstawiciela, importera i dystrybutora;

Poprawka 174

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 8 a (nowy)

Tekst proponowany przez Komisję Poprawka
8a) "zainteresowana osoba" oznacza każdą osobę fizyczną lub grupę osób, które są objęte systemem sztucznej inteligencji lub na które system sztucznej inteligencji ma wpływ w inny sposób;

Poprawka 175

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 11

Tekst proponowany przez Komisję Poprawka
11) "oddanie do użytku" oznacza dostarczenie systemu sztucznej inteligencji do pierwszego użycia bezpośrednio użytkownikowi lub do użytku własnego na rynku unijnym zgodnie z jego przeznaczeniem; 11) "oddanie do użytku" oznacza dostarczenie systemu sztucznej inteligencji do pierwszego użycia bezpośrednio operatorowi sztucznej inteligencji lub do użytku własnego na rynku unijnym zgodnie z jego przeznaczeniem;

Poprawka 176

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 13

Tekst proponowany przez Komisję Poprawka
13) "dające się racjonalnie przewidzieć niewłaściwe wykorzystanie" oznacza wykorzystanie systemu sztucznej inteligencji w sposób niezgodny z jego przeznaczeniem, które może wynikać z dającego się racjonalnie przewidzieć zachowania człowieka lub interakcji z innymi systemami; 13) "dające się racjonalnie przewidzieć niewłaściwe wykorzystanie" oznacza wykorzystanie systemu sztucznej inteligencji w sposób niezgodny z jego przeznaczeniem wskazanym w instrukcji obsługi sporządzonej przez dostawcę, które to wykorzystanie może wynikać z dającego się racjonalnie przewidzieć zachowania człowieka lub interakcji z innymi systemami, w tym innymi systemami sztucznej inteligencji;

Poprawka 177

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 14

Tekst proponowany przez Komisję Poprawka
14) "związany z bezpieczeństwem element produktu lub systemu" oznacza element produktu lub systemu, który spełnia funkcję bezpieczeństwa w przypadku tego produktu lub systemu lub którego awaria bądź nieprawidłowe działanie zagrażają zdrowiu i bezpieczeństwu osób lub mienia; 14) "związany z bezpieczeństwem element produktu lub systemu" oznacza - zgodnie z unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II - element produktu lub systemu, który spełnia funkcję bezpieczeństwa w przypadku tego produktu lub systemu lub którego awaria bądź nieprawidłowe działanie zagrażają zdrowiu i bezpieczeństwu osób;

Poprawka 178

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 15

Tekst proponowany przez Komisję Poprawka
15) "instrukcja obsługi" oznacza informacje podane przez dostawcę w celu poinformowania użytkownika w szczególności o przeznaczeniu i właściwym użytkowaniu systemu sztucznej inteligencji, w tym informacje o szczególnym kontekście geograficznym, behawioralnym lub funkcjonalnym, w którym ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka; 15) "instrukcja obsługi" oznacza informacje podane przez dostawcę w celu poinformowania operatora sztucznej inteligencji w szczególności o przeznaczeniu i właściwym użytkowaniu systemu sztucznej inteligencji, a także informacje o wszelkich środkach ostrożności, jakie należy podjąć, w tym informacje o szczególnym kontekście geograficznym, behawioralnym lub funkcjonalnym, w którym ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka;;

Poprawka 179

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 16

Tekst proponowany przez Komisję Poprawka
16) "wycofanie systemu sztucznej inteligencji od użytkowników" oznacza dowolny środek mający na celu doprowadzenie do zwrotu dostawcy systemu sztucznej inteligencji udostępnionego użytkownikom; 16) "wycofanie systemu sztucznej inteligencji od użytkowników" oznacza dowolny środek mający na celu doprowadzenie do zwrotu dostawcy systemu sztucznej inteligencji, który został udostępniony operatorom sztucznej inteligencji;

Poprawka 180

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 20

Tekst proponowany przez Komisję Poprawka
20) "ocena zgodności" oznacza proces weryfikacji, czy spełniono wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia w odniesieniu do systemu sztucznej inteligencji; 20) "ocena zgodności" oznacza proces wykazania, czy spełniono wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia w odniesieniu do systemu sztucznej inteligencji;

Poprawka 181

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 22

Tekst proponowany przez Komisję Poprawka
22) "jednostka notyfikowana" oznacza jednostkę oceniającą zgodność wyznaczoną zgodnie z niniejszym rozporządzeniem i innym stosownym unijnym prawodawstwem harmonizacyjnym; 22) "jednostka notyfikowana" oznacza jednostkę oceniającą zgodność notyfikowaną zgodnie z niniejszym rozporządzeniem i innym stosownym unijnym prawodawstwem harmonizacyjnym;

Poprawka 182

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 23

Tekst proponowany przez Komisję Poprawka
23) "istotna zmiana" oznacza zmianę w systemie sztucznej inteligencji po jego wprowadzeniu do obrotu lub oddaniu do użytku, która wpływa na zgodność systemu sztucznej inteligencji z wymogami określonymi w tytule III rozdział 2 niniejszego rozporządzenia lub powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system sztucznej inteligencji; 23) "istotna zmiana" oznacza modyfikację lub serię modyfikacji w systemie sztucznej inteligencji po jego wprowadzeniu do obrotu lub oddaniu do użytku, która nie została przewidziana lub zaplanowana w początkowej ocenie ryzyka przez dostawcę i w wyniku której naruszona zostaje zgodność systemu sztucznej inteligencji z wymogami określonymi w tytule III rozdział 2 niniejszego rozporządzenia, lub która powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system sztucznej inteligencji;

Poprawka 183

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 24

Tekst proponowany przez Komisję Poprawka
24) "oznakowanie zgodności CE" (oznakowanie CE) oznacza oznakowanie, za pomocą którego dostawca wskazuje, że system sztucznej inteligencji spełnia wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia i innych mających zastosowanie przepisach Unii harmonizujących warunki wprowadzania produktów do obrotu ("unijne prawodawstwo harmonizacyjne"), przewidujących umieszczanie takiego oznakowania; 24) "oznakowanie zgodności CE" (oznakowanie CE) oznacza oznakowanie fizyczne lub cyfrowe, za pomocą którego dostawca wskazuje, że system sztucznej inteligencji lub produkt z wbudowanym systemem sztucznej inteligencji spełnia wymogi określone w tytule III rozdział 2 niniejszego rozporządzenia i innych mających zastosowanie przepisach Unii harmonizujących warunki wprowadzania produktów do obrotu ("unijne prawodawstwo harmonizacyjne"), przewidujących umieszczanie takiego oznakowania;

Poprawka 184

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 29

Tekst proponowany przez Komisję Poprawka
29) "dane treningowe" oznaczają dane wykorzystywane do trenowania systemu sztucznej inteligencji poprzez dopasowanie jego parametrów podlegających uczeniu, w tym wag sieci neuronowej; 29) "dane treningowe" oznaczają dane wykorzystywane do trenowania systemu sztucznej inteligencji poprzez dopasowanie jego parametrów podlegających uczeniu;

Poprawka 185

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 30

Tekst proponowany przez Komisję Poprawka
30) "dane walidacyjne" oznaczają dane służące do oceny trenowanego systemu sztucznej inteligencji oraz do dostrajania jego parametrów niepodlegających uczeniu oraz procesu uczenia, między innymi w celu zapobiegania przetrenowaniu; przy czym zbiór danych walidacyjnych może stanowić oddzielny zbiór danych lub też może stanowić część zbioru danych treningowych, w którym to przypadku udział tego podzbioru w zbiorze danych treningowych może być stały lub zmienny; 30) "dane walidacyjne" oznaczają dane służące do oceny trenowanego systemu sztucznej inteligencji oraz do dostrajania jego parametrów niepodlegających uczeniu oraz procesu uczenia, między innymi w celu zapobiegania niedostatecznemu wytrenowaniu lub przetrenowaniu, przy czym zbiór danych walidacyjnych stanowi oddzielny zbiór danych lub też może stanowić część zbioru danych treningowych, w którym to przypadku udział tego podzbioru w zbiorze danych treningowych może być stały lub zmienny;

Poprawka 186

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 33

Tekst proponowany przez Komisję Poprawka
33) "dane biometryczne" oznaczają dane osobowe będące wynikiem specjalnego przetwarzania technicznego, które dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej oraz umożliwiają lub potwierdzają jednoznaczną identyfikację tej osoby, takie jak wizerunek twarzy lub dane daktyloskopijne; 33) "dane biometryczne" oznaczają dane biometryczne zdefiniowane w art. 4 pkt 14 rozporządzenia (UE) 2016/679;

Poprawka 187

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 33 a (nowy)

Tekst proponowany przez Komisję Poprawka
33a) "dane oparte na biometrii" oznaczają dane wynikające z określonego przetwarzania technicznego, odnoszące się do fizycznych, fizjologicznych lub behawioralnych sygnałów osoby fizycznej;

Poprawka 188

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 33 b (nowy)

Tekst proponowany przez Komisję Poprawka
33b) "identyfikacja biometryczna" oznacza automatyczne rozpoznawanie fizycznych, fizjologicznych, behawioralnych i psychologicznych cech ludzkich w celu ustalenia tożsamości danej osoby przez porównanie danych biometrycznych tej osoby z danymi biometrycznymi osób przechowywanymi w bazie danych (identyfikacja jedno do wielu);

Poprawka 189

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 33 c (nowy)

Tekst proponowany przez Komisję Poprawka
33c) "weryfikacja biometryczna" oznacza zautomatyzowaną weryfikację tożsamości osób fizycznych przez porównanie danych biometrycznych osoby fizycznej z wcześniej przekazanymi danymi biometrycznymi (weryfikacja one-to-one, w tym uwierzytelnianie);

Poprawka 190

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 33 d (nowy)

Tekst proponowany przez Komisję Poprawka
33d) "szczególne kategorie danych osobowych" oznaczają kategorie danych osobowych, o których mowa w art. 9 ust. 1 rozporządzenia (UE)2016/679;

Poprawka 191

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 34

Tekst proponowany przez Komisję Poprawka
34) "system rozpoznawania emocji" oznacza system sztucznej inteligencji służący do rozpoznawania lub odgadywania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób; 34) "system rozpoznawania emocji" oznacza system sztucznej inteligencji służący do rozpoznawania lub odgadywania emocji, myśli, stanów umysłu lub zamiarów poszczególnych osób lub grup osób na podstawie ich danych biometrycznych i danych opartych na biometrii;

Poprawka 192

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 35

Tekst proponowany przez Komisję Poprawka
35) "system kategoryzacji biometrycznej" oznacza system sztucznej inteligencji służący do przypisywania osób fizycznych do określonych kategorii, takich jak płeć, wiek, kolor włosów, kolor oczu, tatuaże, pochodzenie etniczne lub orientacja seksualna bądź polityczna, na podstawie ich danych biometrycznych; 35) "kategoryzacja biometryczna" oznacza przypisanie osób fizycznych do określonych kategorii lub wywnioskowanie ich cech i atrybutów na podstawie ich danych biometrycznych lub opartych na biometrii, lub które można wywnioskować z takich danych;

Poprawka 193

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 36

Tekst proponowany przez Komisję Poprawka
36) "system zdalnej identyfikacji biometrycznej" oznacza system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez uprzedniej wiedzy użytkownika systemu sztucznej inteligencji, czy dana osoba będzie w nim figurować i czy może zostać zidentyfikowana; 36) "system zdalnej identyfikacji biometrycznej" oznacza system sztucznej inteligencji służący do identyfikacji osób fizycznych na odległość poprzez porównanie danych biometrycznych danej osoby z danymi biometrycznymi zawartymi w referencyjnej bazie danych, bez uprzedniej wiedzy operatora systemu sztucznej inteligencji, czy dana osoba będzie w nim figurować i czy może zostać zidentyfikowana, z wyłączeniem systemów weryfikacji;

Poprawka 194

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 37

Tekst proponowany przez Komisję Poprawka
37) "system zdalnej identyfikacji biometrycznej »w czasie rze- czywistym«" oznacza system zdalnej identyfikacji biometrycznej, w którym zbieranie danych biometrycznych, ich porównywanie i identyfikacja odbywają się bez znacznego opóźnienia. W celu uniknięcia obchodzenia przepisów za taki system uznaje się system, w którym identyfikacja następuje natychmiast, ale również z niewielkim opóźnie- 37) "system zdalnej identyfikacji biometrycznej »w czasie rze- czywistym«" oznacza system zdalnej identyfikacji biometrycznej, w którym zbieranie danych biometrycznych, ich porównywanie i identyfikacja odbywają się bez znacznego opóźnienia. Aby uniknąć obchodzenia przepisów, obejmuje to nie tylko natychmiastową identyfikację, ale również identyfikację z niewielkim opóźnieniem;

Poprawka 195

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 39

Tekst proponowany przez Komisję Poprawka
39) "przestrzeń publiczna" oznacza każde fizyczne miejsce dostępne publicznie, niezależnie od tego, czy mają zastosowanie określone warunki dostępu; 39) "przestrzeń publiczna" oznacza każde miejsce będące własnością publiczną lub prywatną dostępne publicznie, niezależnie od tego, czy mają zastosowanie określone warunki dostępu, i niezależnie od ewentualnych ograniczeń pojemności;

Poprawka 196

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 41

Tekst proponowany przez Komisję Poprawka
41) "egzekwowanie prawa" oznacza działania prowadzone przez organy ścigania w celu zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub egzekwowania sankcji karnych, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom; 41) "egzekwowanie prawa" oznacza działania prowadzone przez organy ścigania lub w imieniu tych organów w celu zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub egzekwowania sankcji karnych, w tym ochrony przed zagrożeniami dla bezpieczeństwa publicznego i zapobiegania takim zagrożeniom;

Poprawka 197

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 42

Tekst proponowany przez Komisję Poprawka
42) "krajowy organ nadzorczy" oznacza organ, któremu państwo członkowskie powierza odpowiedzialność za wdrożenie i stosowanie niniejszego rozporządzenia, za koordynację działań powierzonych danemu państwu członkowskiemu, za działanie w charakterze pojedynczego punktu kontaktowego w kontaktach z Komisją oraz za reprezentowanie państwa członkowskiego w Europejskiej Radzie ds. Sztucznej Inteligencji; 42) "krajowy organ nadzorczy" oznacza organ publiczny (AM 69), któremu państwo członkowskie powierza odpowiedzialność za wdrożenie i stosowanie niniejszego rozporządzenia, za koordynację działań powierzonych danemu państwu członkowskiemu, za działanie w charakterze pojedynczego punktu kontaktowego w kontaktach z Komisją oraz za reprezentowanie państwa członkowskiego w zarządzie Urzędu ds. Sztucznej Inteligencji;

Poprawka 198

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 43

Tekst proponowany przez Komisję Poprawka
43) "właściwy organ krajowy" oznacza krajowy organ nadzorczy, organ notyfikujący i organ nadzoru rynku; 43) "właściwy organ krajowy" oznacza każdy krajowy organ, który jest odpowiedzialny za egzekwowanie niniejszego rozporządzenia;

Poprawka 199

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 44 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
44) "poważny incydent" oznacza każdy incydent, który bezpośrednio lub pośrednio prowadzi, mógł prowadzić lub może prowadzić do któregokolwiek z poniższych zdarzeń: 44) "poważny incydent" oznacza każdy incydent lub nieprawidłowe działanie systemu sztucznej inteligencji, który bezpośrednio lub pośrednio prowadzi, mógł prowadzić lub może prowadzić do któregokolwiek z poniższych zdarzeń:
a) śmierci osoby lub poważnego uszczerbku na zdrowiu osoby, uszkodzenia mienia lub szkody dla środowiska,

b) poważnego zakłócenia w zarządzaniu infrastrukturą krytyczną i jej funkcjonowaniu.

a) śmierci osoby lub poważnego uszczerbku na zdrowiu osoby,

b) poważnego zakłócenia w zarządzaniu infrastrukturą krytyczną i jej funkcjonowaniu,

ba) naruszenia praw podstawowych chronionych na mocy prawa Unii,

bb) poważnego uszkodzenia mienia lub poważnej szkody dla środowiska;

Poprawka 200

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 44 a (nowy)

Tekst proponowany przez Komisję Poprawka
44a) "dane osobowe" oznaczają dane osobowe zdefiniowane w art. 4 pkt 1 rozporządzenia (UE) 2016/679;

Poprawka 201

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 b (nowy)

Tekst proponowany przez Komisję Poprawka
44b) "dane nieosobowe" oznaczają dane inne niż dane osobowe;

Poprawka 202

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 c (nowy)

Tekst proponowany przez Komisję Poprawka
44c) "profilowanie" oznacza wszelkie formy zautomatyzowanego przetwarzania danych osobowych, jak zdefiniowano w art. 4 pkt 4 rozporządzenia (Ue) 2016/679 lub - w przypadku organów ścigania - w art. 3 pkt 4 dyrektywy (UE) 2016/680 lub - w przypadku instytucji, organów lub jednostek organizacyjnych Unii - w art. 3 pkt 5 rozporządzenia (UE) 2018/1725;

Poprawka 203

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 44 d (nowy)

Tekst proponowany przez Komisję Poprawka
44d) "deepfake" oznacza zmanipulowane lub syntetyczne treści dźwiękowe, obrazy lub treści wideo, które mylnie wydają się autentyczne lub zgodne z prawdą, i przedstawiają osoby, które wydają się mówić lub robić coś, czego nie powiedziały ani nie zrobiły, wyprodukowane z wykorzystaniem technik sztucznej inteligencji, w tym uczenia maszynowego i uczenia głębokiego;

Poprawka 204

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 e (nowy)

Tekst proponowany przez Komisję Poprawka
44e) "powszechne naruszenie" oznacza każdy czyn lub każde zaniechanie sprzeczne z prawem Unii chroniącym interesy jednostek:

a) które szkodzi lub może zaszkodzić zbiorowym interesom jednostek zamieszkałych w co najmniej dwóch państwach członkowskich innych niż państwo członkowskie, w którym:

(i) czyn lub zaniechanie miały swoje źródło lub miejsce;

(ii) siedzibę ma dany dostawca lub, w stosownych przypadkach, jego upoważniony przedstawiciel; lub

(iii) siedzibę ma operator sztucznej inteligencji, jeżeli naruszenie zostało popełnione przez operatora sztucznej inteligencji;

b) które chroni interesy jednostek, które zaszkodziły, szkodzą lub mogą zaszkodzić zbiorowym interesom jednostek i ma cechy wspólne, w tym dotyczy tej samej bezprawnej praktyki, narusza ten sam interes oraz zachodzi jednocześnie, dopuszcza się ich ten sam operator, w co najmniej trzech państwach członkowskich;

Poprawka 205

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 f (nowy)

Tekst proponowany przez Komisję Poprawka
44f) "powszechne naruszenie o wymiarze unijnym" oznacza powszechnie występujące naruszenie, które szkodzi lub może zaszkodzić zbiorowym interesom jednostek w co najmniej dwóch trzecich państw członkowskich zamieszkałych łącznie przez co najmniej dwie trzecie ludności Unii;

Poprawka 206

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 44 g (nowy)

Tekst proponowany przez Komisję Poprawka
44g) "piaskownica regulacyjna" oznacza ustanowione przez organ publiczny kontrolowane środowisko, które ułatwia bezpieczne opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem do użytku zgodnie z określonym planem pod nadzorem regulacyjnym;

Poprawka 207

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 h (nowy)

Tekst proponowany przez Komisję Poprawka
44h) "infrastruktura krytyczna" oznacza mienie, obiekt, urządzenie, sieć lub system lub część mienia, obiektu, urządzenia, sieci lub systemu, które są niezbędne do świadczenia usługi kluczowej w rozumieniu art. 2 pkt 4 dyrektywy (UE) 2022/2557;

Poprawka 208

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 k (nowy)

Tekst proponowany przez Komisję Poprawka
44k) "scoring obywateli" oznacza ocenianie lub klasyfikowanie osób fizycznych na podstawie ich zachowań społecznych, statusu społecznoekonomicznego lub na podstawie znanych lub przewidywanych cech osobistych lub cech osobowości;

Poprawka 209

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 l (nowy)

Tekst proponowany przez Komisję Poprawka
44l) "zachowanie społeczne" oznacza sposób, w jaki osoba fizyczna wchodzi w interakcje z innymi osobami fizycznymi lub społeczeństwem i wywiera na nie wpływ;

Poprawka 210

Wniosek dotyczący rozporządzenia

Artykuł 3 - akapit 1 - punkt 44 m (nowy)

Tekst proponowany przez Komisję Poprawka
44m) "stan techniki" oznacza rozwinięty stan zdolności technicznych w danym momencie w odniesieniu do produktów, procesów i usług, oparty na odpowiednich skonsolidowanych ustaleniach naukowych, technologicznych i doświadczeniu;

Poprawka 211

Wniosek dotyczący rozporządzenia Artykuł 3 - akapit 1 - punkt 44 n (nowy)

Tekst proponowany przez Komisję Poprawka
44n) "testowanie w warunkach rzeczywistych" oznacza tymczasowe testowanie systemu sztucznej inteligencji zgodnie z jego przeznaczeniem w warunkach rzeczywistych poza środowiskiem laboratoryjnym lub w inny sposób symulowanym;

Poprawka 212

Wniosek dotyczący rozporządzenia

Artykuł  4

Tekst proponowany przez Komisję

Poprawka

Artykuł 4

Zmiany w załączniku I

Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73 w celu zmiany wykazu technik i podejść wymienionych w załączniku I, aby uaktualnić ten wykaz z uwzględnieniem rozwoju sytuacji rynkowej i rozwoju technologicznego na podstawie cech, które są podobne do technik i podejść w nim wymienionych.

skreśla się

Poprawka 213

Wniosek dotyczący rozporządzenia

Artykuł 4 a (nowy)

Tekst proponowany przez Komisję

Poprawka

Artykuł 4a

Zasady ogólne dotyczące wszystkich systemów sztucznej inteligencji

1. Wszyscy operatorzy objęci niniejszym rozporządzeniem dokładają wszelkich starań, by rozwijać i wykorzystywać systemy sztucznej inteligencji i modele generatywne zgodnie z następującymi zasadami ogólnymi ustanawiającymi ramy wysokiego szczebla promujące spójne, ukierunkowane na człowieka europejskie podejście do etycznej i godnej zaufania sztucznej inteligencji, które jest w pełni zgodne z Kartą, a także z wartościami, na których opiera się Unia:

a) "przewodnia i nadzorcza rola człowieka" oznacza, że systemy sztucznej inteligencji należy opracowywać i wykorzystywać jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka;

b) "techniczna solidność i bezpieczeństwo" oznacza, że systemy sztucznej inteligencji należy opracowywać i wykorzystywać tak, aby minimalizować niezamierzone i nieoczekiwane szkody, a także tak, aby były one solidne w przypadku niezamierzonych problemów i odporne na próby zmiany ich zastosowania lub skuteczności działania umożliwiające ich wykorzystanie przez działające w złej wierze strony trzecie;

c) "prywatność i zarządzanie danymi" oznacza, że systemy sztucznej inteligencji należy opracowywać i wykorzystywać zgodnie z obowiązującymi przepisami dotyczącymi prywatności i ochrony danych, a jednocześnie należy przetwarzać dane spełniające wysokie standardy pod względem jakości i integralności;

d) "przejrzystość" oznacza, że systemy sztucznej inteligencji należy opracowywać i wykorzystywać w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, przy jednoczesnym informowaniu ludzi o tym, że komunikują się z systemem sztucznej inteligencji lub podejmują z nim interakcję, a także przy należytym informowaniu użytkowników o możliwościach i ograniczeniach tego systemu sztucznej inteligencji, a osób, których to dotyczy, o przysługujących im prawach;

e) "różnorodność, niedyskryminacja i sprawiedliwość" oznacza, że systemy sztucznej inteligencji należy opracowywać i wykorzystywać w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, a jednocześnie należy unikać dyskryminujących skutków zakazanych prawem Unii lub prawem krajowym;

f) "dobrostan społeczny i środowiskowy" oznacza, że systemy sztucznej inteligencji należy opracowywać i wykorzystywać w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, a jednocześnie należy monitorować i oceniać ich długoterminowy wpływ na jednostkę, społeczeństwo i demokrację.

2. Ust. 1 nie narusza obowiązków wynikających z obowiązującego prawa Unii i prawa krajowego. W przypadku systemów sztucznej inteligencji wysokiego ryzyka ogólne zasady przekładają się na dostawców lub operatorów sztucznej inteligencji, którzy przestrzegają ich za pomocą wymogów określonych w art. 8-15 oraz odpowiednich obowiązków określonych w tytule III rozdział 3 niniejszego rozporządzenia. W przypadku modeli generatywnych ogólne zasady przekładają się na dostawców, którzy przestrzegają ich za pomocą wymogów określonych w art. 28-28b niniejszego rozporządzenia. W przypadku wszystkich systemów sztucznej inteligencji stosowanie zasad, o których mowa w ust. 1, można osiągnąć, stosownie do przypadku, poprzez przepisy art. 28, art. 52 lub stosowanie norm zharmonizowanych, specyfikacji technicznych i kodeksów postępowania, o których mowa w art. 69, bez tworzenia nowych obowiązków na mocy niniejszego rozporządzenia.

3. Komisja i Urząd ds. Sztucznej Inteligencji uwzględniają te zasady przewodnie we wnioskach o normalizację, a także zalecenia obejmujące wytyczne techniczne mające pomóc dostawcom i operatorom sztucznej inteligencji w opracowywaniu i wykorzystywaniu systemów sztucznej inteligencji. Przy opracowywaniu odpowiednich norm zharmonizowanych dla systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w art. 40 ust. 2b, europejskie organizacje normalizacyjne uwzględniają zasady, o których mowa w ust. 1 niniejszego artykułu, jako cele oparte na wynikach.

Poprawka 214

Wniosek dotyczący rozporządzenia

Artykuł 4 b (nowy)

Tekst proponowany przez Komisję

Poprawka

Artykuł 4b

Kompetencje w zakresie sztucznej inteligencji

1. Wdrażając niniejsze rozporządzenie, Unia i państwa członkowskie promują środki służące rozwijaniu odpowiedniego poziomu kompetencji w zakresie sztucznej inteligencji we wszystkich sektorach i z uwzględnieniem różnych potrzeb grup dostawców, operatorów sztucznej inteligencji i zainteresowanych osób, których to dotyczy, w tym poprzez kształcenie i szkolenie, programy podnoszenia kwalifikacji i przekwalifikowania, przy jednoczesnym zapewnieniu odpowiedniej równowagi płci i wieku, w celu umożliwienia demokratycznej kontroli nad systemami sztucznej inteligencji.

2. Dostawcy i operatorzy systemów sztucznej inteligencji podejmują środki w celu zapewnienia odpowiedniego poziomu kompetencji w zakresie sztucznej inteligencji wśród swojego personelu i innych osób zajmujących się obsługą i użytkowaniem systemów sztucznej inteligencji w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy sztucznej inteligencji mają być użytkowane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy sztucznej inteligencji mają być wykorzystywane.

3. Takie środki polegają, w szczególności, na nauczaniu podstawowych pojęć i umiejętności z zakresu systemów sztucznej inteligencji i ich funkcjonowania, w tym różnych rodzajów produktów i ich zastosowań, płynących z nich zagrożeń i korzyści.

4. Wystarczający poziom umiejętności korzystania ze sztucznej inteligencji to poziom, który w razie potrzeby przyczynia się do poprawy zdolności dostawców i operatorów sztucznej inteligencji do zapewnienia zgodności z niniejszym rozporządzeniem i egzekwowania jego przepisów.

Poprawka 215

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który stosuje techniki podprogowe będące poza świadomością danej osoby w celu istotnego zniekształcenia zachowania tej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną;

a) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który stosuje techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest istotne zniekształcenie zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie zdolności tej osoby do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nią decyzji, której inaczej by nie podjęła, w sposób, który powoduje lub może powodować u niej, u innej osoby lub u grupy osób poważną szkodę.

Zakaz dotyczący systemu sztucznej inteligencji stosującego techniki podprogowe, o których mowa w akapicie pierwszym, nie ma zastosowania do systemów sztucznej inteligencji przeznaczonych do wykorzystania do zatwierdzonych celów terapeutycznych na podstawie konkretnej świadomej zgody osób, które są im poddane lub, w stosownych przypadkach, ich opiekuna prawnego;

Poprawka 216

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera b

Tekst proponowany przez Komisję

Poprawka

b) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który wykorzystuje dowolne słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną;

b) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który wykorzystuje dowolne słabości danej osoby lub określonej grupy osób, w tym znane bądź przewidywane cechy osobowości lub sytuację społeczną lub ekonomiczną takiej osoby lub grupy osób, ich wiek, sprawność ruchową lub zdrowie psychiczne, czego celem lub skutkiem jest istotne zniekształcenie zachowania danej osoby lub osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby poważną szkodę;

Poprawka 217

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera b a (nowa)

Tekst proponowany przez Komisję

Poprawka

ba) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów kategoryzacji biometrycznej lub innych systemów sztucznej inteligencji, które kategoryzują osoby fizyczne według wrażliwych lub chronionych atrybutów lub cech lub na podstawie wywnioskowania tych atrybutów lub cech. Zakaz ten nie ma zastosowania do systemów sztucznej inteligencji przeznaczonych do wykorzystania do zatwierdzonych celów terapeutycznych na podstawie konkretnej świadomej zgody osób, które są im poddane lub, w stosownych przypadkach, ich opiekuna prawnego.

Poprawka 218

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera c - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

c) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji przez organy publiczne lub w ich imieniu na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości, kiedy to punktowa ocena społeczna prowadzi do jednego lub obu z następujących skutków:

c) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób w ramach scoringu społecznego, prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych bądź przewidywanych cech osobistych lub cech osobowości, kiedy to punktowa ocena społeczna prowadzi do jednego lub obu z następujących skutków:

Poprawka 219

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera c - podpunkt i

Tekst proponowany przez Komisję

Poprawka

(i) krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane;

(Nie dotyczy polskiej wersji językowej)

Poprawka 220

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 - litera d - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

d) wykorzystywania systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa, chyba że i w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do jednego z następujących celów:

d) wykorzystywania systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej;

Poprawka 221

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 - litera d - podpunkt i

Tekst proponowany przez Komisję

Poprawka

(i) ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;

skreśla się

Poprawka 222

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 - litera d - podpunkt ii

Tekst proponowany przez Komisję

Poprawka

(ii) zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;

skreśla się

Poprawka 223

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera d - podpunkt iii

Tekst proponowany przez Komisję Poprawka

(iii) wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy przestępstwa lub podejrzanego o popełnienie przestępstwa, o którym mowa w art. 2 ust. 2 decyzji ramowej Rady 2002/584/WSiSW (62) i które w danym państwie członkowskim podlega karze pozbawienia wolności lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata, zgodnie z prawem danego państwa członkowskiego.

skreśla się

(62) Decyzja ramowa Rady 2002/584/WSiSW z dnia 13 czerwca 2002 r. w sprawie europejskiego nakazu aresztowania i procedury wydawania osób między państwami członkowskimi (Dz.U. L 190 z 18.7.2002, s. 1).

Poprawka 224

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 - litera d a (nowa)

Tekst proponowany przez Komisję

Poprawka

da) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji do przeprowadzania ocen ryzyka osoby fizycznej lub grup osób w celu oceny ryzyka popełnienia lub ponownego popełnienia przestępstwa przez osobę fizyczną lub do przewidywania wystąpienia lub ponownego wystąpienia faktycznego lub potencjalnego przestępstwa lub wykroczenia administracyjnego na podstawie profilowania osoby fizycznej lub oceny cech osobowości i charakterystyki, w tym lokalizacji danej osoby, lub zachowania przestępnego w przeszłości osób fizycznych lub grup osób fizycznych;

Poprawka 225

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 - litera d b (nowa)

Tekst proponowany przez Komisję

Poprawka

db) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji, które tworzą lub rozszerzają bazy danych do rozpoznawania twarzy poprzez nieukierunkowane pobieranie (ang. scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;

Poprawka 226

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 1 - litera d c (nowa)

Tekst proponowany przez Komisję

Poprawka

dc) wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji w celu wyciągania wniosków o emocjach osoby fizycznej w dziedzinie egzekwowania prawa, zarządzania granicami, w miejscu pracy i w instytucjach edukacyjnych;

Poprawka 227

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 - litera d d (nowa)

Tekst proponowany przez Komisję

Poprawka

dd) oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji do analizy nagrań z przestrzeni publicznej za pośrednictwem systemów zdalnej identyfikacji biometrycznej "post factum", chyba że systemy te podlegają zezwoleniu przedsądowemu zgodnie z prawem Unii i są ściśle niezbędne do ukierunkowanego wyszukiwania związanego z konkretnym poważnym przestępstwem zdefiniowanym w art. 83 ust. 1 TFUE, które już miało miejsce, do celów egzekwowania prawa.

Poprawka 228

Wniosek dotyczący rozporządzenia Artykuł 5 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

1a. Niniejszy artykuł nie ma wpływu na zakazy, które mają zastosowanie w przypadku, gdy praktyki związane ze sztuczną inteligencją naruszają inne prawo Unii, w tym prawo unijne w dziedzinie ochrony danych, niedyskryminacji, ochrony konsumentów lub konkurencji;

Poprawka 229

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Na potrzeby wykorzystania systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 lit. d), uwzględnia się następujące elementy:

skreśla się

a) charakter sytuacji powodującej konieczność ewentualnego wykorzystania systemu, w szczególności powagę, prawdopodobieństwo i skalę szkody wyrządzonej w przypadku niewykorzystania systemu;

b) konsekwencje wykorzystania systemu dla praw i wolności wszystkich zainteresowanych osób, w szczególności wagę, prawdopodobieństwo i skalę tych konsekwencji.

Ponadto wykorzystywanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa w odniesieniu do któregokolwiek z celów, o których mowa w ust. 1 lit. d), musi przebiegać z zachowaniem niezbędnych i proporcjonalnych zabezpieczeń i warunków w odniesieniu do takiego wykorzystywania, w szczególności w odniesieniu do ograniczeń czasowych, geograficznych i osobowych.

Poprawka 230

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 3

Tekst proponowany przez Komisję

Poprawka

3. Jeżeli chodzi o ust. 1 lit. d) i ust. 2, każde pojedyncze wykorzystanie systemu zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa wymaga uzyskania uprzedniego zezwolenia udzielonego przez organ sądowy lub niezależny organ administracyjny państwa członkowskiego, w którym ma nastąpić wykorzystanie, wydanego na uzasadniony wniosek i zgodnie ze szczegółowymi przepisami prawa krajowego, o których mowa w ust. 4. W należycie uzasadnionych nagłych przypadkach można jednak rozpocząć wykorzystywanie systemu bez zezwolenia, a o zezwolenie można wystąpić dopiero w trakcie lub po zakończeniu wykorzystywania.

Właściwy organ sądowy lub administracyjny udziela zezwolenia tylko wtedy, gdy jest przekonany, na podstawie obiektywnych dowodów lub jasnych przesłanek, które mu przedstawiono, że wykorzystanie danego systemu zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" jest konieczne i proporcjonalne do osiągnięcia jednego z celów określonych w ust. 1 lit. d), wskazanego we wniosku. Podejmując decyzję w sprawie wniosku, właściwy organ sądowy lub administracyjny bierze pod uwagę elementy, o których mowa w ust. 2.

skreśla się

Poprawka 231

Wniosek dotyczący rozporządzenia

Artykuł 5 - ustęp 4

Tekst proponowany przez Komisję

Poprawka

4. Państwo członkowskie może podjąć decyzję o wprowadzeniu możliwości pełnego lub częściowego zezwolenia na wykorzystywanie systemów zdalnej identyfikacji biometrycznej "w czasie rzeczywistym" w przestrzeni publicznej do celów egzekwowania prawa w granicach i na warunkach wymienionych w ust. 1 lit. d), ust. 2 i 3. Dane państwo członkowskie ustanawia w swoim prawie krajowym niezbędne szczegółowe przepisy regulujące wnioski o zezwolenia, o których mowa w ust. 3, wydawanie i wykonywanie tych zezwoleń oraz ich nadzorowanie. W przepisach tych określa się również, w odniesieniu do których celów wymienionych w ust. 1 lit. d), w tym w odniesieniu do których przestępstw, o których mowa w ust. 1 lit. d) ppkt (iii), właściwe organy mogą uzyskać zezwolenie na wykorzystanie powyższych systemów do celów egzekwowania prawa.

skreśla się

Poprawka 232

Wniosek dotyczący rozporządzenia

Artykuł 6 - ustęp 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II lub sam jest takim produktem;

a) system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II lub system sztucznej inteligencji sam jest takim produktem;

Poprawka 233

Wniosek dotyczący rozporządzenia

Artykuł 6 - ustęp 1 - litera b

Tekst proponowany przez Komisję

Poprawka

b) produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają - na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II - ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

b) produkt, którego związanym z bezpieczeństwem elementem zgodnie z lit. a) jest system sztucznej inteligencji, lub sam system sztucznejinteligencji jako produkt podlegają - na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II - ocenie zgodności dotyczącej zagrożeń dla zdrowia i bezpieczeństwa przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

Poprawka 234

Wniosek dotyczący rozporządzenia

Artykuł 6 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Oprócz systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się również systemy sztucznej inteligencji, o których mowa w załączniku III.

2. Oprócz systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w ust. 1, za systemy wysokiego ryzyka uznaje się również systemy sztucznej inteligencji wchodzące w zakres co najmniej jednego z krytycznych obszarów i przypadków użycia, o których mowa w załączniku III, jeżeli stwarzają znaczne ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych. W przypadku gdy system sztucznej inteligencji wchodzi w zakres załącznika III pkt 2, uznaje się go za system wysokiego ryzyka, jeżeli stwarza on znaczne ryzyko szkody dla środowiska.

Sześć miesięcy przed wejściem w życie niniejszego rozporządzenia Komisja, po konsultacji z Urzędem ds. Sztucznej Inteligencji i odpowiednimi zainteresowanymi stronami, przedstawia wytyczne jasno określające okoliczności, w których wyniki działania systemów sztucznej inteligencji określonych w załączniku III stwarzałyby znaczne ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych lub przypadków, w których nie miałoby to miejsca.

Poprawka 235

Wniosek dotyczący rozporządzenia

Artykuł 6 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję

Poprawka

2a. W przypadku gdy dostawcy należący do co najmniej jednego z obszarów krytycznych i przypadków użycia, o których mowa w załączniku III, uznają, że ich system sztucznej inteligencji nie stwarza istotnego ryzyka opisanego w ust. 2, przedkładają krajowemu organowi nadzorczemu uzasadnione powiadomienie, że nie podlegają wymogom tytułu III rozdział 2 niniejszego rozporządzenia. W przypadku gdy system sztucznej inteligencji ma być wykorzystywany w co najmniej dwóch państwach członkowskich, powiadomienie to kieruje się do Urzędu ds. Sztucznej Inteligencji. Z zastrzeżeniem art. 65 krajowy organ nadzorczy dokonuje przeglądu powiadomienia i udziela na nie odpowiedzi, bezpośrednio lub za pośrednictwem Urzędu ds. Sztucznej Inteligencji, w terminie trzech miesięcy, jeżeli uzna system sztucznej inteligencji za błędnie zaklasyfikowany.

Poprawka 236

Wniosek dotyczący rozporządzenia

Artykuł 6 - ustęp 2 b (nowy)

Tekst proponowany przez Komisję

Poprawka

2b. Dostawcy, którzy błędnie klasyfikują swój system sztucznej inteligencji jako niepodlegający wymogom tytułu III rozdział 2 niniejszego rozporządzenia i wprowadzają go do obrotu przed upływem terminu na wniesienie sprzeciwu przez krajowe organy nadzorcze, podlegają grzywnom zgodnie z art. 71.

Poprawka 237

Wniosek dotyczący rozporządzenia

Artykuł 6 - ustęp 2 c (nowy)

Tekst proponowany przez Komisję

Poprawka

2c. Krajowe organy nadzorcze przedkładają Urzędowi ds. Sztucznej Inteligencji roczne sprawozdanie zawierające szczegółowe informacje na temat liczby otrzymanych powiadomień, odnośnych obszarów wysokiego ryzyka oraz podjętych decyzji dotyczących otrzymanych powiadomień.

Poprawka 238

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

1. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73 w celu aktualizacji wykazu zawartego w załączniku III poprzez dodanie systemów sztucznej inteligencji wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:

1. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73 w celu zmiany załącznika III poprzez dodanie lub modyfikację obszarów lub przypadków użycia systemów sztucznej inteligencji wysokiego ryzyka, w przypadku gdy stwarzają one znaczące ryzyko szkody dla zdrowia i bezpieczeństwa lub mają niekorzystny wpływ na prawa podstawowe, środowisko lub demokrację i praworządność, a ryzyko to, ze względu na swoją dotkliwość i prawdopodobieństwo wystąpienia, jest równoważne lub większe niż ryzyko szkody lub niekorzystnego wpływu stwarzane przez systemy sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III.

Poprawka 239

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) systemy sztucznej inteligencji są przeznaczone do wykorzystywania w którymkolwiek z obszarów wymienionych w załączniku III pkt 1-8;

skreśla się

Poprawka 240

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 1 - litera b

Tekst proponowany przez Komisję

Poprawka

b) systemy sztucznej inteligencji stwarzają ryzyko szkody dla zdrowia i bezpieczeństwa lub ryzyko niekorzystnego wpływu na prawa podstawowe, które pod względem dotkliwości i prawdopodobieństwa wystąpienia jest równoważne ryzyku szkody lub niekorzystnego wpływu, które stwarzają systemy sztucznej inteligencji wysokiego ryzyka wymienione już w załączniku III, lub jest od niego większe.

skreśla się

Poprawka 241

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

1a. Komisja jest również uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73 w celu usunięcia przypadków użycia systemów sztucznej inteligencji wysokiego ryzyka z wykazu w załączniku III, jeżeli warunki, o których mowa w ust. 1, przestają mieć zastosowanie;

Poprawka 242

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

2. Oceniając do celów ust. 1, czy system sztucznej inteligencji stwarza ryzyko szkody dla zdrowia i bezpieczeństwa lub ryzyko niekorzystnego wpływu na prawa podstawowe, które jest równoważne ryzyku szkody stwarzanemu przez systemy sztucznej inteligencji wysokiego ryzyka wymienione już w załączniku III lub jest od niego większe, Komisja uwzględnia następujące kryteria:

2. Oceniając system sztucznej inteligencji do celów ust. 1 i 1a, Komisja uwzględnia następujące kryteria:

Poprawka 243

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 2 - litera a a (nowa)

Tekst proponowany przez Komisję

Poprawka

aa) ogólne zdolności i funkcje systemu sztucznej inteligencji niezależne od jego przeznaczenia;

Poprawka 244

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 2 - litera b a (nowa)

Tekst proponowany przez Komisję

Poprawka

ba) charakter i ilość danych przetwarzanych i wykorzystywanych przez system sztucznej inteligencji;

Poprawka 245

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera b b (nowa)

Tekst proponowany przez Komisję

Poprawka

bb) zakres, w jakim system sztucznej inteligencji działa autonomicznie;

Poprawka 246

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera c

Tekst proponowany przez Komisję

Poprawka

c) zakres, w jakim wykorzystywanie systemu sztucznej inteligencji spowodowało już szkodę dla zdrowia i bezpieczeństwa lub miało niekorzystny wpływ na prawa podstawowe lub wzbudziło istotne obawy co do możliwości wystąpienia takiej szkody lub niekorzystnego wpływu, czego potwierdzeniem są zgłoszenia lub udokumentowane zarzuty przedłożone właściwym organom krajowym;

c) zakres, w jakim wykorzystywanie systemu sztucznej inteligencji spowodowało już szkodę dla osób fizycznych, miało niekorzystny wpływ na prawa podstawowe, środowisko, demokrację i praworządność lub wzbudziło istotne obawy co do prawdopodobieństwa wystąpienia takiej szkody lub niekorzystnego wpływu, czego potwierdzeniem są na przykład zgłoszenia lub udokumentowane zarzuty przedłożone organom nadzorczym, Komisji, Urzędowi ds. Sztucznej Inteligencji, EIOD lub Agencji Praw Podstawowych Unii Europejskiej;

Poprawka 247

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera d

Tekst proponowany przez Komisję

Poprawka

d) potencjalny zakres takiej szkody lub takiego niekorzystnego wpływu, w szczególności pod względem ich nasilenia i możliwości oddziaływania na wiele osób;

d) potencjalny zakres takiej szkody lub takiego niekorzystnego wpływu, w szczególności pod względem ich nasilenia i możliwości oddziaływania na wiele osób lub nieproporcjonalnego dotknięcia określonej grupy osób;

Poprawka 248

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera e

Tekst proponowany przez Komisję

Poprawka

e) zakres, w jakim osoby potencjalnie poszkodowane lub dotknięte niekorzystnym wpływem są zależne od wyniku działania systemu sztucznej inteligencji, w szczególności ze względu na fakt, że z przyczyn praktycznych lub prawnych nie jest możliwe zasadne zrezygnowanie z tego wyniku;

e) zakres, w jakim osoby potencjalnie poszkodowane lub dotknięte niekorzystnym wpływem są zależne od wyniku uzyskanego przy wykorzystaniu systemu sztucznej inteligencji - przy czym wynik ten ma charakter wyłącznie pomocniczy w odniesieniu do działania lub decyzji, które należy podjąć - w szczególności ze względu na fakt, że z przyczyn praktycznych lub prawnych nie jest możliwe zasadne zrezygnowanie z tego wyniku;

Poprawka 249

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera e a (nowa)

Tekst proponowany przez Komisję

Poprawka

ea) potencjalne niewłaściwe i złośliwe wykorzystanie systemu sztucznej inteligencji i technologii, na której się on opiera;

Poprawka 250

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera f

Tekst proponowany przez Komisję

Poprawka

f) zakres, w jakim osoby potencjalnie poszkodowane lub dotknięte niekorzystnym wpływem znajdują się w słabszym położeniu względem użytkownika systemu sztucznej inteligencji, w szczególności z powodu nierównego układu sił, wiedzy, sytuacji gospodarczej lub społecznej lub wieku;

f) zakres, w jakim występuje nierówny układ sił lub osoby potencjalnie poszkodowane lub dotknięte niekorzystnym wpływem znajdują się w słabszym położeniu względem użytkownika systemu sztucznej inteligencji, w szczególności z powodu statusu, władzy, wiedzy, sytuacji gospodarczej lub społecznej lub wieku;

Poprawka 251

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 2 - litera g

Tekst proponowany przez Komisję

Poprawka

g) zakres, w jakim uzyskany za pomocą systemu sztucznej inteligencji wynik jest łatwo odwracalny, przy czym wyników działania systemu mających wpływ na zdrowie lub bezpieczeństwo osób nie uznaje się za łatwo odwracalne;

g) zakres, w jakim wynik uzyskany przy wykorzystaniu systemu sztucznej inteligencji jest łatwo odwracalny lub da się go łatwo skorygować, przy czym wyników działania systemu mających negatywny wpływ na zdrowie, bezpieczeństwo, prawa podstawowe osób, środowisko lub demokrację i praworządność nie uznaje się za łatwo odwracalne;

Poprawka 252

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 2 - litera g a (nowa)

Tekst proponowany przez Komisję

Poprawka

ga) zakres dostępności i stosowania skutecznych rozwiązań i mechanizmów technicznych w zakresie kontroli, niezawodności i korygowalności systemu sztucznej inteligencji;

Poprawka 253

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera g b (nowa)

Tekst proponowany przez Komisję

Poprawka

gb) zakres i prawdopodobieństwo korzyści płynących z wdrażania systemu sztucznej inteligencji dla osób fizycznych, grup lub ogółu społeczeństwa, w tym możliwość poprawy bezpieczeństwa produktów;

Poprawka 254

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 2 - litera g c (nowa)

Tekst proponowany przez Komisję

Poprawka

gc) zakres nadzoru ze strony człowieka oraz możliwość ingerencji człowieka, aby uchylać decyzje lub zalecenia, które mogą prowadzić do potencjalnej szkody;

Poprawka 255

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 - litera h -

Tekst proponowany przez Komisję

Poprawka

(i) skuteczne środki dochodzenia roszczeń w związku z zagrożeniami stwarzanymi przez system sztucznej inteligencji, z wyłączeniem roszczeń o odszkodowanie;

h) zakres, w jakim obowiązujące przepisy Unii przewidują:

(i) skuteczne środki dochodzenia roszczeń w związku ze szkodami powodowanymi przez system sztucznej inteligencji, z wyłączeniem bezpośrednich lub pośrednich roszczeń o odszkodowanie;

(ii) skuteczne środki zapobiegania temu ryzyku lub jego znacznego zminimalizowania.

Poprawka 256

Wniosek dotyczący rozporządzenia

Artykuł 7 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję

Poprawka

2a. Przeprowadzając ocenę systemu sztucznej inteligencji do celów ust. 1 lub 1a, Komisja konsultuje się z Urzędem ds. Sztucznej Inteligencji, a w stosownych przypadkach także z przedstawicielami grup, na które system sztucznej inteligencji ma wpływ, przemysłem, niezależnymi ekspertami, partnerami społecznymi i organizacjami społeczeństwa obywatelskiego. Komisja organizuje również konsultacje publiczne w tym zakresie i podaje do wiadomości publicznej wyniki tych konsultacji i ostatecznej oceny;

Poprawka 257

Wniosek dotyczący rozporządzenia Artykuł 7 - ustęp 2 b (nowy)

Tekst proponowany przez Komisję

Poprawka

2b. Urząd ds. Sztucznej Inteligencji, krajowe organy nadzorcze lub Parlament Europejski mogą zwrócić się do Komisji, aby zgodnie z ust. 1 i 1a ponownie oceniła ryzyko stwarzane przez system sztucznej inteligencji i zmieniła jego klasyfikację. Komisja przedstawia i publikuje uzasadnienie swojej decyzji.

Poprawka 258

Wniosek dotyczący rozporządzenia Artykuł 8 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

1a. Przy spełnianiu wymogu ustanowionego w niniejszym rozdziale należycie uwzględnia się wytyczne opracowane zgodnie z art. 82b, powszechnie znany aktualny stan wiedzy, w tym jego odzwierciedlenie w odpowiednich normach zharmonizowanych lub wspólnych specyfikacjach, o których mowa w art. 40 i 41 lub które określono już w unijnym prawodawstwie harmonizacyjnym;

Poprawka 259

Wniosek dotyczący rozporządzenia

Artykuł 8 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Przy zapewnianiu zgodności z tymi wymogami uwzględnia się przeznaczenie systemu sztucznej inteligencji wysokiego ryzyka oraz system zarządzania ryzykiem, o którym mowa w art. 9.

2. Przy zapewnianiu zgodności z tymi wymogami uwzględnia się przeznaczenie systemu sztucznej inteligencji wysokiego ryzyka, jego dające się racjonalnie przewidzieć niewłaściwe wykorzystanie oraz system zarządzania ryzykiem, o którym mowa w art. 9.

Poprawka 260

Wniosek dotyczący rozporządzenia

Artykuł 8 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję

Poprawka

2a. Jeżeli wymogi określone w tytule III rozdziały 2 i 3 lub tytule VIII rozdziały 1, 2 i 3 dotyczące systemów sztucznej inteligencji wysokiego ryzyka są uwzględnione w unijnym prawodawstwie harmonizacyjnym wymienionym w załączniku II sekcja A, wymogi lub obowiązki określone we wspomnianych rozdziałach niniejszego rozporządzenia uznaje się za spełnione w zakresie, w jakim uwzględniają one element sztucznej inteligencji. W stosownych przypadkach do unijnego prawodawstwa harmonizacyjnego włącza się wymogi określone w tytule III rozdziały 2 i 3 lub tytule VIII rozdziały 1, 2 i 3 dotyczące systemów sztucznej inteligencji wysokiego ryzyka, które to wymogi nie są uwzględnione w unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II sekcja A. Odpowiednią ocenę zgodności przeprowadza się w ramach procedur określonych w unijnym prawodawstwie harmoniza- cyjnym wymienionym w załączniku II sekcja A.

Poprawka 261

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Ustanawia się, wdraża, dokumentuje i utrzymuje system zarządzania ryzykiem w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka.

1. Przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka ustanawia się, wdraża, dokumentuje i utrzymuje system zarządzania ryzykiem w odniesieniu do tego systemu sztucznej inteligencji. System zarządzania ryzykiem może zostać zintegrowany z istniejącymi już procedurami zarządzania ryzykiem dotyczącymi odpowiedniego unijnego prawa sektorowego lub stanowić ich część, o ile spełnia wymogi niniejszego artykułu.

Poprawka 262

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

2. System zarządzania ryzykiem składa się z ciągłego, iteracyjnego procesu realizowanego przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka, wymagającego regularnej, systematycznej aktualizacji. Obejmuje on następujące etapy:

2. System zarządzania ryzykiem składa się z ciągłego, iteracyjnego procesu realizowanego przez cały cykl życia systemu sztucznej inteligencji wysokiego ryzyka, wymagającego regularnego przeglądu i aktualizacji procesu zarządzania ryzykiem, aby zapewnić jego stałą skuteczność oraz dokumentować wszelkie znaczące decyzje i działania podjęte zgodnie z niniejszym artykułem. Obejmuje on następujące etapy:

Poprawka 263

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 2 - litera a

Tekst proponowany przez Komisję

Poprawka

a) identyfikację i analizę znanego i dającego się przewidzieć ryzyka związanego z każdym systemem sztucznej inteligencji wysokiego ryzyka;

a) identyfikację, oszacowanie i ocenę znanego i racjonalnie przewidywalnego ryzyka, jakie system sztucznej inteligencji wysokiego ryzyka może stwarzać dla zdrowia lub bezpieczeństwa osób fizycznych, ich praw podstawowych - w tym prawa do równego dostępu i równych szans - demokracji i praworządności lub środowiska, w przypadku gdy ów system sztucznej inteligencji wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem, jak również w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;

Poprawka 264

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 2 - litera b

Tekst proponowany przez Komisję

Poprawka

b) oszacowanie i ocenę ryzyka, jakie może wystąpić podczas wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka zgodnie z jego przeznaczeniem i w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania;

skreśla się

Poprawka 265

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 2 - litera c

Tekst proponowany przez Komisję

Poprawka

c) ocenę innego mogącego wystąpić ryzyka na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 61;

c) ocenę pojawiającego się znacznego ryzyka, o którym mowa w lit. a), zidentyfikowanego na podstawie analizy danych zebranych z systemu monitorowania po wprowadzeniu do obrotu, o którym mowa w art. 61;

Poprawka 266

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 2 - litera d

Tekst proponowany przez Komisję

Poprawka

d) przyjęcie odpowiednich środków zarządzania ryzykiem zgodnie z przepisami dalszych ustępów.

d) przyjęcie odpowiednich i ukierunkowanych środków zarządzania ryzykiem, mających na celu przeciwdziałanie zagrożeniom zidentyfikowanym zgodnie

z lit. a) i b) niniejszego ustępu zgodnie z przepisami dalszych ustępów

Poprawka 267

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 3

Tekst proponowany przez Komisję

Poprawka

3. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów określonych w niniejszym rozdziale 2. Uwzględnia się w nich powszechnie uznawany stan techniki, w tym jego odzwierciedlenie w odpowiednich normach zharmonizowanych lub wspólnych specyfikacjach.

3. W ramach środków zarządzania ryzykiem, o których mowa w ust. 2 lit. d), należycie uwzględnia się skutki i możliwe interakcje wynikające z łącznego stosowania wymogów określonych w niniejszym rozdziale 2, mając na względzie skuteczne ograniczanie ryzyka przy jednoczesnym zapewnieniu właściwego i proporcjonalnego wdrożenia wymogów.

Poprawka 268

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 4 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

4. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby wszelkie ryzyko szczątkowe związane z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów sztucznej inteligencji wysokiego ryzyka, oceniano jako dopuszczalne, pod warunkiem że system sztucznej inteligencji wysokiego ryzyka wykorzystuje się zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania. Użytkownika informuje się o tym ryzyku szczątkowym.

4. Środki zarządzania ryzykiem, o których mowa w ust. 2 lit. d), muszą być takie, aby ryzyko szczątkowe związane konkretnie z każdym zagrożeniem, jak również ogólne ryzyko szczątkowe systemów sztucznej inteligencji wysokiego ryzyka, zasadnie oceniano jako dopuszczalne, pod warunkiem że system sztucznej inteligencji wysokiego ryzyka wykorzystuje się zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania. Operatora sztucznej inteligencji informuje się o tym ryzyku szczątkowym i wydanych uzasadnionych ocenach.

Przy określaniu najodpowiedniejszych środków zarządzania ryzykiem zapewnia się, co następuje:

Poprawka 269

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 4 - akapit 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) eliminację lub ograniczenie ryzyka w możliwie największym stopniu poprzez odpowiedni projekt systemu i proces jego opracowywania;

a) eliminację lub ograniczenie zidentyfikowanego ryzyka, o ile jest to wykonalne pod względem technicznym, poprzez odpowiednie zaprojektowanie i opracowanie systemu sztucznej inteligencji wysokiego ryzyka, w stosownych przypadkach przy udziale ekspertów i zewnętrznych zainteresowanych stron;

Poprawka 270

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 4 - akapit 1 - litera b

Tekst proponowany przez Komisję

Poprawka

b) w stosownych przypadkach wdrożenie odpowiednich środków służących ograniczeniu i kontroli ryzyka, którego nie można wyeliminować;

b) w stosownych przypadkach wdrożenie odpowiednich środków służących ograniczeniu i kontroli ukierunkowanych na znaczące ryzyko, którego nie można wyeliminować;

Poprawka 271

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 4 - akapit 1 - litera c

Tekst proponowany przez Komisję

Poprawka

c) dostarczenie odpowiednich informacji zgodnie z art. 13, w szczególności w odniesieniu do ryzyka, o którym mowa w ust. 2 lit. b) niniejszego artykułu, oraz, w stosownych przypadkach, przeszkolenie użytkowników.

c) dostarczenie wymaganych informacji zgodnie z art. 13 oraz, w stosownych przypadkach, przeszkolenie operatorów sztucznej inteligencji.

Poprawka 272

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 4 - akapit 2

Tekst proponowany przez Komisję

Poprawka

Przy eliminowaniu lub ograniczaniu ryzyka związanego z wykorzystaniem systemu sztucznej inteligencji wysokiego ryzyka należytą uwagę zwraca się na wiedzę techniczną, doświadczenie, wykształcenie, szkolenia, jakich oczekuje się od użytkownika, oraz środowisko, w którym ma być wykorzystywany system.

Przy eliminowaniu lub ograniczaniu ryzyka związanego z wykorzystaniem systemu sztucznej inteligencji wysokiego ryzyka dostawcy zwracają należytą uwagę na wiedzę techniczną, doświadczenie, wykształcenie i szkolenia, jakich może potrzebować operator sztucznej inteligencji, w tym w stosunku do przewidywanego kontekstu użytkowania systemu.

Poprawka 273

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 5

Tekst proponowany przez Komisję

Poprawka

5. Systemy sztucznej inteligencji wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych środków zarządzania ryzykiem. Testy muszą służyć zapewnieniu spójnego działania systemów sztucznej inteligencji wysokiego ryzyka zgodnie z ich przeznaczeniem oraz ich zgodności z wymogami określonymi w niniejszym rozdziale.

5. Systemy sztucznej inteligencji wysokiego ryzyka testuje się w celu określenia najodpowiedniejszych i ukierunkowanych środków zarządzania ryzykiem oraz wyważenia wszelkich takich środków pod kątem potencjalnych korzyści i wyznaczonych celów systemu. Testy muszą służyć zapewnieniu spójnego działania systemów sztucznej inteligencji wysokiego ryzyka zgodnie z ich przeznaczeniem oraz ich zgodności z wymogami określonymi w niniejszym rozdziale.

Poprawka 274

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 6

Tekst proponowany przez Komisję

Poprawka

6. Procedury testowania muszą być odpowiednie do potwierdzenia funkcjonowania systemu sztucznej inteligencji zgodnie z jego przeznaczeniem i nie muszą wykraczać poza to, co jest niezbędne do osiągnięcia tego celu.

6. Procedury testowania muszą być umożliwiać potwierdzenie funkcjonowania systemu zgodnie z jego przeznaczeniem.

Poprawka 275

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 7

Tekst proponowany przez Komisję

Poprawka

7. Testy systemów sztucznej inteligencji wysokiego ryzyka przeprowadza się, w stosownych przypadkach, w dowolnym momencie procesu opracowywania systemu, a w każdym przypadku przed wprowadzeniem go do obrotu lub oddaniem go do użytku. Testy przeprowadza się w odniesieniu do wstępnie określonych wskaźników i progów probabilistycznych, stosownych do przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka.

7. Testy systemów sztucznej inteligencji wysokiego ryzyka przeprowadza się przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku. Testy przeprowadza się w odniesieniu do wcześniej określonych wskaźników i progów probabilistycznych, stosownych do przeznaczenia lub dającego się racjonalnie przewidzieć niewłaściwego wykorzystania systemu sztucznej inteligencji wysokiego ryzyka.

Poprawka 276

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 8

Tekst proponowany przez Komisję

Poprawka

8. Podczas wdrażania systemu zarządzania ryzykiem opisanego w ust. 1-7 szczególną uwagę zwraca się na to, czy istnieje prawdopodobieństwo, że dostęp do systemu sztucznej inteligencji wysokiego ryzyka uzyskają dzieci lub że będzie on miał na nie wpływ.

8. Podczas wdrażania systemu zarządzania ryzykiem opisanego w ust. 1-7 dostawcy zwracają szczególną uwagę na to, czy istnieje prawdopodobieństwo, że system sztucznej inteligencji wysokiego ryzyka będzie mieć negatywny wpływ na słabsze grupy lub dzieci.

Poprawka 277

Wniosek dotyczący rozporządzenia

Artykuł 9 - ustęp 9

Tekst proponowany przez Komisję

Poprawka

9. W przypadku instytucji kredytowych podlegających przepisom dyrektywy 2013/36/UE aspekty opisane w ust. 1-8 stanowią część procedur służących zarządzaniu ryzykiem ustanowionych przez te instytucje zgodnie z art. 74 tej dyrektywy.

9. W przypadku dostawców i systemów sztucznej inteligencji objętych przepisami prawa Unii, które wymagają od nich wprowadzenia szczególnych systemów zarządzania ryzykiem, w tym instytucji kredytowych podlegających przepisom dyrektywy 2013/36/UE, aspekty opisane w ust. 1-8 stanowią część procedur służących zarządzaniu ryzykiem ustanowionych w tych przepisach prawa Unii lub są z nimi powiązane.

Poprawka 278

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Systemy sztucznej inteligencji wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli z wykorzystaniem danych, opracowuje się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2-5.

1. Systemy sztucznej inteligencji wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli z wykorzystaniem danych, opracowuje się na podstawie zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w ust. 2-5, o ile jest to technicznie możliwe w danym segmencie rynku lub przy danym zakresie stosowania.

Techniki, które nie wymagają etykietowania danych wejściowych, takie jak uczenie się bez nadzoru i uczenie się przez wzmacnianie, opracowuje się na podstawie zbiorów danych, takich jakich te wykorzystywane do badań i weryfikacji, spełniających kryteria jakości, o których mowa w ust. 2-5.

Poprawka 279

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

2. Zbiory danych treningowych, walidacyjnych i testowych podlegają odpowiednim praktykom w zakresie zarządzania danymi. Praktyki te dotyczą w szczególności:

2. Zbiory danych treningowych, walidacyjnych i testowych podlegają odpowiednim praktykom w zakresie zarządzania danymi odpowiednim do kontekstu ich wykorzystania oraz przeznaczenia systemu sztucznej inteligencji. Środki te dotyczą w szczególności:

Poprawka 280

Wniosek dotyczący rozporządzenia Artykuł 10 - ustęp 2 - litera a a (nowa)

Tekst proponowany przez Komisję

Poprawka

aa) przejrzystości pierwotnego celu gromadzenia danych;

Poprawka 281

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - litera b

Tekst proponowany przez Komisję

Poprawka

b) gromadzenia danych;

b) procesów gromadzenia danych;

Poprawka 282

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - litera c

Tekst proponowany przez Komisję

Poprawka

c) odpowiednich operacji przetwarzania na potrzeby przygotowania danych, takich jak anotowanie, etykietowanie, czyszczenie, wzbogacanie i agregacja;

c) operacji przetwarzania na potrzeby przygotowania danych, takich jak anotowanie, etykietowanie, czyszczenie, aktualizowanie, wzbogacanie i agregacja;

Poprawka 283

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - litera d

Tekst proponowany przez Komisję

Poprawka

d) sformułowanie odpowiednich założeń, zwłaszcza w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;

d) sformułowanie założeń, zwłaszcza w odniesieniu do informacji, do których pomiaru i reprezentowania mają służyć dane;

Poprawka 284

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - litera e

Tekst proponowany przez Komisję

Poprawka

e) uprzedniej oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;

e) oceny dostępności, ilości i przydatności zbiorów danych, które są potrzebne;

Poprawka 285

Wniosek dotyczący rozporządzenia Artykuł 10 - ustęp 2 - litera f

Tekst proponowany przez Komisję

Poprawka

f) badania pod kątem ewentualnej tendencyjności;

f) badania pod kątem ewentualnej tendencyjności, która może mieć wpływ na zdrowie i bezpieczeństwo osób, negatywnie wpływać na prawa podstawowe lub prowadzić do dyskryminacji zakazanej na mocy prawa Unii, zwłaszcza w przypadku gdy dane wyjściowe wpływają na dane wejściowe wykorzystywane na potrzeby przyszłych operacji ("sprzężenie zwrotne"), a także pod kątem środków służących wykrywaniu ewentualnej tendencyjności oraz jej zapobieganiu i ograniczaniu;

Poprawka 286

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - litera f a (nowa)

Tekst proponowany przez Komisję

Poprawka

fa) środków służących wykrywaniu ewentualnej tendencyjności oraz jej zapobieganiu i ograniczaniu;

Poprawka 287

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 2 - litera g

Tekst proponowany przez Komisję

Poprawka

g) określenia wszelkich możliwych luk w danych lub braków w danych oraz tego, w jaki sposób można zaradzić tym lukom i brakom.

g) określenia istotnych luk w danych lub braków w danych, które uniemożliwiają stosowanie się do niniejszego rozporządzenia, oraz tego, w jaki sposób można zaradzić tym lukom i brakom;

Poprawka 288

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 3

Tekst proponowany przez Komisję

Poprawka

3. Zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, reprezentatywne, wolne od błędów i kompletne. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka. Te kryteria zbiorów danych mogą zostać spełnione na poziomie pojedynczych zbiorów danych lub ich kombinacji.

3. Zbiory danych treningowych oraz - w przypadku ich użycia - zbiory danych walidacyjnych i testowych, w tym etykiety, powinny być adekwatne, wystarczająco reprezentatywne, odpowiednio zweryfikowane pod kątem błędów oraz tak kompletne, jak to tylko możliwe w świetle ich przeznaczenia. Muszą się one charakteryzować odpowiednimi właściwościami statystycznymi, w tym, w stosownych przypadkach, w odniesieniu do osób lub grup osób, wobec których ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka. Te kryteria zbiorów danych muszą zostać spełnione na poziomie pojedynczych zbiorów danych lub ich kombinacji.

Poprawka 289

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 4

Tekst proponowany przez Komisję

Poprawka

4. Zbiory danych treningowych, walidacyjnych i testowych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego kontekstu geograficznego, behawioralnego lub funkcjonalnego lub okoliczności, w których ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka.

4. Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na przeznaczenie lub dające się racjonalnie przewidzieć niewłaściwe wykorzystanie systemów sztucznej inteligencji, cechy lub elementy, które są specyficzne dla określonego kontekstu geograficznego, sytuacyjnego, behawioralnego lub okoliczności, w których ma być wykorzystywany system sztucznej inteligencji wysokiego ryzyka.

Poprawka 290

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 5

Tekst proponowany przez Komisję

Poprawka

5. W zakresie, w jakim jest to ściśle niezbędne do celów zapewnienia monitorowania, wykrywania i korygowania tendencyjności systemów sztucznej inteligencji wysokiego ryzyka, dostawcy takich systemów mogą przetwarzać szczególne kategorie danych osobowych, o których mowa w art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 dyrektywy (UE) 2016/680 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725, pod warunkiem stosowania odpowiednich zabezpieczeń gwarantujących ochronę podstawowych praw i wolności osób fizycznych, w tym środków technicznych ograniczających ponowne wykorzystanie tych danych i najnowocześniejszych środków służących zapewnieniu bezpieczeństwa i ochrony prywatności, takich jak pseudonimizacja lub - w przypadku gdy anonimizacja może znacząco wpłynąć na możliwość realizacji zakładanego celu - szyfrowanie.

5. W zakresie, w jakim jest to ściśle niezbędne do celów zapewnienia monitorowania, wykrywania i korygowania uprzedzeń systemów sztucznej inteligencji wysokiego ryzyka, dostawcy takich systemów mogą wyjątkowo przetwarzać szczególne kategorie danych osobowych, o których mowa w art. 9 ust. 1 rozporządzenia (UE) 2016/679, art. 10 dyrektywy (UE) 2016/680 i art. 10 ust. 1 rozporządzenia (UE) 2018/1725, pod warunkiem stosowania odpowiednich zabezpieczeń gwarantujących ochronę podstawowych praw i wolności osób fizycznych, w tym środków technicznych ograniczających ponowne wykorzystanie tych danych i najnowocześniejszych środków służących zapewnieniu bezpieczeństwa i ochrony prywatności, W szczególności, aby przetwarzanie to miało miejsce, muszą być spełnione wszystkie następujące warunki:

a) nie jest możliwe skuteczne wykrywanie i korygowanie

tendencyjności poprzez przetwarzanie danych syntetycznych lub zanonimizowanych;

b) dane są spseudonimizowane;

c) dostawca podejmuje odpowiednie środki techniczne i organizacyjne, aby zagwarantować, że dane przetwarzane do celów niniejszego ustępu są zabezpieczone, chronione i podlegają odpowiednim środkom bezpieczeństwa oraz że dostęp do tych danych mają wyłącznie osoby upoważnione, na których spoczywają odpowiednie obowiązki w zakresie poufności;

d) dane przetwarzane do celów niniejszego ustępu nie są przesyłane, przekazywane ani w inny sposób udostępniane innym podmiotom;

e) dane przetwarzane do celów niniejszego ustępu są chronione za pomocą odpowiednich środków technicznych i organizacyjnych oraz usuwane po wyeliminowaniu tendencyjności lub po upływie okresu przechowywania danych osobowych;

f) wprowadzono skuteczne i adekwatne środki, aby zapewnić dostępność, bezpieczeństwo i odporność systemów i usług przetwarzania na wypadek incydentów technicznych lub fizycznych;

g) wprowadzono skuteczne i adekwatne środki, aby zapewnić fizyczne bezpieczeństwo miejsc, w których dane są przechowywane i przetwarzane, a także wewnętrzne zarządzanie IT i zarządzanie bezpieczeństwem IT, certyfikację procesów i produktów;

Dostawcy korzystający z tego przepisu sporządzają dokumentację, w której wyjaśniają, dlaczego przetwarzanie szczególnych kategorii danych osobowych było niezbędne do wykrycia i wyeliminowania tendencyjności.

Poprawka 291

Wniosek dotyczący rozporządzenia

Artykuł 10 - ustęp 6 a (nowy)

Tekst proponowany przez Komisję

Poprawka

6a. Jeżeli dostawca nie może wywiązać się z obowiązków określonych w niniejszym artykule, ponieważ nie ma dostępu do danych, a dane są w wyłącznym posiadaniu operatora sztucznej inteligencji, operator sztucznej inteligencji może na podstawie umowy zostać uznany za odpowiedzialnego za wszelkie naruszenia niniejszego artykułu.

Poprawka 292

Wniosek dotyczący rozporządzenia

Artykuł 11 - ustęp 1 - akapit 1

Tekst proponowany przez Komisję

Poprawka

Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi określone w niniejszym rozdziale, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym wszystkich informacji niezbędnych do oceny zgodności systemu sztucznej inteligencji z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV.

Dokumentację techniczną sporządza się w taki sposób, aby wykazać, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi określone w niniejszym rozdziale, oraz aby dostarczyć właściwym krajowym organom nadzorczym i jednostkom notyfikowanym informacji niezbędnych do oceny zgodności systemu sztucznej inteligencji z tymi wymogami. Zawiera ona co najmniej elementy określone w załączniku IV lub, w przypadku MŚP i przedsiębiorstw typu startup, wszelką równoważną dokumentację służącą tym samym celom, którą musi zatwierdzić właściwy organ krajowy.

Poprawka 293

Wniosek dotyczący rozporządzenia

Artykuł 11 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. W przypadku gdy system sztucznej inteligencji wysokiego ryzyka związany z produktem, do którego mają zastosowanie akty prawne wymienione w załączniku II sekcja A, jest wprowadzany do obrotu lub oddawany do użytku, sporządza się jedną dokumentację techniczną zawierającą wszystkie informacje określone w załączniku IV, jak również informacje wymagane na podstawie tych aktów prawnych.

2. W przypadku gdy system sztucznej inteligencji wysokiego ryzyka związany z produktem, do którego mają zastosowanie akty prawne wymienione w załączniku II sekcja A, jest wprowadzany do obrotu lub oddawany do użytku, sporządza się jedną dokumentację techniczną zawierającą wszystkie informacje określone w ust. 1, jak również informacje wymagane na podstawie tych aktów prawnych.

Poprawka 294

Wniosek dotyczący rozporządzenia

Artykuł 11 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję

Poprawka

3a. Dostawcy będący instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE prowadzą dokumentację techniczną jako jeden z elementów dokumentacji dotyczącej zasad, procedur i mechanizmów zarządzania wewnętrznego zgodnie z art. 74 tej dyrektywy.

Poprawka 295

Wniosek dotyczący rozporządzenia

Artykuł 12 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się tak, aby zawierały funkcję umożliwiającą automatyczne rejestrowanie zdarzeń ("rejestry zdarzeń") podczas działania tych systemów. Ta funkcja rejestracji zdarzeń musi być zgodna z uznanymi normami lub wspólnymi specyfikacjami.

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się tak, aby zawierały funkcję umożliwiającą automatyczne rejestrowanie zdarzeń ("rejestry zdarzeń") podczas działania tych systemów. Ta funkcja rejestracji zdarzeń musi być zgodna z aktualnym stanem wiedzy oraz uznanymi normami lub wspólnymi specyfikacjami.

Poprawka 296

Wniosek dotyczący rozporządzenia

Artykuł 12 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Funkcja rejestracji zdarzeń musi zapewniać, w całym cyklu życia systemu sztucznej inteligencji, poziom identyfiko- walności jego funkcjonowania odpowiedni do przeznaczenia systemu.

2. Aby zapewnić poziom identyfikowalności funkcjonowania systemu sztucznej inteligencji w całym jego cyklu życia, który jest odpowiedni do przeznaczenia systemu, funkcja rejestracji zdarzeń musi ułatwiać monitorowanie działań, o których mowa w art. 29 ust. 4, a także monitorowanie po wprowadzeniu do obrotu, o którym mowa w art. 61. W szczególności musi ona umożliwiać rejestrowanie zdarzeń istotnych dla identyfikacji sytuacji, które mogą:

a) spowodować, że system sztucznej inteligencji będzie stwarzać ryzyko w rozumieniu art. 65 ust. 1 lub

b) prowadzić do wystąpienia istotnej zmiany w systemie sztucznej inteligencji.

Poprawka 297

Wniosek dotyczący rozporządzenia

Artykuł 12 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję

Poprawka

2a. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje tak, aby zawierały funkcję rejestracji zdarzeń umożliwiającą rejestrowanie zużycia energii, a także pomiar lub obliczanie zużycia zasobów oraz wpływu systemu sztucznej inteligencji wysokiego ryzyka na środowisko na wszystkich etapach jego cyklu życia.

Poprawka 298

Wniosek dotyczący rozporządzenia

Artykuł 12 - ustęp 3

Tekst proponowany przez Komisję

Poprawka

3. W szczególności funkcja rejestracji zdarzeń musi umożliwiać monitorowanie działania systemu sztucznej inteligencji wysokiego ryzyka pod kątem występowania sytuacji, które mogą skutkować tym, że system sztucznej inteligencji będzie stwarzał ryzyko w rozumieniu art. 65 ust. 1, lub które mogą prowadzić do wystąpienia istotnej zmiany, oraz musi ułatwiać monitorowanie po wprowadzeniu do obrotu, o którym mowa w art. 61.

skreśla się

Poprawka 299

Wniosek dotyczący rozporządzenia

Artykuł 13 - nagłówek

Tekst proponowany przez Komisję

Poprawka

Przejrzystość i udostępnianie informacji użytkownikom

Przejrzystość i udostępnianie informacji

Poprawka 300

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą użytkownikom interpretację wyników działania systemu i ich właściwe wykorzystanie. Zapewnia się odpowiedni rodzaj i stopień przejrzystości w celu osiągnięcia zgodności z odpowiednimi obowiązkami użytkownika i dostawcy, określonymi w rozdziale 3 niniejszego tytułu.

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się w sposób zapewniający wystarczającą przejrzystość ich działania, umożliwiającą dostawcom i użytkownikom racjonalne zrozumienie funkcjonowania systemu. Zapewnia się stopień przejrzystości odpowiedni do przeznaczenia systemu sztucznej inteligencji w celu osiągnięcia zgodności z odpowiednimi obowiązkami dostawcy i użytkownika, które określono w rozdziale 3 niniejszego tytułu.

Przejrzystość oznacza zatem, że w momencie wprowadzania do obrotu systemu sztucznej inteligencji wysokiego ryzyka wykorzystuje się wszystkie dostępne środki techniczne zgodnie z powszechnie uznanym aktualnym stanem wiedzy, aby zapewnić dostawcy i użytkownikowi możliwość interpretacji wyników systemu sztucznej inteligencji. Użytkownik musi być w stanie zrozumieć system sztucznej inteligencji oraz korzystać z niego na podstawie ogólnej wiedzy na temat sposobu funkcjonowania systemu sztucznej inteligencji i przetwarzanych przez niego danych, dzięki czemu będzie on mógł wyjaśnić decyzje podjęte przez system sztucznej inteligencji osobom, których decyzje te będą dotyczyć zgodnie z art. 68 lit. c).

Poprawka 301

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Do systemów sztucznej inteligencji wysokiego ryzyka dołącza się instrukcję obsługi w odpowiednim formacie cyfrowym lub innym formacie zawierającą zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla użytkowników.

2. Do systemów sztucznej inteligencji wysokiego ryzyka dołącza się zrozumiałe instrukcje obsługi w odpowiednim formacie cyfrowym lub udostępnia się je na trwałym nośniku w innym formacie; zawierają one zwięzłe, poprawne, jasne i w możliwym stopniu wyczerpujące informacje, które pomagają użytkownikom w operowaniu systemem sztucznej inteligencji i utrzymaniu go, a także w podjęciu świadomych decyzji idla nich racjonalnie istotne, dostępne i zrozumiałe.

Poprawka 302

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 3 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

3. Informacje, o których mowa w ust. 2, muszą obejmować:

3. Aby osiągnąć wyniki, o których mowa w ust. 1, informacje, o których mowa w ust.2, określają:

Poprawka 303

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 3 - litera a

Tekst proponowany przez Komisję

Poprawka

a) tożsamość i dane kontaktowe dostawcy oraz, w stosownych przypadkach, jego upoważnionego przedstawiciela;

a) tożsamość i dane kontaktowe dostawcy oraz, w stosownych przypadkach, jego upoważnionych przedstawicieli;

Poprawka 304

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 3 - litera a a (nowa)

Tekst proponowany przez Komisję

Poprawka

aa) w przypadku gdy różni się od dostawcy - tożsamość i dane kontaktowe podmiotu, który przeprowadził ocenę zgodności, oraz, w stosownych przypadkach, jego upoważnionego przedstawiciela;

Poprawka 305

Wniosek dotyczący rozporządzenia Artykuł 13 - ustęp 3 - litera b - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

b) cechy, możliwości i ograniczenia skuteczności działania systemu sztucznej inteligencji wysokiego ryzyka, w tym:

b) cechy, możliwości i ograniczenia skuteczności działania systemu sztucznej inteligencji wysokiego ryzyka, w tym, w stosownym przypadku:

Poprawka 306

Wniosek dotyczący rozporządzenia Artykuł 13 - ustęp 3 - litera b - podpunkt ii

Tekst proponowany przez Komisję

Poprawka

(ii) poziom dokładności, solidności i cyberbezpieczeństwa, o którym mowa w art. 15, względem którego przetestowano system sztucznej inteligencji wysokiego ryzyka i dokonano jego walidacji oraz którego można oczekiwać, a także wszelkie znane i dające się przewidzieć okoliczności, które mogą mieć wpływ na ten oczekiwany poziom dokładności, solidności i cyberbezpieczeństwa;

(ii) poziom dokładności, solidności i cyberbezpieczeństwa, o którym mowa w art. 15, względem którego przetestowano system sztucznej inteligencji wysokiego ryzyka i dokonano jego walidacji oraz którego można oczekiwać, a także wszelkie wyraźnie znane i dające się przewidzieć okoliczności, które mogą mieć wpływ na ten oczekiwany poziom dokładności, solidności i cyberbezpieczeństwa;

Poprawka 307

Wniosek dotyczący rozporządzenia Artykuł 13 - ustęp 3 - litera b - podpunkt iii

Tekst proponowany przez Komisję

Poprawka

(iii) wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu sztucznej inteligencji wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, które mogą powodować zagrożenia dla zdrowia i bezpieczeństwa lub praw podstawowych;

(iii) wszelkie wyraźnie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu sztucznej inteligencji wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, które mogą powodować zagrożenia dla zdrowia i bezpieczeństwa, praw podstawowych lub środowiska, w tym, w stosownych przypadkach, konkretne przykłady ograniczeń i scenariuszy, w których system nie powinien być wykorzystywany;

Poprawka 308

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 3 - litera b - podpunkt iii a (nowy)

Tekst proponowany przez Komisję

Poprawka

(iiia) stopień, w jakim system sztucznej inteligencji może wyjaśnić podejmowane przez siebie decyzje;

Poprawka 309

Wniosek dotyczący rozporządzenia Artykuł 13 - ustęp 3 - litera b - podpunkt v

Tekst proponowany przez Komisję

Poprawka

(v) w stosownych przypadkach, specyfikacje dotyczące danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych treningowych, walida- cyjnych i testowych, uwzględniając przeznaczenie systemu sztucznej inteligencji;

(v) istotne informacje na temat działań użytkowników, które mogą mieć wpływ na wydajność systemu, w tym rodzaj lub jakość danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych treningowych, walidacyjnych i testowych, uwzględniając przeznaczenie systemu sztucznej inteligencji.

Poprawka 310

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 3 - litera e

Tekst proponowany przez Komisję

Poprawka

e) przewidywany cykl życia systemu sztucznej inteligencji wysokiego ryzyka oraz wszelkie niezbędne środki w zakresie konserwacji i utrzymania mające na celu zapewnienie właściwego funkcjonowania tego systemu sztucznej inteligencji, w tym dotyczące aktualizacji oprogramowania.

e) wszelkie niezbędne środki w zakresie konserwacji i utrzymania mające na celu zapewnienie właściwego funkcjonowania tego systemu sztucznej inteligencji, w tym dotyczące aktualizacji oprogramowania w całym przewidywanym cyklu życia.

Poprawka 311

Wniosek dotyczący rozporządzenia Artykuł 13 - ustęp 3 - litera e a (nowa)

Tekst proponowany przez Komisję

Poprawka

ea) opis mechanizmów zawartych w systemie sztucznej inteligencji, który umożliwia użytkownikom prawidłowe gromadzenie, przechowywanie i interpretowanie rejestrów zdarzeń zgodnie z art. 12 ust. 1.

Poprawka 312

Wniosek dotyczący rozporządzenia

Artykuł 13 - ustęp 3 - litera e b (nowa)

Tekst proponowany przez Komisję

Poprawka

eb) Informacje należy przedstawić co najmniej w języku kraju, w którym system sztucznej inteligencji jest wykorzystywany.

Poprawka 313

Wniosek dotyczący rozporządzenia Artykuł 13 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję

Poprawka

3a. W celu spełnienia obowiązków określonych w niniejszym artykule dostawcy i użytkownicy zapewniają wystarczający poziom kompetencji w zakresie sztucznej inteligencji zgodnie z art. 4b.

Poprawka 314

Wniosek dotyczący rozporządzenia

Artykuł 14 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w okresie wykorzystywania systemu sztucznej inteligencji wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne.

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się w taki sposób, w tym poprzez uwzględnienie odpowiednich narzędzi interfejsu człowiek-maszyna, aby w całym cyklu życia systemu sztucznej inteligencji wysokiego ryzyka mogły je skutecznie nadzorować osoby fizyczne, proporcjonalnie do ryzyka związanego z tymi systemami. Osoby fizyczne odpowiedzialne za zapewnienie nadzoru ze strony człowieka muszą posiadać wystarczający poziom kompetencji w zakresie sztucznej inteligencji zgodnie z art. 4b oraz należy im zapewnić niezbędne wsparcie i uprawnienia do pełnienia tej funkcji w okresie, w którym system sztucznej inteligencji jest używany, oraz do przeprowadzenia dokładnego dochodzenia po incydencie.

Poprawka 315

Wniosek dotyczący rozporządzenia

Artykuł 14 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system sztucznej inteligencji wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów określonych w niniejszym rozdziale.

2. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system sztucznej inteligencji wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów określonych w niniejszym rozdziale i gdy decyzje oparte wyłącznie na zautomatyzowanym przetwarzaniu przez systemy sztucznej inteligencji powodują skutki prawne lub inne istotne skutki dla osób lub grup osób, względem których system ma być wykorzystywany.

Poprawka 316

Wniosek dotyczący rozporządzenia

Artykuł 14 - ustęp 3 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

3. Nadzór ze strony człowieka zapewnia się za pośrednictwem środka lub środków:

3. Nadzór ze strony człowieka uwzględnia konkretne rodzaje ryzyka, poziom automatyzacji i kontekst systemu sztucznej inteligencji, a zapewnia się go za pomocą co najmniej jednego z następujących rodzajów środków:

Poprawka 317

Wniosek dotyczący rozporządzenia Artykuł 14 - ustęp 4 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

4. Osobom, którym powierzono sprawowanie nadzoru ze strony człowieka, środki, o których mowa w ust. 3, muszą umożliwiać, odpowiednio do okoliczności:

4. Do celów wykonania ust. 1-3 system sztucznej inteligencji wysokiego ryzyka udostępnia się użytkownikowi w taki sposób, aby umożliwić osobom fizycznym, którym powierzono sprawowanie nadzoru ze strony człowieka, odpowiednio i proporcjonalnie do okoliczności:

Poprawka 318

Wniosek dotyczący rozporządzenia

Artykuł 14 - ustęp 4 - litera a

Tekst proponowany przez Komisję

Poprawka

a) zrozumienie w pełni możliwości i ograniczeń systemu sztucznej inteligencji wysokiego ryzyka oraz należyte monitorowanie jego działania, tak aby oznaki anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania można było wykrywać i zaradzić im tak szybko, jak to możliwe;

a) uświadomienie sobie i dostateczne zrozumienie istotnych możliwości i ograniczeń systemu sztucznej inteligencji wysokiego ryzyka oraz należyte monitorowanie jego działania, tak aby oznaki anomalii, nieprawidłowego funkcjonowania i nieoczekiwanych wyników działania można było wykrywać i zaradzić im tak szybko, jak to możliwe;

Poprawka 319

Wniosek dotyczący rozporządzenia

Artykuł 14 - ustęp 4 - litera e

Tekst proponowany przez Komisję

Poprawka

e) ingerowanie w działanie systemu sztucznej inteligencji wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku "stop" lub podobnej procedury.

e) ingerowanie w działanie systemu sztucznej inteligencji wysokiego ryzyka lub przerwanie działania systemu za pomocą przycisku "stop" lub podobnej procedury, która umożliwia bezpieczne zatrzymanie systemu, z wyjątkiem sytuacji, gdy ingerencja człowieka zwiększa ryzyko lub miałaby negatywny wpływ na wydajność, biorąc pod uwagę powszechnie uznany aktualny stan wiedzy.

Poprawka 320

Wniosek dotyczący rozporządzenia

Artykuł 14 - ustęp 5

Tekst proponowany przez Komisję

Poprawka

5. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3, muszą ponadto zapewniać, aby użytkownik nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli nie zweryfikowały jej ani nie potwierdziły co najmniej dwie osoby fizyczne.

5. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 1 lit. a), środki, o których mowa w ust. 3, muszą ponadto zapewniać, aby użytkownik nie podejmował żadnego działania ani decyzji na podstawie identyfikacji będącej wynikiem działania systemu, jeżeli nie zweryfikowały jej ani nie potwierdziły co najmniej dwie osoby fizyczne posiadające niezbędne kompetencje, przeszkolenie i uprawnienia.

Poprawka 321

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje się w taki sposób, aby osiągały, z uwagi na ich przeznaczenie, odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz działały konsekwentnie pod tymi względami w całym cyklu życia.

1. Systemy sztucznej inteligencji wysokiego ryzyka projektuje się i opracowuje zgodnie z zasadą uwzględniania bezpieczeństwa na etapie projektowania i bezpieczeństwa domyślnego. Z uwagi na ich przeznaczenie powinny one osiągać odpowiedni poziom dokładności, solidności, bezpieczeństwa i cyberbezpie- czeństwa oraz działać konsekwentnie pod tymi względami w całym cyklu życia. Przestrzeganie tych wymogów obejmuje wdrażanie środków zgodnych z aktualnym stanem wiedzy, odpowiednich do określonego segmentu rynku lub zakresu stosowania.

Poprawka 322

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

1a. Aby zająć się technicznymi aspektami sposobu pomiaru odpowiednich poziomów dokładności i solidności, o których mowa w ust. 1 niniejszego artykułu, Urząd ds. Sztucznej Inteligencji skupia krajowe i międzynarodowe organy ds. metrologii i analizy porównawczej oraz wydaje niewiążące wytyczne w tej kwestii zgodnie z art. 56 ust. 2 lit. a) niniejszego rozporządzenia.

Poprawka 323

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 1 b (nowy)

Tekst proponowany przez Komisję

Poprawka

1b. Aby sprostać wszelkim pojawiającym się na rynku wewnętrznym problemom związanym z cyberbezpieczeństwem, Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) współpracuje z Europejską Radą ds. Sztucznej Inteligencji zgodnie z art. 56 ust. 2 lit. b).

Poprawka 324

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów sztucznej inteligencji wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi.

2. Poziomy dokładności i odpowiednie wskaźniki dokładności systemów sztucznej inteligencji wysokiego ryzyka deklaruje się w dołączonych do nich instrukcjach obsługi. Język instrukcji musi być jasny i wolny od dwuznaczności lub stwierdzeń wprowadzających w błąd.

Poprawka 325

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 3 - akapit 1

Tekst proponowany przez Komisję

Poprawka

Systemy sztucznej inteligencji wysokiego ryzyka muszą być odporne na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami.

Podejmuje się środki techniczne i organizacyjne, by zagwarantować jak największą odporność systemów sztucznej inteligencji wysokiego ryzyka na błędy, usterki lub niespójności, które mogą wystąpić w systemie lub w środowisku, w którym działa system, w szczególności w wyniku interakcji z osobami fizycznymi lub innymi systemami.

Poprawka 326

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 3 - akapit 2

Tekst proponowany przez Komisję

Poprawka

Solidność systemów sztucznej inteligencji wysokiego ryzyka można osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. "fail-safe").

Solidność systemów sztucznej inteligencji wysokiego ryzyka odpowiedni dostawca, w miarę potrzeby przy współudziale użytkownika, może osiągnąć dzięki rozwiązaniom technicznym gwarantującym redundancję, które mogą obejmować plany zakładające dostępność systemu zapasowego lub plany zapewniające przejście systemu w stan bezpieczny (tzw. "fail-safe").

Poprawka 327

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 3 - akapit 3

Tekst proponowany przez Komisję

Poprawka

Systemy sztucznej inteligencji wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, opracowuje się w taki sposób, aby należycie zaradzić - za pomocą odpowiednich środków ograniczających ryzyko - ewentualnym tendencyjnym wynikom działania spowodowanym tym, że wyniki działania wykorzystuje się jako dane wejściowe w przyszłych operacjach ("sprzężenie zwrotne") .

Systemy sztucznej inteligencji wysokiego ryzyka, które po wprowadzeniu na rynek lub oddaniu do użytku nadal się uczą, opracowuje się w taki sposób, aby należycie zaradzić - za pomocą odpowiednich środków ograniczających ryzyko - ewentualnym tendencyjnym wynikom działania wpływającym na dane wejściowe w przyszłych operacjach ("sprzężenie zwrotne") oraz celowemu manipulowaniu danymi wejściowymi wykorzystywanymi do uczenia się w trakcie operacji.

Poprawka 328

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 4 - akapit 1

Tekst proponowany przez Komisję

Poprawka

Systemy sztucznej inteligencji wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich zastosowania lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.

Systemy sztucznej inteligencji wysokiego ryzyka muszą być odporne na próby nieupoważnionych osób trzecich mające na celu zmianę ich zastosowania, zachowania, wyników działania lub skuteczności działania poprzez wykorzystanie słabych punktów systemu.

Poprawka 329

Wniosek dotyczący rozporządzenia

Artykuł 15 - ustęp 4 - akapit 3

Tekst proponowany przez Komisję

Poprawka

Rozwiązania techniczne mające na celu eliminowanie podatności charakterystycznych dla sztucznej inteligencji obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych ("data poisoning"), danym wejściowym, które mają na celu spowodowanie błędu w modelu ("niepożądane przykłady"), lub wadom modelu, a także środki służące weryfikacji działania systemu pod kątem tych zagrożeń.

Rozwiązania techniczne mające na celu eliminowanie podatności charakterystycznych dla sztucznej inteligencji obejmują, w stosownych przypadkach, środki służące zapobieganiu atakom polegającym na manipulowaniu zbiorem danych treningowych ("zatruwanie danych") lub wstępnie wytrenowa- nymi elementami używanymi do trenowania ("zatruwanie modeli"), a także danym wejściowym, które mają na celu spowodowanie błędu w modelu ("niepożądane przykłady" lub "omijanie modelu"), atakom na poufność lub wadom modelu, które mogą doprowadzić do szkodliwych decyzji, jak również środki służące wykrywaniu takich zagrożeń, reagowaniu na nie, eliminowaniu ich oraz weryfikacji działania systemu pod ich kątem.

Poprawka 330

Wniosek dotyczący rozporządzenia

Tytuł III - rozdział 3 - nagłówek

Tekst proponowany przez Komisję

Poprawka

OBOWIĄZKI DOSTAWCÓW I UŻYTKOWNIKÓW SYSTEMÓW SZTUCZNEJ INTELIGENCJI WYSOKIEGO RYZYKA oraz innych osób

OBOWIĄZKI DOSTAWCÓW I OPERATORÓW SYSTEMÓW SZTUCZNEJ INTELIGENCJI WYSOKIEGO RYZYKA ORAZ INNYCH OSÓB

Poprawka 331

Wniosek dotyczący rozporządzenia

Artykuł 16 - nagłówek

Tekst proponowany przez Komisję

Poprawka

Obowiązki dostawców systemów sztucznej inteligencji wysokiego ryzyka

Obowiązki dostawców i operatorów systemów sztucznej inteligencji wysokiego ryzyka oraz innych osób

Poprawka 332

Wniosek dotyczący rozporządzenia Artykuł 16 - akapit 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) zapewniają zgodność swoich systemów sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu;

a) zapewniają zgodność swoich systemów sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu przed wprowadzeniem ich do obrotu lub oddaniem do użytku;

Poprawka 333

Wniosek dotyczący rozporządzenia Artykuł 16 - akapit 1 - litera a a (nowa)

Tekst proponowany przez Komisję

Poprawka

aa) podają, w zależności od przypadku, imię i nazwisko, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy oraz adres i informacje kontaktowe w systemie sztucznej inteligencji wysokiego ryzyka lub -, jeżeli nie jest to możliwe - w towarzyszącej mu dokumentacji;

Poprawka 334

Wniosek dotyczący rozporządzenia Artykuł 16 - akapit 1 - litera a b (nowa)

Tekst proponowany przez Komisję

Poprawka

ab) dopilnowują, aby osoby fizyczne, którym powierzono nadzór ludzki nad systemami sztucznej inteligencji wysokiego ryzyka, zostały szczegółowo poinformowane o ryzyku automatyzacji lub błędu potwierdzenia;

Poprawka 335

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera a c (nowa)

Tekst proponowany przez Komisję

Poprawka

ac) dostarczają specyfikacje dotyczące danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych, w tym ich ograniczeń i odgórnych założeń, przy czym uwzględniają przeznaczenie systemu sztucznej inteligencji oraz jego dające się przewidzieć i racjonalnie przewidzieć niewłaściwe wykorzystanie;

Poprawka 336

Wniosek dotyczący rozporządzenia Artykuł 16 - akapit 1 - litera c

Tekst proponowany przez Komisję

Poprawka

c) sporządzają dokumentację techniczną systemu sztucznej inteligencji wysokiego ryzyka;

c) sporządzają i przechowują dokumentację techniczną systemu sztucznej inteligencji wysokiego ryzyka, o której mowa w art. 11;

Poprawka 337

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera d

Tekst proponowany przez Komisję

Poprawka

d) przechowują rejestry zdarzeń generowane automatycznie przez ich systemy sztucznej inteligencji wysokiego ryzyka, jeżeli znajdują się one pod ich kontrolą;

d) przechowują rejestry zdarzeń generowane automatycznie przez ich systemy sztucznej inteligencji wysokiego ryzyka, które znajdują się pod ich kontrolą i które są wymagane do zapewnienia i wykazania zgodności z niniejszym rozporządzeniem, zgodnie z art. 20;

Poprawka 338

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera e

Tekst proponowany przez Komisję

Poprawka

e) zapewniają, aby system sztucznej inteligencji wysokiego ryzyka poddano odpowiedniej procedurze oceny zgodności przed wprowadzeniem go do obrotu lub oddaniem go do użytku;

e) zapewniają, aby zgodnie z art. 43 system sztucznej inteligencji wysokiego ryzyka poddano odpowiedniej procedurze oceny zgodności przed wprowadzeniem go do obrotu lub oddaniem go do użytku;

Poprawka 339

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera e a (nowa)

Tekst proponowany przez Komisję

Poprawka

ea) opracowuje deklarację zgodności UE zgodnie z art. 48;

Poprawka 340

Wniosek dotyczący rozporządzenia Artykuł 16 - akapit 1 - litera e b (nowa)

Tekst proponowany przez Komisję

Poprawka

eb) umieszcza oznakowanie CE w systemie sztucznej inteligencji wysokiego ryzyka na potwierdzenie zgodności z niniejszym rozporządzeniem zgodnie z art. 49;

Poprawka 341

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera g

Tekst proponowany przez Komisję

Poprawka

g) podejmują niezbędne działania naprawcze, jeżeli system sztucznej inteligencji wysokiego ryzyka nie spełnia wymogów ustanowionych w rozdziale 2 niniejszego tytułu;

g) podejmują niezbędne działania naprawcze, o których mowa w art. 21, oraz przekazują informacje w tym zakresie;;

Poprawka 342

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera h

Tekst proponowany przez Komisję

Poprawka

h) informują właściwe organy krajowe państw członkowskich, w których udostępnili lub oddali do użytku system sztucznej inteligencji, oraz, w stosownych przypadkach, jednostkę notyfikowaną o niezgodności z wymogami i o wszelkich podjętych działaniach naprawczych;

skreśla się

Poprawka 343

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera i

Tekst proponowany przez Komisję

Poprawka

i) umieszczają oznakowanie CE w swoich systemach sztucznej inteligencji wysokiego ryzyka na potwierdzenie zgodności z niniejszym rozporządzeniem zgodnie z art. 49;

skreśla się

Poprawka 344

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera j

Tekst proponowany przez Komisję

Poprawka

j) wykazują, na żądanie właściwego organu krajowego, zgodność systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu.

j) wykazują, na uzasadniony wniosek krajowego organu nadzorczego, zgodność systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu.

Poprawka 345

Wniosek dotyczący rozporządzenia

Artykuł 16 - akapit 1 - litera j a (nowa)

Tekst proponowany przez Komisję

Poprawka

ja) gwarantują, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi dotyczące dostępności.

Poprawka 346

Wniosek dotyczący rozporządzenia

Artykuł 17 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka wprowadzają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. System ten dokumentuje się w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur i instrukcji oraz obejmuje on co najmniej następujące aspekty:

1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka posiadają system zarządzania jakością, który zapewnia zgodność z niniejszym rozporządzeniem. Dokumentuje się go w systematyczny i uporządkowany sposób w formie pisemnych polityk, procedur lub instrukcji i może on zostać włączony do istniejącego systemu zarządzania jakością na mocy sektorowego unijnego aktu prawnego. Obejmuje on co najmniej następujące aspekty:

Poprawka 347

Wniosek dotyczący rozporządzenia

Artykuł 17 - ustęp 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) strategię zgodności regulacyjnej, w tym zgodności z procedurami oceny zgodności i procedurami zarządzania zmianami w systemie sztucznej inteligencji wysokiego ryzyka;

skreśla się

Poprawka 348

Wniosek dotyczący rozporządzenia

Artykuł 17 - ustęp 1 - litera e

Tekst proponowany przez Komisję

Poprawka

e) specyfikacje techniczne, w tym normy, jakie należy stosować, a w przypadku gdy nie stosuje się w pełni odpowiednich norm zharmonizowanych, środki, jakie należy zastosować w celu zapewnienia zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami określonymi w rozdziale 2 niniejszego tytułu;

e) specyfikacje techniczne, w tym normy, jakie należy stosować, a w przypadku gdy nie stosuje się w pełni odpowiednich norm zharmonizowanych lub nie obejmują one wszystkich istotnych wymogów, środki, jakie należy zastosować w celu zapewnienia zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami określonymi w rozdziale 2 niniejszego tytułu;

Poprawka 349

Wniosek dotyczący rozporządzenia

Artykuł 17 - ustęp 1 - litera f

Tekst proponowany przez Komisję

Poprawka

f) systemy i procedury zarządzania danymi, w tym gromadzenia danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów sztucznej inteligencji wysokiego ryzyka i do celów wprowadzenia ich do obrotu lub oddania ich do użytku;

f) systemy i procedury zarządzania danymi, w tym pozyskiwania danych, gromadzenia danych, analizy danych, etykietowania danych, przechowywania danych, filtrowania danych, eksploracji danych, agregacji danych, zatrzymywania danych i wszelkich innych operacji dotyczących danych, które przeprowadza się przed wprowadzeniem do obrotu lub oddaniem do użytku systemów sztucznej inteligencji wysokiego ryzyka i do celów wprowadzenia ich do obrotu lub oddania ich do użytku;

Poprawka 350

Wniosek dotyczący rozporządzenia

Artykuł 17 - ustęp 1 - litera j

Tekst proponowany przez Komisję

Poprawka

j) obsługę komunikacji z właściwymi organami krajowymi, właściwymi organami, w tym sektorowymi, zapewniającymi lub wspierającymi dostęp do danych, jednostkami notyfikowanymi, innymi operatorami, klientami lub innymi zainteresowanymi stronami;

j) obsługę komunikacji z odpowiednimi właściwymi organami, w tym sektorowymi;

Poprawka 351

Wniosek dotyczący rozporządzenia

Artykuł 17 - ustęp 2

Tekst proponowany przez Komisję Poprawka

2. Wdrożenie aspektów, o których mowa w ust. 1, jest proporcjonalne do wielkości organizacji dostawcy.

2. Wdrożenie aspektów, o których mowa w ust. 1, jest proporcjonalne do wielkości organizacji dostawcy. W każdym przypadku dostawcy zapewniają poziom rygoru i ochrony wymagany do zapewnienia zgodności ich systemów sztucznej inteligencji z niniejszym rozporządzeniem.

Poprawka 352

Wniosek dotyczący rozporządzenia

Artykuł 18 - nagłówek

Tekst proponowany przez Komisję

Poprawka

Obowiązek sporządzenia dokumentacji technicznej

skreśla się

Poprawka 353

Wniosek dotyczący rozporządzenia

Artykuł 18 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka sporządzają dokumentację techniczną, o której mowa w art. 11, zgodnie z załącznikiem IV.

skreśla się

Poprawka 354

Wniosek dotyczący rozporządzenia

Artykuł 18 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Dostawcy będący instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE prowadzą dokumentację techniczną jako jeden z elementów dokumentacji dotyczącej zasad, procedur i mechanizmów zarządzania wewnętrznego zgodnie z art. 74 tej dyrektywy.

skreśla się

Poprawka 355

Wniosek dotyczący rozporządzenia

Artykuł  19

Tekst proponowany przez Komisję

Poprawka

Artykuł 19

Ocena zgodności

1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka zapewniają, aby ich systemy poddawano odpowiedniej procedurze oceny zgodności zgodnie z art. 43 przed wprowadzeniem tych systemów do obrotu lub oddaniem ich do użytku. Jeżeli w wyniku wspomnianej oceny zgodności wykazano zgodność systemów sztucznej inteligencji z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, dostawcy sporządzają deklarację zgodności UE zgodnie z art. 48 i umieszczają oznakowanie zgodności CE zgodnie z art. 49.

2. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b), wprowadzanych do obrotu lub oddawanych do użytku przez dostawców będących instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE, ocenę zgodności przeprowadza się w toku procedury, o której mowa w art. 97-101 tej dyrektywy.

skreśla się

Poprawka 356

Wniosek dotyczący rozporządzenia

Artykuł 20 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka przechowują rejestry zdarzeń generowane automatycznie przez ich systemy sztucznej inteligencji wysokiego ryzyka, o ile tego rodzaju rejestry znajdują się pod ich kontrolą na podstawie ustaleń umownych z użytkownikiem lub z mocy prawa. Rejestry zdarzeń przechowuje się przez okres odpowiedni w świetle przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka i mających zastosowanie zobowiązań prawnych przewidzianych w prawie Unii lub prawie krajowym.

1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka przechowują rejestry zdarzeń generowane automatycznie przez ich systemy sztucznej inteligencji wysokiego ryzyka, o ile tego rodzaju rejestry znajdują się pod ich kontrolą. Bez uszczerbku dla mającego zastosowanie prawa Unii lub prawa krajowego rejestry zdarzeń przechowuje się przez okres co najmniej 6 miesięcy. Okres przechowywania danych musi być zgodny z normami branżowymi i adekwatny do przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka.

Poprawka 357

Wniosek dotyczący rozporządzenia

Artykuł 21 - akapit 1

Tekst proponowany przez Komisję

Dostawcy systemów sztucznej inteligencji wysokiego ryzyka, którzy uznają lub mają powody, by uznać, że system sztucznej inteligencji wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, niezwłocznie podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku lub wycofania go od użytkowników. Informują oni o tym dystrybutorów danego systemu sztucznej inteligencji wysokiego ryzyka oraz, w stosownych przypadkach, upoważnionego przedstawiciela i importerów.

Poprawka

Dostawcy systemów sztucznej inteligencji wysokiego ryzyka, którzy uznają lub mają powody, by uznać, że system sztucznej inteligencji wysokiego ryzyka, który wprowadzili do obrotu lub oddali do użytku, nie jest zgodny z niniejszym rozporządzeniem, niezwłocznie podejmują niezbędne działania naprawcze w celu, stosownie do przypadku, zapewnienia zgodności tego systemu, wycofania go z rynku, dezaktywowania go lub wycofania go od użytkowników.

W przypadku sytuacji, o których mowa w akapicie pierwszym, dostawcy niezwłocznie informują o nich:

a) dystrybutorów;

b) importerów;

c) właściwe organy krajowe państw członkowskich, w których udostępniono lub oddano do użytku system sztucznej inteligencji oraz

d) jeżeli to możliwe, operatora sztucznej inteligencji.

Poprawka 358

Wniosek dotyczący rozporządzenia

Artykuł 21 - akapit 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

Dostawcy informują również upoważnionego przedstawiciela, jeżeli został on wyznaczony zgodnie z art. 25, oraz jednostkę notyfikowaną, jeżeli system sztucznej inteligencji wysokiego ryzyka zgodnie z art. 43 musiał zostać poddany ocenie zgodności przeprowadzanej przez osobę trzecią. W stosownych przypadkach we współpracy z operatorem sztucznej inteligencji badają również przyczyny sytuacji.

Poprawka 359

Wniosek dotyczący rozporządzenia

Artykuł 22 - akapit 1

Tekst proponowany przez Komisję

Poprawka

Jeżeli system sztucznej inteligencji wysokiego ryzyka stwarza ryzyko w rozumieniu art. 65 ust. 1 i ryzyko to jest znane dostawcy danego systemu, dostawca ten niezwłocznie informuje właściwe organy krajowe państw członkowskich, w których udostępnił dany system, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która wydała certyfikat dla danego systemu sztucznej inteligencji wysokiego ryzyka, w szczególności o niezgodności oraz o wszelkich podjętych działaniach naprawczych.

Jeżeli system sztucznej inteligencji wysokiego ryzyka stwarza ryzyko w rozumieniu art. 65 ust. 1 i dostawca danego systemu stwierdzi to ryzyko, dostawca ten niezwłocznie informuje krajowe organy nadzorcze państw członkowskich, w których udostępnił dany system, oraz, w stosownych przypadkach, jednostkę notyfikowaną, która wydała certyfikat dla danego systemu sztucznej inteligencji wysokiego ryzyka, w szczególności o charakterze niezgodności oraz o wszelkich odpowiednich działaniach naprawczych, które podjęto.

Poprawka 360

Wniosek dotyczący rozporządzenia

Artykuł 22 - akapit 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

W przypadku sytuacji, o których mowa w akapicie pierwszym, dostawcy systemu sztucznej inteligencji wysokiego ryzyka niezwłocznie informują o nich:

a) dystrybutorów;

b) importerów;

c) właściwe organy krajowe państw członkowskich, w których udostępniono lub oddano do użytku system sztucznej inteligencji oraz

d) jeżeli to możliwe, operatorów sztucznej inteligencji.

Poprawka 361

Wniosek dotyczący rozporządzenia Artykuł 22 - akapit 1 b (nowy)

Tekst proponowany przez Komisję

Poprawka

Dostawcy powiadamiają również upoważnionego przedstawiciela, jeżeli został on wyznaczony zgodnie z art. 25.

Poprawka 362

Wniosek dotyczący rozporządzenia Artykuł 23 - nagłówek

Tekst proponowany przez Komisję

Poprawka

Współpraca z właściwymi organami

Współpraca z właściwymi organami, Urzędem i Komisją

Poprawka 363

Wniosek dotyczący rozporządzenia

Artykuł 23 - akapit 1

Tekst proponowany przez Komisję

Poprawka

Dostawcy systemów sztucznej inteligencji wysokiego ryzyka, na żądanie właściwego organu krajowego, przekazują temu organowi wszelkie informacje i dokumenty niezbędne do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, w języku urzędowym Unii wskazanym przez dane państwo członkowskie. Na uzasadniony wniosek właściwego organu krajowego dostawcy zapewniają również temu organowi dostęp do rejestrów zdarzeń generowanych automatycznie przez system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod ich kontrolą na podstawie ustaleń umownych z użytkownikiem lub z mocy prawa.

Dostawcy i, w stosownych przypadkach, operatorzy systemów sztucznej inteligencji wysokiego ryzyka na uzasadnione żądanie właściwego organu krajowego lub, w stosownych przypadkach, Urzędu ds. Sztucznej Inteligencji lub Komisji przekazują im wszelkie informacje i dokumenty niezbędne do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, w języku urzędowym Unii wskazanym przez dane państwo członkowskie.

Poprawka 364

Wniosek dotyczący rozporządzenia

Artykuł 23 - akapit 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

Na uzasadniony wniosek właściwego organu krajowego lub, w stosownych przypadkach, Komisji, dostawcy i, w stosownych przypadkach, operatorzy sztucznej inteligencji zapewniają również temu organowi krajowemu lub, w zależności od przypadku, Komisji dostęp do rejestrów zdarzeń generowanych automatycznie przez system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod ich kontrolą.

Poprawka 365

Wniosek dotyczący rozporządzenia

Artykuł 23 - akapit 1 b (nowy)

Tekst proponowany przez Komisję

Poprawka

Wszelkie informacje uzyskane przez właściwy organ krajowych lub Komisję na podstawie przepisów niniejszego artykułu uznaje się za tajemnicę przedsiębiorstwa zgodnie z obowiązkami dotyczącymi poufności określonymi w art. 70.

Poprawka 366

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 1

Tekst proponowany przez Komisję

Poprawka

1. W przypadku braku możliwości zidentyfikowania importera dostawcy mający siedzibę poza terytorium Unii są zobowiązani wyznaczyć - na podstawie pisemnego pełnomocnictwa - upoważnionego przedstawiciela mającego siedzibę w Unii przed wprowadzeniem swoich systemów na rynek Unii.

1. Dostawcy mający siedzibę poza terytorium Unii są zobowiązani wyznaczyć - na podstawie pisemnego pełnomocnictwa - upoważnionego przedstawiciela mającego siedzibę w Unii przed wprowadzeniem swoich systemów na rynek Unii.

Poprawka 367

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję

Poprawka

1a. Miejsce pobytu lub siedziba upoważnionego przedstawiciela musi znajdować się w jednym z państw członkowskich, w których prowadzona jest działalność określona w art. 2 ust. 1 lit. cb).

Poprawka 368

Wniosek dotyczący rozporządzenia Artykuł 25 - ustęp 1 b (nowy)

Tekst proponowany przez Komisję

Poprawka

1b. Dostawca zapewnia przekazuje uprawnionemu przedstawicielowi uprawnienia i zasoby niezbędne do wykonywania obowiązków wynikających z niniejszego rozporządzenia.

Poprawka 369

Wniosek dotyczący rozporządzenia Artykuł 25 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

2. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:

2. Upoważniony przedstawiciel wykonuje zadania powierzone mu na mocy pełnomocnictwa udzielonego przez dostawcę. Na żądanie przekazuje on organom nadzoru rynku kopię pełnomocnictwa w jednym z oficjalnych języków instytucji Unii określonym przez właściwy organ krajowy. Do celów niniejszego rozporządzenia pełnomocnictwo uprawnia upoważnionego przedstawiciela do wykonywania następujących zadań:

Poprawka 370

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 2 - litera a

Tekst proponowany przez Komisję

Poprawka

a) przechowywania kopii deklaracji zgodności UE i dokumentacji technicznej w celu ich udostępnienia właściwym organom krajowym i organom krajowym, o których mowa w art. 63 ust. 7;

a) dopilnowanie, czy zostały sporządzone deklaracja zgodności UE i dokumentacja techniczna oraz czy dostawca przeprowadził odpowiednią procedurę oceny zgodności;

Poprawka 371

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 2 - litera a a (nowa)

Tekst proponowany przez Komisję

Poprawka

aa) przechowywanie do dyspozycji właściwych organów krajowych i organów krajowych, o których mowa w art. 63 ust. 7, kopii deklaracji zgodności UE, dokumentacji technicznej oraz, w stosownych przypadkach, certyfikatu wydanego przez jednostkę notyfikowaną;

Poprawka 372

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 2 - litera b

Tekst proponowany przez Komisję

Poprawka

b) przekazywania właściwemu organowi krajowemu na jego uzasadniony wniosek wszelkich informacji i dokumentów niezbędnych do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, w tym zapewnienie temu organowi dostępu do rejestrów zdarzeń generowanych automatycznie przez system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy na podstawie ustaleń umownych z użytkownikiem lub z mocy prawa;

b) przekazywania właściwemu organowi krajowemu na jego uzasadniony wniosek wszelkich informacji i dokumentów niezbędnych do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, w tym zapewnienie temu organowi dostępu do rejestrów zdarzeń generowanych automatycznie przez system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy;

Poprawka 373

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 2 - litera c

Tekst proponowany przez Komisję

Poprawka

c) współpraca z właściwymi organami krajowymi na ich uzasadniony wniosek przy wszelkich działaniach podejmowanych przez te organy w odniesieniu do systemu sztucznej inteligencji wysokiego ryzyka.

c) współpraca z krajowymi organami nadzorczymi na ich uzasadniony wniosek w zakresie wszelkich działań, które organ ten podejmuje, aby zmniejszyć i złagodzić ryzyko, jakie stwarza system sztucznej inteligencji wysokiego ryzyka;

Poprawka 374

Wniosek dotyczący rozporządzenia Artykuł 25 - ustęp 2 - litera c a (nowa)

Tekst proponowany przez Komisję

Poprawka

ca) w stosownych przypadkach wypełnianie obowiązków rejestracyjnych, o których mowa w art. 51, lub, jeżeli rejestracji dokonuje sam dostawca, dopilnowanie, by informacje, o których mowa w załączniku VIII pkt 3, były prawidłowe.

Poprawka 375

Wniosek dotyczący rozporządzenia

Artykuł 25 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję

Poprawka

2a. Upoważniony przedstawiciel posiada pełnomocnictwo do tego, aby w szczególności krajowy organ nadzorczy lub właściwe organy krajowe mogły się zwracać się do niego, obok albo zamiast do dostawcy, we wszystkich kwestiach dotyczących zapewnienia zgodności z niniejszym rozporządzeniem.

Poprawka 376

Wniosek dotyczący rozporządzenia Artykuł 25 - ustęp 2 b (nowy)

Tekst proponowany przez Komisję

Poprawka

2b. Upoważniony przedstawiciel wypowiada pełnomocnictwo, jeżeli uważa lub ma powód, aby uważać, że dostawca działa w sposób sprzeczny z jego obowiązkami wynikającymi z niniejszego rozporządzenia. W takim przypadku o wypowiedzeniu pełnomocnictwa i jego przyczynach informuje on niezwłocznie również krajowy organ nadzorczy państwa członkowskiego, w którym ma siedzibę, a w stosownych przypadkach także odpowiednią jednostkę notyfikowaną.

Poprawka 377

Wniosek dotyczący rozporządzenia Artykuł 26 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

1. Przed wprowadzeniem systemu sztucznej inteligencji wysokiego ryzyka do obrotu importerzy takiego systemu zapewniają, aby:

1. Przed wprowadzeniem systemu sztucznej inteligencji wysokiego ryzyka do obrotu importerzy takiego systemu zapewniają zgodność tego systemu z niniejszym rozporządzeniem poprzez zadbanie, aby:

Poprawka 378

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) dostawca tego systemu sztucznej inteligencji przeprowadził odpowiednią procedurę oceny zgodności;

a) dostawca tego systemu sztucznej inteligencji właściwą procedurę oceny zgodności, o której mowa w art. 43;

Poprawka 379

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 1 - litera b

Tekst proponowany przez Komisję

Poprawka

b) dostawca sporządził dokumentację techniczną zgodnie z załącznikiem IV;

b) dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV;

Poprawka 380

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 1 - litera c a (nowa)

Tekst proponowany przez Komisję

Poprawka

ca) w stosownych przypadkach usługodawca wyznaczył upoważnionego przedstawiciela zgodnie z art. 25 ust. 1.

Poprawka 381

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Jeżeli importer uważa lub ma powód, aby uważać, że system sztucznej inteligencji wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem, nie wprowadza tego systemu do obrotu, dopóki nie zapewniona zostanie zgodność tego systemu z przepisami niniejszego rozporządzenia. Jeżeli system sztucznej inteligencji wysokiego ryzyka stwarza ryzyko w rozumieniu art. 65 ust. 1, importer informuje o tym dostawcę systemu sztucznej inteligencji i organy nadzoru rynku.

2. Jeżeli importer uważa lub ma powód, aby uważać, że system sztucznej inteligencji wysokiego ryzyka jest niezgodny z niniejszym rozporządzeniem lub został podrobiony, lub załączono do niego sfałszowaną dokumentację, nie wprowadza tego systemu do obrotu, dopóki nie zapewniona zostanie zgodność tego systemu z przepisami niniejszego rozporządzenia. Jeżeli system sztucznej inteligencji wysokiego ryzyka stwarza ryzyko w rozumieniu art. 65 ust. 1, importer informuje o tym dostawcę systemu sztucznej inteligencji i organy nadzoru rynku.

Poprawka 382

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 3

Tekst proponowany przez Komisję

Poprawka

3. Importerzy podają swoje imię i nazwisko, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować, w systemie sztucznej inteligencji wysokiego ryzyka lub - jeżeli nie jest to możliwe - na jego opakowaniu lub, w stosownych przypadkach, w towarzyszącej mu dokumentacji.

3. Importerzy podają swoje imię i nazwisko, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować, w systemie sztucznej inteligencji wysokiego ryzyka i na jego opakowaniu lub, w stosownych przypadkach, w towarzyszącej mu dokumentacji.

Poprawka 383

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 5

Tekst proponowany przez Komisję

Poprawka

5. Importerzy przekazują właściwym organom krajowym na ich uzasadniony wniosek wszelkie informacje i dokumenty niezbędne do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu w języku łatwo zrozumiałym dla danego właściwego organu krajowego, w tym zapewniają temu organowi dostęp do rejestrów zdarzeń generowanych automatycznie przez system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy na podstawie ustaleń umownych z użytkownikiem lub z mocy prawa. Importerzy współpracują również z tymi organami przy wszelkich działaniach podejmowanych przez właściwy organ krajowy w odniesieniu do tego systemu.

5. Importerzy przekazują właściwym organom krajowym na ich uzasadniony wniosek wszelkie informacje i dokumenty niezbędne do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu w języku łatwo dla nich zrozumiałym, w tym zapewniają temu organowi dostęp do rejestrów zdarzeń generowanych automatycznie przez system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod kontrolą dostawcy zgodnie z art. 20.

Poprawka 384

Wniosek dotyczący rozporządzenia

Artykuł 26 - ustęp 5 a (nowy)

Tekst proponowany przez Komisję

Poprawka

5a. Importerzy współpracują z krajowymi organami nadzorczymi w zakresie wszelkich działań, które organy te podejmują, aby ograniczyć i złagodzić ryzyko, jakie stwarza system sztucznej inteligencji wysokiego ryzyka;

Poprawka 385

Wniosek dotyczący rozporządzenia

Artykuł 27 - ustęp 1

Tekst proponowany przez Komisję Poprawka

1. Przed wprowadzeniem systemu sztucznej inteligencji wysokiego ryzyka do obrotu dystrybutorzy upewniają się, że system sztucznej inteligencji wysokiego ryzyka został opatrzony wymaganym oznakowaniem zgodności CE, że załączono do niego wymaganą dokumentację i instrukcję obsługi i że dostawca oraz - w stosownych przypadkach - importer systemu wywiązał się z obowiązków określonych w niniejszym rozporządzeniu.

1. Przed wprowadzeniem systemu sztucznej inteligencji wysokiego ryzyka do obrotu dystrybutorzy upewniają się, że system sztucznej inteligencji wysokiego ryzyka został opatrzony wymaganym oznakowaniem zgodności CE, że załączono do niego wymaganą dokumentację i instrukcję obsługi i że dostawca oraz - w stosownych przypadkach - importer systemu wywiązał się ze swoich obowiązków określonych odpowiednio w art. 16 i art. 26 niniejszego rozporządzenia.

Poprawka 386

Wniosek dotyczący rozporządzenia

Artykuł 27 - ustęp 2

Tekst proponowany przez Komisję

Poprawka

2. Jeżeli dystrybutor uważa lub ma powód, aby uważać, że system sztucznej inteligencji wysokiego ryzyka jest niezgodny z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, nie wprowadza systemu sztucznej inteligencji wysokiego ryzyka do obrotu, dopóki nie zapewni jego zgodności z tymi wymogami. Ponadto jeżeli system stwarza ryzyko w rozumieniu art. 65 ust. 1, dystrybutor informuje o tym dostawcę lub, w stosownych przypadkach, importera systemu.

2. Jeżeli dystrybutor na podstawie posiadanych informacji uważa lub ma powód, aby uważać, że system sztucznej inteligencji wysokiego ryzyka jest niezgodny z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, nie wprowadza systemu sztucznej inteligencji wysokiego ryzyka do obrotu, dopóki nie zapewni jego zgodności z tymi wymogami. Ponadto jeżeli system stwarza ryzyko w rozumieniu art. 65 ust. 1, dystrybutor informuje o tym dostawcę lub, w stosownych przypadkach, importera systemu, właściwy organ krajowy.

Poprawka 387

Wniosek dotyczący rozporządzenia

Artykuł 27 - ustęp 4

Tekst proponowany przez Komisję

Poprawka

4. Dystrybutor, który uważa lub ma powód, aby uważać, że system sztucznej inteligencji wysokiego ryzyka wprowadzony przez niego do obrotu jest niezgodny z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu ze stosownymi wymogami lub do wycofania go z rynku lub wycofania go od użytkowników lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub dowolnego właściwego operatora. Jeżeli system sztucznej inteligencji wysokiego ryzyka stwarza ryzyko w rozumieniu art. 65 ust. 1, dystrybutor niezwłocznie informuje o tym fakcie właściwe organy krajowe państwa członkowskiego, w którym udostępnił produkt, przekazując szczegółowe informacje w szczególności na temat przyczyn niezgodności systemu z wymogami i na temat wszelkich podjętych działań naprawczych.

4. Dystrybutor, który uważa lub na podstawie posiadanych informacji ma powód, aby uważać, że system sztucznej inteligencji wysokiego ryzyka wprowadzony przez niego do obrotu jest niezgodny z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu, podejmuje działania naprawcze konieczne do zapewnienia zgodności tego systemu ze stosownymi wymogami lub do wycofania go z rynku lub wycofania go od użytkowników lub zapewnia podjęcie takich działań naprawczych przez, stosownie do przypadku, dostawcę, importera lub dowolnego właściwego operatora. Jeżeli system sztucznej inteligencji wysokiego ryzyka stwarza ryzyko w rozumieniu art. 65 ust. 1, dystrybutor niezwłocznie informuje o tym fakcie dostawcę lub importera systemu oraz właściwe organy krajowe państwa członkowskiego, w którym udostępnił produkt, przekazując szczegółowe informacje w szczególności na temat przyczyn niezgodności systemu z wymogami i na temat wszelkich podjętych działań naprawczych.

Poprawka 388

Wniosek dotyczący rozporządzenia

Artykuł 27 - ustęp 5

Tekst proponowany przez Komisję

Poprawka

5. Na uzasadniony wniosek właściwego organu krajowego dystrybutorzy systemów sztucznej inteligencji wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumenty niezbędne do wykazania zgodności systemu wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu. Dystrybutorzy współpracują również z właściwym organem krajowym przy wszelkich działaniach podejmowanych przez ten organ.

5. Na uzasadniony wniosek właściwego organu krajowego dystrybutorzy systemu sztucznej inteligencji wysokiego ryzyka przekazują temu organowi wszelkie informacje i dokumenty posiadane przez nich lub dostępne dla nich, zgodnie z obowiązkami dystrybutorów określonymi w ust. 1, które to informacje i dokumenty są niezbędne do wykazania zgodności systemu wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu.

Poprawka 389

Wniosek dotyczący rozporządzenia

Artykuł 27 - ustęp 5 a (nowy)

Tekst proponowany przez Komisję

Poprawka

5a. Dystrybutorzy współpracują z właściwymi organami krajowymi w zakresie wszelkich działań, które organy te podejmują, aby ograniczyć i złagodzić ryzyko, jakie stwarza system sztucznej inteligencji wysokiego ryzyka.

Poprawka 390

Wniosek dotyczący rozporządzenia Artykuł 28 - nagłówek

Tekst proponowany przez Komisję

Poprawka

Obowiązki dystrybutorów, importerów, użytkowników lub innych osób trzecich

Obowiązki dostawców, dystrybutorów, importerów, operatorów sztucznej inteligencji lub innych osób trzecich w łańcuchu wartości sztucznej inteligencji

Poprawka 391

Wniosek dotyczący rozporządzenia Artykuł 28 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję

Poprawka

1. Dystrybutora, importera, użytkownika lub inną osobę trzecią uznaje się za dostawcę do celów niniejszego rozporządzenia i nakłada się na nich obowiązki równoważne obowiązkom dostawcy określonym w art. 16 w dowolnym z poniższych przypadków:

1. Dystrybutora, importera, operatora sztucznej inteligenc lub inną osobę trzecią uznaje się za dostawcę systemu sztuczn inteligencji wysokiego ryzyka do celów niniejszego rozporzą dzenia i nakłada się na nich obowiązki równoważne obowiąz kom dostawcy określonym w art. 16 w dowolnym z poniższyc przypadków:

Poprawka 392

Wniosek dotyczący rozporządzenia

Artykuł 28 - ustęp 1 - litera a

Tekst proponowany przez Komisję

Poprawka

a) jeżeli wprowadzają do obrotu lub oddają do użytku system sztucznej inteligencji wysokiego ryzyka opatrzony ich nazwą handlową lub znakiem towarowym;

a) jeżeli opatrują system wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, swoją nazwą handlową lub znakiem towarowym;

Poprawka 393

Wniosek dotyczący rozporządzenia

Artykuł 28 - ustęp 1 - litera b

Tekst proponowany przez Komisję

Poprawka

b) jeżeli zmieniają przeznaczenie systemu sztucznej inteligencji wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku;

b) jeżeli dokonują istotnych zmian w systemie sztucznej inteligencji wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że pozostaje on systemem sztucznej inteligencji wysokiego ryzyka w rozumieniu art. 6;

Poprawka 394

Wniosek dotyczący rozporządzenia

Artykuł 28 - ustęp 1 - litera b a (nowa)

Tekst proponowany przez Komisję

Poprawka

ba) jeżeli dokonują istotnych zmian w systemie sztucznej inteligencji, w tym systemie sztucznej inteligencji ogólnego przeznaczenia, który nie został sklasyfikowany jako system inteligencji wysokiego ryzyka i który wprowadzono już do obrotu lub oddano do użytku, w taki sposób, że system sztucznej inteligencji staje się systemem sztucznej inteligencji wysokiego ryzyka zgodnie z art. 6;

Poprawka 395

Wniosek dotyczący rozporządzenia

Artykuł 28 - ustęp 2

Tekst proponowany przez Komisję Poprawka

2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1 lit. b) lub c), dostawcy, który pierwotnie wprowadził system sztucznej inteligencji wysokiego ryzyka do obrotu lub który oddał ten system do użytku, nie uznaje się już za dostawcę do celów niniejszego rozporządzenia.

2. W przypadku zaistnienia okoliczności, o których mowa w ust. 1 lit. a)-ba), dostawcy, który pierwotnie wprowadził system sztucznej inteligencji do obrotu lub który oddał ten system do użytku, nie uznaje się już za dostawcę tego konkretnego systemu sztucznej inteligencji do celów niniejszego rozporządzenia. Ów poprzedni dostawca zapewnia nowemu dostawcy dokumentację techniczną oraz wszelkie inne istotne i racjonalnie oczekiwane zdolności informacyjne systemu sztucznej inteligencji, dostęp techniczny lub innego rodzaju pomoc opartą na powszechnie uznanym aktualnym stanie wiedzy, niezbędne do wypełnienia obowiązków określonych w niniejszym rozporządzeniu.

Niniejszy ustęp ma również zastosowanie do dostawców modeli generatywnych zdefiniowanych w art. 3, jeżeli model genera- tywny jest bezpośrednio zintegrowany z systemem sztucznej inteligencji wysokiego ryzyka.

Poprawka 396

Wniosek dotyczący rozporządzenia

Artykuł 28 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję

Poprawka

2a. Dostawca systemu sztucznej inteligencji wysokiego ryzyka i osoba trzecia dostarczająca narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie sztucznej inteligencji wysokiego ryzyka lub z nim zintegrowane, określają w drodze pisemnej umowy, jakie informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym aktualnym stanie wiedzy ma obowiązek zapewnić osoba trzecia, aby umożliwić dostawcy systemu sztucznej inteligencji wysokiego ryzyka pełne wypełnienie obowiązków wynikających z niniejszego rozporządzenia.

Komisja opracowuje i zaleca niewiążące modelowe postanowienia umowne między dostawcami systemów sztucznej inteligencji wysokiego ryzyka a osobami trzecimi dostarczającymi narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie sztucznej inteligencji wysokiego ryzyka lub z nim zintegrowane, aby pomóc obu stronom w sporządzaniu i negocjowaniu umów przewidujących zrównoważone prawa i obowiązki zgodne z poziomem kontroli każdej ze stron. Przy opracowywaniu niewiążących modelowych postanowień umownych, Komisja bierze pod uwagę wymogi umowne, które mogą mieć zastosowanie w określonych sektorach lub przypadkach biznesowych. Niewiążące modelowe postanowienia umowne są publikowane i udostępniane bezpłatnie w łatwym w użyciu formacie elektronicznym na stronie internetowej Urzędu ds. Sztucznej Inteligencji.

Poprawka 397

Wniosek dotyczący rozporządzenia Artykuł 28 - ustęp 2 b (nowy)

Tekst proponowany przez Komisję

Poprawka

2b. Do celów niniejszego artykułu tajemnice przedsiębiorstwa są chronione i mogą być ujawniane wyłącznie pod warunkiem uprzedniego zastosowania zgodnie z dyrektywą (UE) 2016/943 wszelkich szczególnych środków niezbędnych do zachowania ich poufności, w szczególności w odniesieniu do osób trzecich. W razie potrzeby można dokonać odpowiednich uzgodnień technicznych i organizacyjnych w celu ochrony praw własności intelektualnej lub tajemnic przedsiębiorstwa.

PL

Dz.U. C z 23.1.2024

Poprawka 398

Wniosek dotyczący rozporządzenia

Artykuł 28 a (nowy)

Tekst proponowany przez Komisję

Poprawka

Artykuł 28 a

Nieuczciwe postanowienia umowne jednostronnie nałożone na MŚP lub przedsiębiorstwo typu startup

1. 
Postanowienia umowne jednostronnie nałożone przez przedsiębiorstwo na MŚP lub przedsiębiorstwo typu startup, które dotyczą dostarczania narzędzi, usług, komponentów lub procesów wykorzystywanych w systemie sztucznej inteligencji wysokiego ryzyka lub z nim zintegrowanych lub środków ochrony prawnej w zakresie naruszenia lub wygaśnięcia powiązanych obowiązków, nie są wiążące, jeżeli są nieuczciwe.
2. 
Postanowienia umownego nie uznaje się za nieuczciwe, jeżeli wynika ono z mającego zastosowanie prawa Unii.
3. 
Postanowienie umowne jest nieuczciwe, jeżeli obiektywnie ogranicza zdolność strony, na którą je jednostronnie nałożono, do ochrony jej uzasadnionego interesu handlowego w odniesieniu do przedmiotowych informacji lub jeżeli jest wykorzystywane w sposób rażąco odbiegający od dobrej praktyki handlowej w zakresie dostarczania narzędzi, usług, komponentów lub procesów, które są wykorzystywane w systemie sztucznej inteligencji wysokiego ryzyka lub z nim zintegrowane, w sposób sprzeczny z zasadą dobrej wiary i uczciwego obrotu, lub też powoduje znaczny brak równowagi między prawami i obowiązkami stron umowy. Postanowienie umowne jest również nieuczciwe, jeżeli skutkuje przeniesieniem kar, o których mowa w art. 71, lub powiązanych kosztów postępowania sądowego między stronami umowy, o czym mowa w art. 71 ust. 8.
4. 
Postanowienie umowne jest nieuczciwe do celów niniejszego artykułu, jeżeli jego celem lub skutkiem jest:
a)
wyłączenie lub ograniczenie odpowiedzialności strony, która jednostronnie nałożyła to postanowienie, za czyny umyślne lub rażące niedbalstwo;
b)
wyłączenie środków ochrony prawnej dostępnych stronie, na którą jednostronnie nałożono to postanowienie umowne, w przypadku niewykonania zobowiązań umownych lub wyłączenie odpowiedzialności strony, która jednostronnie nałożyła to postanowienie umowne, w przypadku naruszenia tych zobowiązań;
c)
przyznanie stronie, która jednostronnie nałożyła to postanowienie umowne, wyłącznego prawa ustalania, czy dostarczona dokumentacja techniczna i informacje są zgodne z umową, lub wyłącznego prawa do interpretowania postanowień umowy.

170/291

ELI: http://data.europa.eu/eli/C/2024/506/oj

Dz.U. C z 23.1.2024

PL

Tekst proponowany przez Komisję

Poprawka

5. 
Postanowienie umowne uważa się za nałożone jednostronnie w rozumieniu niniejszego artykułu, jeżeli zaproponowała je jedna umawiająca się strona, a druga umawiająca się strona nie była w stanie wpłynąć na jego treść pomimo prób jej negocjacji. Ciężar udowodnienia, że postanowienie umowne nie zostało nałożone jednostronnie, spoczywa na umawiającej się stronie, która zaproponowała to postanowienie.
6. 
W przypadku gdy nieuczciwe postanowienie umowne można oddzielić od pozostałych postanowień umowy, te pozostałe postanowienia pozostają wiążące. Strona, która zaproponowała sporne postanowienie, nie może twierdzić, że to postanowienie jest nieuczciwe.
7. 
Niniejszy artykuł stosuje się do wszystkich nowych umów, które weszły w życie po... [data wejścia w życie niniejszego rozporządzenia]. Przedsiębiorstwa dokonują przeglądu istniejących zobowiązań umownych, które podlegają niniejszemu rozporządzeniu, do dnia. [trzy lata od daty wejścia w życie niniejszego rozporządzenia].
8. 
Z uwagi na szybkie tempo pojawiania się innowacji na rynkach Komisja będzie poddawać regularnemu przeglądowi wykaz nieuczciwych postanowień umownych, o których mowa w art. 28a, i w razie potrzeby dostosowywać go do nowych praktyk biznesowych.

Poprawka 399

Wniosek dotyczący rozporządzenia

Artykuł 28 b (nowy)

Tekst proponowany przez Komisję

Poprawka

Artykuł 28 b

Obowiązki dostawcy modelu generatywnego

1. 
Przed wprowadzeniem modelu generatywnego do obrotu lub oddaniem go do użytku dostawca modelu generatywnego zapewnia, aby był on zgodny z wymogami określonymi w niniejszym artykule, niezależnie od tego, czy jest on dostarczany jako samodzielny model lub jest wbudowany w system sztucznej inteligencji lub w produkt, czy też jest dostarczany na podstawie bezpłatnych i otwartych licencji jako usługa lub za pośrednictwem innych kanałów dystrybucji.
2. 
Do celów ust. 1 niniejszego artykułu dostawca modelu generatywnego:
a)
wykazuje - poprzez odpowiednie projektowanie, testowanie i analizę - że przed opracowaniem i przez cały okres opracowywania modelu identyfikowano, ograniczano i łagodzono racjonalnie przewidywalne zagrożenia dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności za pomocą odpowiednich metod, na przykład poprzez zaangażowanie niezależnych ekspertów, jak również poprzez dokumentację pozostałych rodzajów ryzyka, których nie można ograniczyć po opracowaniu modelu;

ELI: http://data.europa.eu/eli/C/2024/506/oj

171/291

PL

Dz.U. C z 23.1.2024

Tekst proponowany przez Komisję

Poprawka

b)
przetwarza i uwzględnia wyłącznie te zbiory danych, które podlegają odpowiednim środkom zarządzania danymi w zakresie modeli generatywnych, w szczególności środkom mającym na celu zbadanie adekwatności źródeł danych i możliwej tendencyjności oraz działań łagodzących w tym zakresie;
c)
projektuje i rozwija model generatywny tak, aby osiągnąć w całym jego cyklu życia odpowiednie poziomy skuteczności działania, przewidywalności, interpretowalności, korygo- walności, bezpieczeństwa i cyberbezpieczeństwa, które są oceniane za pomocą adekwatnych metod, takich jak ocena modelu z udziałem niezależnych ekspertów, udokumentowana analiza i szeroko zakrojone testy na etapach konceptualizacji, projektowania i opracowywania modelu;
d)
projektuje i rozwija model generatywny z uwzględnieniem mających zastosowanie norm w celu ograniczenia zużycia energii, zużycia zasobów i odpadów, a także zwiększenia efektywności energetycznej i ogólnej efektywności systemu, bez uszczerbku dla odpowiednich obowiązujących przepisów unijnych i krajowych. Obowiązek ten nie ma zastosowania przed publikacją norm, o których mowa w art. 40. Modele generatywne projektuje się tak, aby zawierały funkcje umożliwiające pomiar i rejestrację zużycia energii i zasobów oraz, jeżeli jest to technicznie wykonalne, innego oddziaływania na środowisko, które może być wynikiem wdrażania i użycia systemów w całym cyklu ich życia.
e)
sporządza obszerną dokumentację techniczną i zrozumiałe instrukcje użytkowania, aby umożliwić dostawcom niższego szczebla wywiązanie się z obowiązków wynikających z art. 16 i art. 28 ust. 1;
f)
ustanawia system zarządzania jakością, aby zapewnić i dokumentować zgodność z niniejszym artykułem, przy czym możliwe jest eksperymentowanie w celu spełnienia tego wymogu,
g)
rejestruje model generatywny w unijnej bazie danych, o której mowa w art. 60, zgodnie z instrukcjami przedstawionymi w załączniku VIII pkt C.

Przy spełnianiu tych wymogów uwzględnia się powszechnie uznany aktualny stan wiedzy, w tym jego odzwierciedlenie w odpowiednich normach zharmonizowanych lub wspólnych specyfikacjach, a także najnowsze metody oceny i pomiaru, odzwierciedlone w szczególności w wytycznych dotyczących analizy porównawczej i zdolnościach, o których mowa w art. 58a;

3. 
Dostawca modelu generatywnego przechowuje do dyspozycji właściwych organów krajowych dokumentację techniczną, o której mowa w ust. 2 lit. e), przez okres 10 lat od dnia wprowadzenia systemu generatywnego do obrotu lub oddania go do użytku.

172/291

ELI: http://data.europa.eu/eli/C/2024/506/oj

4. Dostawcy modeli generatywnych wykorzystywanych w systemach sztucznej inteligencji przeznaczonych specjalnie do generowania, przy różnym poziomie autonomii, treści takich jak złożony tekst, obrazy, dźwięki lub wideo ("generatywny system sztucznej inteligencji") oraz dostawcy, którzy specjalizują model generatywny w celu stworzenia generatywnego systemu sztucznej inteligencji, ponadto:

a) przestrzegają obowiązków w zakresie przejrzystości określonych w art. 52 ust. 1,

b) szkolą, a w stosownych przypadkach projektują i rozwijają model generatywny w taki sposób, aby zgodnie z powszechnie uznanym aktualnym stanem wiedzy i bez uszczerbku dla praw podstawowych, w tym wolności wypowiedzi, zapewnić odpowiednie zabezpieczenia przed generowaniem treści naruszających prawo Unii,

c) bez uszczerbku dla unijnych, krajowych lub unijnych przepisów dotyczących praw autorskich dokumentują i udostępniają publicznie wystarczająco szczegółowe podsumowanie dotyczące wykorzystania danych treningowych chronionych na mocy prawa autorskiego.

Poprawka 400

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Użytkownicy systemów sztucznej inteligencji wysokiego ryzyka użytkują takie systemy zgodnie z dołączoną do nich instrukcją obsługi, z zastrzeżeniem ust. 2 i 5. 1. Operatorzy systemów sztucznej inteligencji wysokiego ryzyka podejmują odpowiednie środki techniczne i organizacyjne, aby zapewnić, że użytkują takie systemy zgodnie z dołączoną do nich instrukcją obsługi, zgodnie z ust. 2 i 5 niniejszego artykułu.

Poprawka 401

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a. Operatorzy sztucznej inteligencji, w zakresie, w jakim sprawują kontrolę nad systemem sztucznej inteligencji wysokiego ryzyka:
(i) wdrażają nadzór ze strony człowieka zgodnie z wymogami określonymi w niniejszym rozporządzeniu
(ii) zapewniają, aby osoby fizyczne, którym powierzono nadzór ludzki nad systemami sztucznej inteligencji wysokiego ryzyka były kompetentne, odpowiednio wykwalifikowane i przeszkolone oraz posiadały zasoby niezbędne do zapewnienia skutecznego nadzoru nad systemem sztucznej inteligencji zgodnie z art. 14;

(iii) zapewniają, aby odpowiednie i odpowiednie środki w zakresie odporności i cyberbezpieczeństwa były regularnie monitorowane pod kątem skuteczności oraz aby były one regularnie dostosowywane lub aktualizowane.

Poprawka 402

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Obowiązki określone w ust. 1 pozostają bez uszczerbku dla innych obowiązków użytkownika wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej użytkownikowi swobody organizowania jego zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka. 2. Obowiązki określone w ust. 1 i 1a pozostają bez uszczerbku dla innych obowiązków operatorów sztucznej inteligencji wynikających z prawa Unii lub prawa krajowego oraz dla przysługującej operatorowi swobody organizowania jego zasobów własnych i działań w celu wdrożenia wskazanych przez dostawcę środków nadzoru ze strony człowieka.

Poprawka 403

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Nie naruszając przepisów ust. 1, w zakresie, w jakim użytkownik sprawuje kontrolę nad danymi wejściowymi, użytkownik zapewnia adekwatność danych wejściowych w odniesieniu do przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka. 3. Nie naruszając przepisów ust. 1 i 1a, w zakresie, w jakim operator sztucznej inteligencji sprawuje kontrolę nad danymi wejściowymi, zapewnia on adekwatność i wystarczającą reprezentatywność danych wejściowych w odniesieniu do przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka.

Poprawka 404

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 4 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
4. Użytkownicy monitorują działanie systemu sztucznej inteligencji wysokiego ryzyka w oparciu o instrukcję obsługi. Jeżeli użytkownicy mają powody przypuszczać, że użytkowanie systemu sztucznej inteligencji zgodnie z instrukcją obsługi może doprowadzić do powstania ryzyka w rozumieniu art. 65 ust. 1, informują o tym fakcie dostawcę lub dystrybutora i wstrzymują użytkowanie systemu. Użytkownicy zgłaszają również dostawcy lub dystrybutorowi wszelkie stwierdzone przez siebie poważne incydenty lub wszelkie przypadki nieprawidłowego działania w rozumieniu art. 62 i zaprzestają użytkowania systemu sztucznej inteligencji. Jeżeli użytkownik nie jest w stanie skontaktować się z dostawcą, stosuje się odpowiednio przepisy art. 62. 4. Operatorzy sztucznej inteligencji monitorują działanie systemu sztucznej inteligencji wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informują dostawców zgodnie z art. 61. Jeżeli mają powody przypuszczać, że użytkowanie systemu sztucznej inteligencji zgodnie z instrukcją obsługi może doprowadzić do powstania ryzyka w rozumieniu art. 65 ust. 1, bez zbędnej zwłoki informują o tym fakcie dostawcę lub dystrybutora oraz właściwe krajowe organy nadzorcze oraz wstrzymują użytkowanie systemu. Niezwłocznie zgłaszają również najpierw dostawcy, a następnie importerowi lub dystrybutorowi i właściwym krajowym organom nadzorczym wszelkie stwierdzone przez siebie poważne incydenty lub wszelkie przypadki nieprawidłowego działania w rozumieniu art. 62 i zaprzestają użytkowania systemu sztucznej inteligencji. Jeżeli operator sztucznej inteligencji nie jest w stanie skontaktować się z dostawcą, stosuje się odpowiednio przepisy art. 62.

Poprawka 405

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 4 - akapit 1

Tekst proponowany przez Komisję Poprawka
W odniesieniu do użytkowników będących instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zasad, procedur i mechanizmów zarządzania wewnętrznego ustanowionymi w art. 74 tej dyrektywy. W odniesieniu do operatorów sztucznej inteligencji będących instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE obowiązek w zakresie monitorowania, o którym mowa w akapicie pierwszym, uznaje się za spełniony w przypadku zapewnienia zgodności z przepisami dotyczącymi zasad, procedur i mechanizmów zarządzania wewnętrznego ustanowionymi w art. 74 tej dyrektywy.

Poprawka 406

Wniosek dotyczący rozporządzenia Artykuł 29 - ustęp 5 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
5. Użytkownicy systemów sztucznej inteligencji wysokiego ryzyka przechowują rejestry zdarzeń generowane automatycznie przez dany system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod ich kontrolą. Rejestry zdarzeń przechowuje się przez okres odpowiedni w świetle przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka i mających zastosowanie zobowiązań prawnych przewidzianych w prawie Unii lub prawie krajowym. 5. Operatorzy systemów sztucznej inteligencji wysokiego ryzyka przechowują rejestry zdarzeń generowane automatycznie przez dany system sztucznej inteligencji wysokiego ryzyka w zakresie, w jakim tego rodzaju rejestry zdarzeń znajdują się pod ich kontrolą i są niezbędne do zapewnienia i wykazania zgodności z niniejszym rozporządzeniem, przeprowadzania audytów ex post w związku ze wszystkimi racjonalnie przewidywalnymi awariami, incydentami lub przypadkami niewłaściwego wykorzystania systemu, lub do zapewnienia i monitorowania właściwego funkcjonowania systemu w całym jego cyklu życia. Bez uszczerbku dla mającego zastosowanie prawa Unii lub prawa krajowego rejestry zdarzeń przechowuje się przez okres co najmniej sześciu miesięcy. Okres przechowywania danych musi być zgodny z normami branżowymi i odpowiedni w świetle przeznaczenia systemu sztucznej inteligencji wysokiego ryzyka.

Poprawka 407

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 5 - akapit 1

Tekst proponowany przez Komisję Poprawka
Użytkownicy będący instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE przechowują rejestry zdarzeń jako jeden z elementów dokumentacji dotyczącej zasad, procedur i mechanizmów zarządzania wewnętrznego zgodnie z art. 74 tej dyrektywy. Operatorzy sztucznej inteligencji będący instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE przechowują rejestry zdarzeń jako jeden z elementów dokumentacji dotyczącej zasad, procedur i mechanizmów zarządzania wewnętrznego zgodnie z art. 74 tej dyrektywy.

Poprawka 408

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 5 a (nowy)

Tekst proponowany przez Komisję Poprawka
5a. Przed oddaniem do użytku lub użyciem systemu sztucznej inteligencji wysokiego ryzyka w miejscu pracy operatorzy sztucznej inteligencji przeprowadzają konsultacje z przedstawicielami pracowników w celu osiągnięcia porozumienia zgodnie z dyrektywą 2002/14/WE oraz informują pracowników, których to dotyczy, że będą objęci działaniem systemu.

Poprawka 409

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 5 b (nowy)

Tekst proponowany przez Komisję Poprawka
5b. Operatorzy systemów sztucznej inteligencji wysokiego ryzyka, którzy są organami publicznymi lub instytucjami, organami, urzędami i agencjami Unii lub przedsiębiorstwami, o których mowa w art. 51 ust. 1b lit. b), wypełniają obowiązki rejestracyjne, o których mowa w art. 51.

Poprawka 410

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Użytkownicy systemów sztucznej inteligencji wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13, aby wywiązać się ze spoczywającego na nich obowiązku przeprowadzenia oceny skutków dla ochrony danych zgodnie z, stosownie do przypadku, art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680. 6. W stosownych przypadkach operatorzy systemów sztucznej inteligencji wysokiego ryzyka korzystają z informacji przekazanych na podstawie art. 13, aby wywiązać się ze spoczywającego na nich obowiązku przeprowadzenia oceny skutków dla ochrony danych zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, której podsumowanie jest publikowane, z uwzględnieniem szczególnego zastosowania systemu sztucznej inteligencji i szczególnego kontekstu, w którym ma on działać. Operatorzy sztucznej inteligencji mogą częściowo powrócić do tych ocen skutków dla ochrony danych w celu wypełnienia niektórych obowiązków określonych w niniejszym artykule, w zakresie w jakim ocena skutków dla ochrony danych umożliwia wypełnienie tych obowiązków.

Poprawka 411

Wniosek dotyczący rozporządzenia

Artykuł 29 - ustęp 6 a (nowy)

Tekst proponowany przez Komisję Poprawka
6a. Bez uszczerbku dla art. 52 użytkownicy systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III, którzy podejmują decyzje lub pomagają w podejmowaniu decyzji dotyczących osób fizycznych, informują osoby fizyczne o tym, że wykorzystuje się w stosunku do nich system sztucznej inteligencji wysokiego ryzyka. Informacja taka obejmuje przeznaczenie systemu i typ podejmowanych przez niego decyzji. Operator sztucznej inteligencji informuje również osobę fizyczną o przysługującym jej prawie do uzyskania wyjaśnienia, o którym mowa w art. 68c.

Poprawka 412

Wniosek dotyczący rozporządzenia Artykuł 29 - ustęp 6 b (nowy)

Tekst proponowany przez Komisję Poprawka
6 b. Operatorzy sztucznej inteligencji współpracują z odpowiednimi właściwymi organami krajowymi przy wszelkich działaniach, które organy te podejmują w odniesieniu do systemu sztucznej inteligencji wysokiego ryzyka, aby wdrożyć niniejsze rozporządzenie.

Poprawka 413

Wniosek dotyczący rozporządzenia

Artykuł 29 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 29a

Ocena skutków systemów sztucznej inteligencji wysokiego ryzyka dla przestrzegania praw podstawowych

Przed oddaniem do użytku systemu sztucznej inteligencji wysokiego ryzyka określonego w art. 6 ust. 2, z wyjątkiem systemów sztucznej inteligencji przeznaczonych do użytku w obszarze 2 załącznika III, operatorzy sztucznej inteligencji przeprowadzają ocenę skutków systemu w szczególnym kontekście jego wykorzystania. Ocena ta zawiera co najmniej następujące elementy:

a) jasne informacje o przeznaczeniu systemu;

b) jasne informacje o geograficznym i czasowym zakresie wykorzystania systemu;

c) kategorie osób fizycznych i grup, na które wykorzystanie systemu może mieć wpływ;

d) weryfikację zgodności wykorzystania systemu z prawem unijnym i krajowym oraz z prawami podstawowymi;

e) dający się racjonalnie przewidzieć wpływ oddania do użytku systemu sztucznej inteligencji wysokiego ryzyka na prawa podstawowe;

f) szczególne ryzyko wystąpienia szkód, które mogą mieć wpływ na osoby zmarginalizowane lub grupy szczególnie wrażliwe;

g) dający się racjonalnie przewidzieć negatywny wpływ korzystania z systemu na środowisko;

h) szczegółowy plan określający sposób ograniczania szkód i negatywnego wpływu na prawa podstawowe.

j) system zarządzania, jaki wprowadzi operator sztucznej inteligencji, w tym nadzór ludzki, rozpatrywanie skarg i środki odwoławcze.

2. W przypadku gdy nie można opracować szczegółowego planu ograniczania ryzyka zidentyfikowanego w drodze oceny, o której mowa w ust. 1, operator sztucznej inteligencji wstrzymuje się przed oddaniem systemu sztucznej inteligencji wysokiego ryzyka do użytku oraz bezzwłocznie informuje dostawcę i krajowy organ nadzorczy. Krajowe organy nadzorcze zgodnie z art. 65 i 67 uwzględniają te informacje podczas badania systemów, które stwarzają ryzyko na szczeblu krajowym.

3. Obowiązek określony w ust. 1 ma zastosowanie do pierwszego przypadku wykorzystania systemu sztucznej inteligencji wysokiego ryzyka. W podobnych przypadkach operator sztucznej inteligencji może odwołać się do wcześniej przeprowadzonej oceny wpływu na prawa podstawowe lub istniejącej oceny przeprowadzonej przez dostawców. Jeżeli w trakcie korzystania z systemu sztucznej inteligencji wysokiego ryzyka operator sztucznej inteligencji uzna, że kryteria wymienione w ust. 1 nie są już spełniane, przeprowadza nową ocenę wpływu na prawa podstawowe.

4. W trakcie przeprowadzania oceny wpływu operator sztucznej inteligencji, z wyłączeniem MŚP, powiadamia krajowy organ nadzorczy i odpowiednie zainteresowane strony oraz, w miarę możliwości, angażuje przedstawicieli osób lub grup osób, na które system sztucznej inteligencji wysokiego ryzyka może mieć wpływ, określone w ust. 1, w tym między innymi: organy ds. równości, agencje ochrony konsumentów, partnerów społecznych i agencje ochrony danych, aby zapewnić ich wkład w ocenę skutków. Operator sztucznej inteligencji musi zapewnić takim podmiotom sześć tygodni na udzielenie odpowiedzi. MŚP mogą dobrowolnie stosować przepisy określone w niniejszym ustępie.

W przypadku, o którym mowa w art. 47 ust. 1, organy publiczne mogą zostać zwolnione z tych obowiązków.

5. Operator sztucznej inteligencji będący organem publicznym lub przedsiębiorstwo, o którym mowa w art. 51 ust. 1a lit. b), publikuje wyniki oceny skutków w ramach rejestracji korzystania z systemu zgodnie ze swoim obowiązkiem wynikającym z art. 51 ust. 2.

6. W przypadku gdy operator sztucznej inteligencji jest już zobowiązany do przeprowadzenia oceny skutków dla ochrony danych na podstawie art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, ocenę skutków dla przestrzegania praw podstawowych, o której mowa w ust. 1, przeprowadza się łącznie z oceną skutków dla ochrony danych. Ocenę skutków dla ochrony danych publikuje się jako addendum.

Poprawka 414

Wniosek dotyczący rozporządzenia

Artykuł 30 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Każde państwo członkowskie wyznacza lub ustanawia organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. 1. Każde państwo członkowskie wyznacza lub ustanawia organ notyfikujący odpowiedzialny za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność oraz za ich monitorowanie. Procedury te opracowują wspólnie organy notyfikujące wszystkich państw członkowskich.

Poprawka 415

Wniosek dotyczący rozporządzenia

Artykuł 30 - ustęp 7

Tekst proponowany przez Komisję Poprawka
7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. 7. Organy notyfikujące muszą dysponować odpowiednią liczbą kompetentnych pracowników, aby należycie wykonywać powierzone im zadania. W stosownych przypadkach kompetentny personel dysponuje niezbędną wiedzą fachową, taką jak tytuł ukończenia studiów wyższych w odpowiedniej dziedzinie prawa, w zakresie nadzoru nad prawami podstawowymi zapisanymi w Karcie praw podstawowych Unii Europejskiej.

Poprawka 416

Wniosek dotyczący rozporządzenia

Artykuł 30 - ustęp 8

Tekst proponowany przez Komisję Poprawka
8. Organy notyfikujące zapewniają przeprowadzanie ocen zgodności w proporcjonalny sposób pozwalający uniknąć nakładania zbędnych obciążeń na dostawców oraz wykonywanie przez jednostki notyfikowane powierzonych im zadań z należytym uwzględnieniem wielkości przedsiębiorstwa, sektora, w którym prowadzi ono działalność, jego struktury oraz stopnia złożoności danego systemu sztucznej inteligencji. 8. Organy notyfikujące zapewniają przeprowadzanie ocen zgodności w proporcjonalny i terminowy sposób pozwalający uniknąć nakładania zbędnych obciążeń na dostawców oraz wykonywanie przez jednostki notyfikowane powierzonych im zadań z należytym uwzględnieniem wielkości przedsiębiorstwa, sektora, w którym prowadzi ono działalność, jego struktury oraz stopnia złożoności danego systemu sztucznej inteligencji. Szczególną uwagę należy zwrócić na minimalizowanie obciążeń administracyjnych i kosztów przestrzegania przepisów dla mikroprzedsiębiorstw oraz małych przedsiębiorstw, których definicję podano w zaleceniu Komisji 2003/361/WE.

Poprawka 417

Wniosek dotyczący rozporządzenia

Artykuł 32 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Organy notyfikujące mogą notyfikować wyłącznie te jednostki oceniające zgodność, które spełniają wymogi ustanowione w art. 33. 1. Organy notyfikujące notyfikują wyłącznie te jednostki oceniające zgodność, które spełniają wymogi ustanowione w art. 33.

Poprawka 418

Wniosek dotyczący rozporządzenia

Artykuł 32 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Organy notyfikujące dokonują notyfikacji na rzecz Komisji i pozostałych państw członkowskich za pomocą narzędzia do notyfikacji drogą elektroniczną opracowanego i obsługiwanego przez Komisję. 2. Organy notyfikujące dokonują notyfikacji na rzecz Komisji i pozostałych państw członkowskich za pomocą narzędzia do notyfikacji drogą elektroniczną opracowanego i obsługiwanego przez Komisję o każdej jednostce oceniającej zgodność, o której mowa w ust. 1.

Poprawka 419

Wniosek dotyczący rozporządzenia

Artykuł 32 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Notyfikacja zawiera wyczerpujące, szczegółowe informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i odpowiednich technologii sztucznej inteligencji. 3. Notyfikacja, o której mowa w ust. 2, zawiera wyczerpujące, szczegółowe informacje na temat czynności z zakresu oceny zgodności, modułu lub modułów oceny zgodności i odpowiednich technologii sztucznej inteligencji oraz stosowne poświadczenie kompetencji.

Poprawka 420

Wniosek dotyczący rozporządzenia

Artykuł 32 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Zainteresowana jednostka oceniająca zgodność może podejmować działania właściwe dla jednostki notyfikowanej wyłącznie wówczas, gdy ani Komisja, ani pozostałe państwa członkowskie nie wniosą sprzeciwu w terminie miesiąca od daty notyfikacji. 4. Zainteresowana jednostka oceniająca zgodność może podejmować działania właściwe dla jednostki notyfikowanej wyłącznie wówczas, gdy ani Komisja, ani pozostałe państwa członkowskie nie wniosą sprzeciwu w terminie dwóch tygodni od zatwierdzenia notyfikacji w przypadku korzystania z certyfikatu akredytacji, o którym mowa w art. 31 ust. 2, lub w terminie dwóch miesięcy od notyfikacji w przypadku korzystania z dowodów w postaci dokumentów, o których mowa w art. 31 ust. 3.

Poprawka 421

Wniosek dotyczący rozporządzenia

Artykuł 32 - ustęp 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
4a. W przypadku zgłoszenia zastrzeżeń Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim i jednostką oceniającą zgodność. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione, czy też nie. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i odpowiedniej jednostki oceniającej zgodność.

Poprawka 422

Wniosek dotyczący rozporządzenia

Artykuł 32 - ustęp 4 b (nowy)

Tekst proponowany przez Komisję Poprawka
4b. Państwa członkowskie notyfikują Komisji i pozostałym państwom członkowskim jednostki oceniające zgodność.

Poprawka 423

Wniosek dotyczący rozporządzenia

Artykuł 33 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania. 2. Jednostki notyfikowane muszą spełniać wymogi organizacyjne, wymogi w zakresie zarządzania jakością oraz wymogi dotyczące zasobów i procesów niezbędne do tego, aby mogły wykonywać powierzone im zadania, a także minimalne wymogi w zakresie cyberbezpieczeństwa określone dla podmiotów administracji publicznej wskazanych jako operatorzy usług kluczowych na podstawie dyrektywy (UE 2022/2555).

Poprawka 424

Wniosek dotyczący rozporządzenia

Artykuł 33 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu sztucznej inteligencji wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów mających interes gospodarczy we wprowadzeniu systemu sztucznej inteligencji wysokiego ryzyka będącego przedmiotem oceny do obrotu, a także od wszelkich innych konkurentów dostawcy. 4. Jednostki notyfikowane muszą być niezależne od dostawcy systemu sztucznej inteligencji wysokiego ryzyka, wobec którego podejmują czynności z zakresu oceny zgodności. Jednostki notyfikowane muszą być również niezależne od wszelkich innych operatorów mających interes gospodarczy we wprowadzeniu systemu sztucznej inteligencji wysokiego ryzyka będącego przedmiotem oceny do obrotu, a także od wszelkich innych konkurentów dostawcy. Nie wyklucza to wykorzystania ocenianych systemów sztucznej inteligencji, które są niezbędne do prowadzenia działalności jednostki oceniającej zgodność, ani wykorzystania takich systemów do celów prywatnych.

Poprawka 425

Wniosek dotyczący rozporządzenia

Artykuł 33 - ustęp 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
4a. Ocenę zgodności stosownie do ust. 1 przeprowadzają pracownicy jednostek notyfikowanych, którzy nie świadczyli żadnych innych usług związanych z ocenianą kwestią poza oceną zgodności na rzecz dostawcy systemu sztucznej inteligencji wysokiego ryzyka ani na rzecz jakiejkolwiek osoby prawnej powiązanej z tym dostawcą w okresie 12 miesięcy przed oceną i którzy zobowiązali się nie świadczyć im takich usług w okresie 12 miesięcy od zakończenia oceny.

Poprawka 426

Wniosek dotyczący rozporządzenia

Artykuł 33 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych poufności informacji, które znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, z wyjątkiem działań podejmowanych w odniesieniu do organów notyfikujących państwa członkowskiego, w którym wykonuje on te zadania. 6. Jednostki notyfikowane dysponują udokumentowanymi procedurami, które zapewniają zachowanie przez ich personel, komitety, jednostki zależne, podwykonawców oraz wszelkie stowarzyszone z nimi jednostki lub pracowników podmiotów zewnętrznych poufności informacji, które znalazły się w ich posiadaniu w toku czynności z zakresu oceny zgodności, chyba że ujawnienie takich informacji jest wymagane na mocy obowiązującego prawa. Personel jednostek notyfikowanych pozostaje związany tajemnicą zawodową w kwestii wszystkich informacji pozyskiwanych w toku wykonywania zadań powierzonych mu zgodnie z niniejszym rozporządzeniem, z wyjątkiem działań podejmowanych w odniesieniu do organów notyfikujących państwa członkowskiego, w którym wykonuje on te zadania. Wszelkie informacje i dokumenty uzyskane na podstawie przepisów niniejszego artykułu przez jednostki notyfikowane traktuje się zgodnie z obowiązkami dotyczącymi poufności określonymi w art. 70.

Poprawka 427

Wniosek dotyczący rozporządzenia

Artykuł 34 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Zadania mogą być zlecane podwykonawcy lub wykonywane przez jednostkę zależną wyłącznie za zgodą dostawcy. 3. Zadania mogą być zlecane podwykonawcy lub wykonywane przez jednostkę zależną wyłącznie za zgodą dostawcy. Jednostki notyfikowane udostępniają publicznie wykaz swoich jednostek zależnych.

Poprawka 428

Wniosek dotyczący rozporządzenia

Artykuł 34 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Jednostki notyfikowane przechowują odpowiednie dokumenty dotyczące oceny kwalifikacji podwykonawcy lub jednostki zależnej oraz zadań wykonywanych przez te podmioty zgodnie z niniejszym rozporządzeniem w celu ich udostępnienia organowi notyfikującemu. 4. Jednostki notyfikowane przechowują odpowiednie dokumenty dotyczące weryfikacji kwalifikacji podwykonawcy lub jednostki zależnej oraz zadań wykonywanych przez te podmioty zgodnie z niniejszym rozporządzeniem w celu ich udostępnienia organowi notyfikującemu.

Poprawka 429

Wniosek dotyczący rozporządzenia

Artykuł 35 - nagłówek

Tekst proponowany przez Komisję Poprawka
Numery identyfikacyjne i wykazy jednostek notyfikowanych wyznaczonych zgodnie z niniejszym rozporządzeniem Numery identyfikacyjne i wykazy jednostek notyfikowanych

Poprawka 430

Wniosek dotyczący rozporządzenia

Artykuł 36 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. W przypadku gdy organ notyfikujący podejrzewa lub otrzyma informację, że jednostka notyfikowana przestała spełniać wymogi określone w art. 33 lub nie wypełnia swoich obowiązków, organ ten niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonych zastrzeżeniach i zapewnia jej możliwość ustosunkowania się do tych zastrzeżeń. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana będąca przedmiotem postępowania wyjaśniającego przestała spełniać wymogi określone w art. 33 lub nie wypełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa notyfikację, w zależności od wagi uchybienia. Organ notyfikujący niezwłocznie informuje również o tym fakcie Komisję i pozostałe państwa członkowskie. 1. W przypadku gdy organ notyfikujący podejrzewa lub otrzyma informację, że jednostka notyfikowana przestała spełniać wymogi określone w art. 33 lub nie wypełnia swoich obowiązków, organ ten niezwłocznie wszczyna postępowanie wyjaśniające w tej sprawie z zachowaniem największej staranności. W takim przypadku organ notyfikujący informuje daną jednostkę notyfikowaną o zgłoszonych zastrzeżeniach i zapewnia jej możliwość ustosunkowania się do tych zastrzeżeń. Jeżeli organ notyfikujący dojdzie do wniosku, że jednostka notyfikowana przestała spełniać wymogi określone w art. 33 lub nie wypełnia swoich obowiązków, organ ten, stosownie do przypadku, ogranicza, zawiesza lub cofa notyfikację, w zależności od wagi uchybienia. Organ notyfikujący niezwłocznie informuje również o tym fakcie Komisję i pozostałe państwa członkowskie.

Poprawka 431

Wniosek dotyczący rozporządzenia

Artykuł 36 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. W przypadku ograniczenia, zawieszenia lub cofnięcia notyfikacji albo w przypadku zaprzestania działalności przez jednostkę notyfikowaną organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, aby dokumentacja tej jednostki została przejęta przez inną jednostkę notyfikowaną albo pozostawała dostępna na żądanie odpowiedzialnych organów notyfikujących. 2. W przypadku ograniczenia, zawieszenia lub cofnięcia notyfikacji albo w przypadku zaprzestania działalności przez jednostkę notyfikowaną organ notyfikujący podejmuje odpowiednie kroki w celu zapewnienia, aby dokumentacja tej jednostki została przejęta przez inną jednostkę notyfikowaną albo pozostawała dostępna na żądanie odpowiedzialnych organów notyfikujących i organu nadzoru rynku.

Poprawka 432

Wniosek dotyczący rozporządzenia

Artykuł 37 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. W stosownych przypadkach Komisja bada wszystkie sytuacje, w których stwierdzi wystąpienie okoliczności dających podstawy do tego, by wątpić, że jednostka notyfikowana spełnia wymogi ustanowione w art. 33. 1. W razie konieczności Komisja bada wszystkie sytuacje, w których stwierdzi wystąpienie okoliczności dających podstawy do tego, by wątpić w kompetencje jednostki notyfikowanej lub w ciągłość spełniania przez nią stosownych wymagań i obowiązków.

Poprawka 433

Wniosek dotyczący rozporządzenia

Artykuł 37 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Organ notyfikujący przekazuje Komisji, na żądanie, wszystkie istotne informacje dotyczące notyfikacji danej jednostki notyfikowanej. 2. Organ notyfikujący przekazuje Komisji, na żądanie, wszystkie istotne informacje dotyczące notyfikacji lub utrzymania kompetencji przez daną jednostkę notyfikowaną.

Poprawka 434

Wniosek dotyczący rozporządzenia

Artykuł 37 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Komisja zapewnia poufność wszystkich informacji poufnych uzyskanych w toku postępowań wyjaśniających prowadzonych zgodnie z niniejszym artykułem. 3. Komisja zapewnia poufność wszystkich informacji szczególnie chronionych uzyskanych w toku postępowań wyjaśniających prowadzonych zgodnie z niniejszym artykułem.

Poprawka 435

Wniosek dotyczący rozporządzenia

Artykuł 37 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. W przypadku gdy Komisja stwierdzi, że jednostka notyfikowana nie spełnia lub przestała spełniać wymogi ustanowione w art. 33, przyjmuje uzasadnioną decyzję zobowiązującą notyfikujące państwo członkowskie do wdrożenie koniecznych środków naprawczych, obejmujących, w razie potrzeby, cofnięcie notyfikacji. Wspomniany akt wykonawczy przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 74 ust. 2. 4. W przypadku gdy Komisja stwierdzi, że jednostka notyfikowana nie spełnia wymagań notyfikacji lub przestała je spełniać, informuje o tym fakcie notyfikujące państwo członkowskie i zwraca się do niego o wprowadzenie koniecznych środków naprawczych, włącznie z zawieszeniem lub wycofaniem notyfikacji, jeżeli zachodzi taka potrzeba. W przypadku niewprowadzenia przez państwo członkowskie koniecznych środków korygujących Komisja może w drodze aktu wykonawczego zawiesić, ograniczyć lub cofnąć wyznaczenie. Wspomniany akt wykonawczy przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 74 ust. 2.

Poprawka 436

Wniosek dotyczący rozporządzenia

Artykuł 38 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
2a. Komisja jest zobowiązana zapewnić wymianę wiedzy i najlepszych praktyk między krajowymi organami państw członkowskich odpowiedzialnymi za politykę notyfikacji.

Poprawka 437

Wniosek dotyczący rozporządzenia

Artykuł 40 - akapit 1

Tekst proponowany przez Komisję Poprawka
Systemy sztucznej inteligencji wysokiego ryzyka spełniające normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej, uznaje się za spełniające wymogi ustanowione w rozdziale 2 niniejszego tytułu w zakresie, w jakim wspomniane normy obejmują te wymogi. Systemy sztucznej inteligencji wysokiego ryzyka i modele generatywne spełniające normy zharmonizowane lub części tych norm, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej zgodnie z rozporządzeniem (UE) 1025/2012, uznaje się za spełniające wymogi ustanowione w rozdziale 2 niniejszego tytułu lub w art. 28b w zakresie, w jakim wspomniane normy obejmują te wymogi.

Poprawka 438

Wniosek dotyczący rozporządzenia Artykuł 40 - akapit 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
Komisja sporządza wnioski o normalizację obejmujące wszystkie wymagania niniejszego rozporządzenia zgodnie z art. 10 rozporządzenia (UE) nr 1025/2012 do dnia ... [dwa miesiące od daty wejścia w życie niniejszego rozporządzenia]. Przygotowując wniosek o normalizację, Komisja konsultuje się z Urzędem ds. Sztucznej Inteligencji i forum doradczym.

Poprawka 439

Wniosek dotyczący rozporządzenia Artykuł 40 - akapit 1 b (nowy)

Tekst proponowany przez Komisję Poprawka
Wystosowując wniosek o normalizację do europejskich organizacji normalizacyjnych, Komisja określa, że normy muszą być spójne, w tym z prawem sektorowym wymienionym w załączniku II, i mieć na celu zagwarantowanie, że systemy sztucznej inteligencji lub modele bazowe wprowadzane do obrotu lub oddawane do użytku w Unii będą spełniać odpowiednie wymogi określone w niniejszym rozporządzeniu.

Poprawka 440

Wniosek dotyczący rozporządzenia

Artykuł 40 - akapit 1 c (nowy)

Tekst proponowany przez Komisję Poprawka
Podmioty zaangażowane w proces normalizacji uwzględniają ogólne zasady godnej zaufania sztucznej inteligencji określone w art. 4 lit. a), dążą do promowania inwestycji i innowacji w dziedzinie sztucznej inteligencji, a także konkurencyjności i wzrostu rynku unijnego oraz przyczyniają się do wzmocnienia globalnej współpracy w zakresie normalizacji i z uwzględnieniem istniejących norm międzynarodowych w dziedzinie sztucznej inteligencji, które są zgodne z wartościami Unii, prawami podstawowymi i interesem Unii, a także zapewniają wyważoną reprezentację interesów i skuteczny udział wszystkich odpowiednich zainteresowanych stron zgodnie z art. 5, 6 i 7 rozporządzenia (UE) nr 1025/2012.

Poprawka 441

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Jeżeli normy zharmonizowane, o których mowa w art. 40, nie istnieją lub jeżeli Komisja uzna, że odpowiednie normy zharmonizowane są niewystarczające lub że należy odnieść się do określonych zastrzeżeń dotyczących bezpieczeństwa lub poszanowania praw podstawowych, Komisja może - w drodze aktów wykonawczych - przyjąć wspólne specyfikacje w odniesieniu do wymogów ustanowionych w rozdziale 2 niniejszego tytułu. Wspomniane akty wykonawcze przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 74 ust. 2. skreśla się

Poprawka 442

Wniosek dotyczący rozporządzenia Artykuł 41 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a. Komisja może - w drodze aktu wykonawczego przyjętego zgodnie z procedurą sprawdzającą, o której mowa w art. 74 ust. 2 oraz po konsultacji z Urzędem ds. Sztucznej Inteligencji i forum doradczym ds. sztucznej inteligencji - przyjąć wspólne specyfikacje w odniesieniu do wymogów określonych w rozdziale 2 niniejszego tytułu lub w art. 28b, jeżeli spełnione są wszystkie następujące warunki:
a) nie ma odniesienia do norm zharmonizowanych już opublikowanych w Dzienniku Urzędowym Unii Europejskiej, odnoszących się do zasadniczych wymagań, chyba że dana norma zharmonizowana jest istniejącą normą, którą należy poddać przeglądowi;

b) Komisja zwróciła się do co najmniej jednej europejskiej organizacji normalizacyjnej z wnioskiem o przygotowanie normy zharmonizowanej dotyczącej zasadniczych wymagań określonych w rozdziale 2;

c) wniosek, o którym mowa w lit. b), nie został zaakceptowany przez żadną z europejskich organizacji normalizacyjnych lub występują nieuzasadnione opóźnienia w ustanawianiu odpowiedniej normy zharmonizowanej, lub przedstawiona norma nie spełnia wymogów odpowiednich przepisów prawa Unii bądź nie jest zgodna z wnioskiem Komisji.

Poprawka 443

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 1 b (nowy)

Tekst proponowany przez Komisję Poprawka
1b. Jeżeli Komisja uzna, że istnieje potrzeba zajęcia się konkretnymi obawami dotyczącymi praw podstawowych, wspólne specyfikacje przyjęte przez Komisję zgodnie z ust. 1a uwzględniają również owe szczególne obawy dotyczące praw podstawowych.

Poprawka 444

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 1 c (nowy)

Tekst proponowany przez Komisję Poprawka
1c. Komisja opracowuje wspólne specyfikacje dotyczące metodyki spełnienia wymogów w zakresie sprawozdawczości i dokumentacji w odniesieniu do zużycia energii i zasobów podczas opracowywania, szkolenia i wdrażania systemu sztucznej inteligencji wysokiego ryzyka.

Poprawka 445

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Przygotowując wspólne specyfikacje, o których mowa w ust. 1, Komisja zbiera opinie właściwych jednostek lub grup ekspertów ustanowionych zgodnie z odpowiednimi unijnymi przepisami sektorowymi. 2. W trakcie całego procesu opracowywania wspólnych specyfikacji, o których mowa w ust. 1a i 1b, Komisja regularnie konsultuje się z Urzędem ds. Sztucznej Inteligencji i forum doradczym, europejskimi organizacjami i organami normalizacyjnymi lub grupami ekspertów ustanowionymi na mocy odpowiednich przepisów sektorowych Unii, a także z innymi odpowiednimi zainteresowanymi stronami. Komisja realizuje cele, o których mowa w art. 40 ust. 1c, i należycie uzasadnia, dlaczego postanowiła zastosować wspólne specyfikacje.

Jeżeli Komisja zamierza przyjąć wspólne specyfikacje zgodnie z ust. 1a niniejszego artykułu, wyraźnie wskazuje również konkretny problem dotyczący praw podstawowych, który należy rozwiązać.

Przyjmując wspólne specyfikacje na podstawie ust. 1a i 1b niniejszego artykułu, Komisja bierze pod uwagę opinię wydaną przez Urząd ds. Sztucznej Inteligencji, o której mowa w art. 56e lit. b) niniejszego rozporządzenia. Jeżeli Komisja podejmie decyzję o niestosowaniu się do opinii Urzędu ds. Sztucznej Inteligencji, przedstawia mu uzasadnione wyjaśnienie.

Poprawka 446

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Systemy sztucznej inteligencji wysokiego ryzyka zgodne ze wspólnymi specyfikacjami, o których mowa w ust. 1, uznaje się za spełniające wymogi ustanowione w rozdziale 2 niniejszego tytułu w zakresie, w jakim wspomniane wspólne specyfikacje obejmują te wymogi. 3. Systemy sztucznej inteligencji wysokiego ryzyka zgodne ze wspólnymi specyfikacjami, o których mowa w ust. 1a i 1b, uznaje się za spełniające wymogi ustanowione w rozdziale 2 niniejszego tytułu w zakresie, w jakim wspomniane wspólne specyfikacje obejmują te wymogi.

Poprawka 447

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. W przypadku gdy europejska organizacja normalizacyjna przyjmuje normę zharmonizowaną i proponuje Komisji opublikowanie odniesienia do niej w Dzienniku Urzędowym Unii Europejskiej, Komisja ocenia normę zharmonizowaną zgodnie z rozporządzeniem (UE) 1025/2012. W przypadku opublikowania odniesienia do normy zharmonizowanej w Dzienniku Urzędowym Unii Europejskiej Komisja uchyla akty, o których mowa w ust. 1 i 1b, lub ich części, które obejmują te same wymogi, o których mowa w rozdziale 2 niniejszego tytułu.

Poprawka 448

Wniosek dotyczący rozporządzenia

Artykuł 41 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. W przypadku niezapewnienia zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, dostawcy w należyty sposób wykazują, że przyjęli rozwiązania techniczne, które co najmniej równoważne tym wspólnym specyfikacjom. 4. W przypadku niezapewnienia zgodności ze wspólnymi specyfikacjami, o których mowa w ust. 1, dostawcy systemów sztucznej inteligencji wysokiego ryzyka w należyty sposób wykazują, że przyjęli rozwiązania techniczne, które spełniają wymogi, o których mowa w rozdziale II, na poziomie co najmniej równoważnym tym wspólnym specyfikacjom.

Poprawka 449

Wniosek dotyczący rozporządzenia

Artykuł 42 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Biorąc pod uwagę ich przeznaczenie, systemy sztucznej inteligencji wysokiego ryzyka, które zostały wytrenowane i przetestowane przy użyciu danych dotyczących określonego środowiska geograficznego, behawioralnego i funkcjonalnego, w którym planuje się z nich korzystać, uznaje się za spełniające wymóg ustanowiony w art. 10 ust. 4. 1. Biorąc pod uwagę ich przeznaczenie, systemy sztucznej inteligencji wysokiego ryzyka, które zostały wytrenowane i przetestowane przy użyciu danych dotyczących określonego kontekstu geograficznego, behawioralnego, funkcjonalnego i okoliczności, w których planuje się z nich korzystać, uznaje się za spełniające odpowiednie wymogi ustanowione w art. 10 ust. 4.

Poprawka 450

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca postępuje zgodnie z jedną z następujących procedur: 1. W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka wymienionych w załączniku III pkt 1, w przypadku gdy do wykazania zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu dostawca zastosował normy zharmonizowane, o których mowa w art. 40, lub, w stosownych przypadkach, wspólne specyfikacje, o których mowa w art. 41, dostawca wybiera jedną z następujących procedur;

Poprawka 451

Wniosek dotyczący rozporządzenia Artykuł 43 - ustęp 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI; a) procedurą oceny zgodności opierającą się na kontroli wewnętrznej, o której mowa w załączniku VI; lub

Poprawka 452

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 1 - litera b

Tekst proponowany przez Komisję Poprawka
b) procedurą oceny zgodności opierającą się na ocenie systemu zarządzania jakością i ocenie dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII. b) procedurą oceny zgodności opierającą się na ocenie systemu zarządzania jakością i dokumentacji technicznej przeprowadzaną z udziałem jednostki notyfikowanej, o której to procedurze mowa w załączniku VII.

Poprawka 453

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 1 - akapit 1

Tekst proponowany przez Komisję Poprawka
Jeżeli przy wykazywaniu zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu dostawca nie zastosował norm zharmonizowanych, o których mowa w art. 40, lub zastosował te normy tylko częściowo lub jeżeli takie normy zharmonizowane nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne, dostawca postępuje zgodnie z procedurą oceny zgodności określoną w załączniku VII. Przy wykazywaniu zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami ustanowionymi w rozdziale 2 niniejszego tytułu dostawca w następujących przypadkach stosuje procedurę oceny zgodności określoną w załączniku VII:
a) jeśli normy zharmonizowane, o których mowa w art. 40 i których numer odniesienia został opublikowany w Dzienniku Urzędowym Unii Europejskiej, obejmujące wszelkie właściwe wymagania bezpieczeństwa wobec systemu sztucznej inteligencji, nie istnieją, a wspólne specyfikacje, o których mowa w art. 41, nie są dostępne;

b) jeśli specyfikacje techniczne, o których mowa w lit. a), istnieją, ale dostawca nie zastosował ich lub zastosował je częściowo;

c) jeśli co najmniej jedna ze specyfikacji technicznych, o których mowa w lit. a), została opublikowana z ograniczeniem i jedynie w odniesieniu do części normy podlegającej ograniczeniu;

d) jeśli dostawca uważa, że charakter, projekt, konstrukcja lub przeznaczenie systemu sztucznej inteligencji wymagają weryfikacji przez stronę trzecią, niezależnie od poziomu ryzyka.

Poprawka 454

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 1 - akapit 2

Tekst proponowany przez Komisję Poprawka
Na potrzeby procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jeżeli jednak system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy odpowiedzialne za udzielanie azylu, a także przez instytucje, organy lub jednostki organizacyjne UE, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa w art. 63 ust. 5 lub - w stosownych przypadkach - art. 63 ust. 6. Na potrzeby przeprowadzenia procedury oceny zgodności, o której mowa w załączniku VII, dostawca może wybrać dowolną jednostkę notyfikowaną. Jeżeli jednak system ma zostać oddany do użytku przez organy ścigania, organy imigracyjne lub organy odpowiedzialne za udzielanie azylu, a także przez instytucje, organy lub jednostki organizacyjne UE, funkcję jednostki notyfikowanej pełni organ nadzoru rynku, o którym mowa w art. 63 ust. 5 lub - w stosownych przypadkach - art. 63 ust. 6.

Poprawka 455

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 4 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
4. Systemy sztucznej inteligencji wysokiego ryzyka poddaje się nowej procedurze oceny zgodności za każdym razem, gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system ma być przedmiotem dalszej dystrybucji, czy też ma być nadal wykorzystywany przez jego obecnego użytkownika. 4. Systemy sztucznej inteligencji wysokiego ryzyka, które poddano już procedurze oceny zgodności, poddaje się nowej procedurze oceny zgodności za każdym razem, gdy wprowadza się w nich istotne zmiany, niezależnie od tego, czy zmieniony system ma być przedmiotem dalszej dystrybucji, czy też ma być nadal wykorzystywany przez obecnego operatora sztucznej inteligencji.

Poprawka 456

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
4a. Przy ustalaniu wysokości opłat z tytułu oceny zgodności przeprowadzanej przez stronę trzecią zgodnie z niniejszym artykułem bierze się pod uwagę szczególne interesy i potrzeby MŚP i obniża te opłaty proporcjonalnie do wielkości wspomnianych dostawców i ich udziału w rynku.

Poprawka 457

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73, aby zaktualizować załączniki VI i VII w celu wprowadzenia elementów procedur oceny zgodności, które stały się konieczne z uwagi na postęp techniczny. 5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73, aby zaktualizować załączniki VI i VII w celu wprowadzenia elementów procedur oceny zgodności, które stały się konieczne z uwagi na postęp techniczny. Przygotowując takie akty delegowane, Komisja konsultuje się z Urzędem ds. Sztucznej Inteligencji i z zainteresowanymi stronami.

Poprawka 458

Wniosek dotyczący rozporządzenia

Artykuł 43 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Komisja jest uprawniona do przyjmowania aktów delegowanych, aby zmienić przepisy ust. 1 i 2 w celu objęcia systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 2-8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu zagrożeniom dla zdrowia i bezpieczeństwa oraz ochrony praw podstawowych stwarzanym przez takie systemy lub minimalizowaniu tych zagrożeń, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych. 6. Komisja jest uprawniona do przyjmowania aktów delegowanych, aby zmienić przepisy ust. 1 i 2 w celu objęcia systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 2-8, procedurą oceny zgodności, o której mowa w załączniku VII, lub elementami tej procedury. Komisja przyjmuje takie akty delegowane, biorąc pod uwagę skuteczność procedury oceny zgodności opierającej się na kontroli wewnętrznej, o której mowa w załączniku VI, w zapobieganiu zagrożeniom dla zdrowia i bezpieczeństwa oraz ochrony praw podstawowych stwarzanym przez takie systemy lub minimalizowaniu tych zagrożeń, a także uwzględniając dostępność odpowiednich zdolności i zasobów wśród jednostek notyfikowanych. Przygotowując takie akty delegowane, Komisja konsultuje się z Urzędem ds. Sztucznej Inteligencji i z zainteresowanymi stronami.

Poprawka 459

Wniosek dotyczący rozporządzenia

Artykuł 44 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Certyfikaty wydawane przez jednostki notyfikowane zgodnie z załącznikiem VII sporządza się w języku urzędowym Unii określonym przez państwo członkowskie, w którym znajduje się siedziba jednostki notyfikowanej, lub języku urzędowym Unii, który jednostka notyfikowana uznaje za odpowiedni z innych względów. 1. Certyfikaty wydawane przez jednostki notyfikowane zgodnie z załącznikiem VII sporządza się w co najmniej jednym języku urzędowym Unii określonym przez państwo członkowskie, w którym znajduje się siedziba jednostki notyfikowanej, lub w co najmniej jednym języku urzędowym Unii, który jednostka notyfikowana uznaje za odpowiedni z innych względów.

Poprawka 460

Wniosek dotyczący rozporządzenia

Artykuł 44 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Certyfikaty zachowują ważność przez wskazany w nich okres, który nie może przekraczać pięciu lat. Na wniosek dostawcy ważność certyfikatu można przedłużyć na kolejne okresy, które nie mogą każdorazowo przekraczać pięciu lat, w oparciu o wyniki ponownej oceny przeprowadzonej zgodnie z mającymi zastosowanie procedurami oceny zgodności. 2. Certyfikaty zachowują ważność przez wskazany w nich okres, który nie może przekraczać czterech lat. Na wniosek dostawcy ważność certyfikatu można przedłużyć na kolejne okresy, które nie mogą każdorazowo przekraczać czterech lat, w oparciu o wyniki ponownej oceny przeprowadzonej zgodnie z mającymi zastosowanie procedurami oceny zgodności;

Poprawka 461

Wniosek dotyczący rozporządzenia

Artykuł 44 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Jeżeli jednostka notyfikowana stwierdzi, że system sztucznej inteligencji przestał spełniać wymogi ustanowione w rozdziale 2 niniejszego tytułu, zawiesza lub cofa wydany certyfikat lub nakłada na niego ograniczenia, biorąc pod uwagę zasadę proporcjonalności, chyba że dostawca systemu zapewni zgodność z tymi wymogami poprzez podjęcie odpowiedniego działania naprawczego w stosownym terminie wyznaczonym przez jednostkę notyfikowaną. Jednostka notyfikowana uzasadnia swoją decyzję. 3. Jeżeli jednostka notyfikowana stwierdzi, że system sztucznej inteligencji przestał spełniać wymogi ustanowione w rozdziale 2 niniejszego tytułu, zawiesza lub cofa wydany certyfikat lub nakłada na niego ograniczenia, chyba że dostawca systemu zapewni zgodność z tymi wymogami poprzez podjęcie odpowiedniego działania naprawczego w stosownym terminie wyznaczonym przez jednostkę notyfikowaną. Jednostka notyfikowana uzasadnia swoją decyzję.

Poprawka 462

Wniosek dotyczący rozporządzenia

Artykuł 45 - akapit 1

Tekst proponowany przez Komisję Poprawka
Państwa członkowskie zapewniają stronom posiadającym prawnie uzasadniony interes związany z decyzjami jednostek notyfikowanych możliwość wniesienia odwołania od tych decyzji. Państwa członkowskie zapewniają stronom posiadającym prawnie uzasadniony interes związany z decyzjami jednostek notyfikowanych, w tym od wydanych certyfikatów zgodności, możliwość wniesienia odwołania od tych decyzji.

Poprawka 463

Wniosek dotyczący rozporządzenia

Artykuł 46 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Każda jednostka notyfikowana przekazuje pozostałym jednostkom notyfikowanym prowadzącym podobne czynności z zakresu oceny zgodności w odniesieniu do tych samych technologii sztucznej inteligencji stosowne informacje na temat kwestii związanych z negatywnymi, a także - na ich żądanie - pozytywnymi wynikami oceny zgodności. 3. Każda jednostka notyfikowana przekazuje pozostałym jednostkom notyfikowanym prowadzącym podobne czynności z zakresu oceny zgodności stosowne informacje na temat kwestii związanych z negatywnymi, a także - na ich żądanie - pozytywnymi wynikami oceny zgodności.

Poprawka 464

Wniosek dotyczący rozporządzenia

Artykuł 47 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Na zasadzie odstępstwa od art. 43 każdy organ nadzoru rynku może wydać zezwolenie na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów sztucznej inteligencji wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących bezpieczeństwa publicznego lub ochrony zdrowia i życia osób, ochrony środowiska i ochrony kluczowych aktywów przemysłowych i infrastrukturalnych. Wspomniane zezwolenie wydaje się na ograniczony okres na czas przeprowadzenia niezbędnych procedur oceny zgodności, a jego ważność wygasa po zakończeniu tych procedur. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki. 1. Na zasadzie odstępstwa od art. 43 każdy krajowy organ nadzoru może wystąpić do organu sądowego o wydanie zezwolenia na wprowadzenie do obrotu lub oddanie do użytku konkretnych systemów sztucznej inteligencji wysokiego ryzyka na terytorium danego państwa członkowskiego w związku z wystąpieniem nadzwyczajnych względów dotyczących ochrony zdrowia i życia osób, ochrony środowiska i ochrony infrastruktury krytycznej. Wspomniane zezwolenie wydaje się na ograniczony okres na czas przeprowadzenia niezbędnych procedur oceny zgodności, a jego ważność wygasa po zakończeniu tych procedur. Dokłada się starań, aby procedury te ukończono bez zbędnej zwłoki;

Poprawka 465

Wniosek dotyczący rozporządzenia

Artykuł 47 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy organ nadzoru rynku stwierdzi, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi ustanowione w rozdziale 2 niniejszego tytułu. Organ nadzoru rynku informuje Komisję i pozostałe państwa członkowskie o wszelkich zezwoleniach wydanych zgodnie z ust. 1. 2. Zezwolenie, o którym mowa w ust. 1, wydaje się wyłącznie wówczas, gdy krajowy organ nadzoru i organ sądowy stwierdzą, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi ustanowione w rozdziale 2 niniejszego tytułu. Krajowy organ nadzoru informuje Komisję, Urząd ds. Sztucznej Inteligencji i pozostałe państwa członkowskie o wszelkich złożonych wnioskach i zezwoleniach wydanych następnie zgodnie z ust. 1.

Poprawka 466

Wniosek dotyczący rozporządzenia

Artykuł 47 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 2, ani żadne państwo członkowskie, ani Komisja nie zgłoszą zastrzeżeń dotyczących zezwolenia wydanego przez organ nadzoru rynku państwa członkowskiego zgodnie z ust. 1, takie zezwolenie uznaje się za uzasadnione. 3. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 2, ani żadne państwo członkowskie, ani Komisja nie zgłoszą zastrzeżeń dotyczących wniosku krajowego organu nadzoru dotyczącego zezwolenia wydanego przez krajowy organ nadzoru państwa członkowskiego zgodnie z ust. 1, taki wniosek uznaje się za uzasadniony.

Poprawka 467

Wniosek dotyczący rozporządzenia

Artykuł 47 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 2, państwo członkowskie zgłosi zastrzeżenia dotyczące zezwolenia wydanego przez organ nadzoru rynku innego państwa członkowskiego lub jeżeli Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodność systemu z wymogami, o czym jest mowa w ust. 2, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim; w takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione, czy też nie. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i zainteresowanego operatora lub zainteresowanych operatorów. 4. Jeżeli w terminie 15 dni kalendarzowych od dnia otrzymania informacji, o której mowa w ust. 2, państwo członkowskie zgłosi zastrzeżenia dotyczące wniosku wydanego przez krajowy organ nadzoru innego państwa członkowskiego lub jeżeli Komisja uzna zezwolenie za sprzeczne z prawem Unii lub uzna za bezpodstawne dokonane przez państwo członkowskie stwierdzenie zgodność systemu z wymogami, o czym jest mowa w ust. 2, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim i Urzędem ds. Sztucznej Inteligencji; w takim przypadku zasięga się opinii zainteresowanych operatorów i zapewnia się im możliwość przedstawienia ich stanowiska. Na tej podstawie Komisja podejmuje decyzję, czy dane zezwolenie jest uzasadnione, czy też nie. Komisja kieruje swoją decyzję do zainteresowanego państwa członkowskiego i zainteresowanego operatora lub zainteresowanych operatorów.

Poprawka 468

Wniosek dotyczący rozporządzenia

Artykuł 47 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Jeżeli zezwolenie zostanie uznane za bezpodstawne, organ nadzoru rynku zainteresowanego państwa członkowskiego jest zobowiązany je cofnąć. 5. Jeżeli zezwolenie zostanie uznane za bezpodstawne, krajowy organ nadzoru zainteresowanego państwa członkowskiego jest zobowiązany je cofnąć.

Poprawka 469

Wniosek dotyczący rozporządzenia

Artykuł 48 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Dostawca sporządza pisemną deklarację zgodności UE dla każdego systemu sztucznej inteligencji i przechowuje ją w celu jej udostępnienia właściwym organom krajowym przez okres 10 lat od dnia wprowadzenia systemu sztucznej inteligencji do obrotu lub oddania go do użytku. W deklaracji zgodności UE wskazuje się system sztucznej inteligencji, dla którego ją sporządzono. Kopię deklaracji zgodności UE przekazuje się odpowiednim właściwym organom krajowym na ich żądanie. 1. Dostawca sporządza pisemną i nadającą się do odczytu maszynowego, fizyczną lub elektroniczną, deklarację zgodności UE dla każdego systemu sztucznej inteligencji wysokiego ryzyka i przechowuje ją w celu jej udostępnienia krajowemu organowi nadzoru i właściwym organom krajowym przez okres 10 lat od dnia wprowadzenia systemu sztucznej inteligencji wysokiego ryzyka do obrotu lub oddania go do użytku. Kopię deklaracji zgodności UE przekazuje się krajowemu organowi nadzorczemu i odpowiednim właściwym organom krajowym na ich żądanie.

Poprawka 470

Wniosek dotyczący rozporządzenia

Artykuł 48 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. W deklaracji zgodności UE potwierdza się, że dany system sztucznej inteligencji wysokiego ryzyka spełnia wymogi ustanowione w rozdziale 2 niniejszego tytułu. Deklaracja zgodności UE zawiera informacje przedstawione w załączniku V i musi zostać przetłumaczona na język urzędowy Unii lub na języki wskazane przez państwa członkowskie, w których udostępnia się system sztucznej inteligencji wysokiego ryzyka. 2. W deklaracji zgodności UE potwierdza się, że dany system sztucznej inteligencji wysokiego ryzyka spełnia wymogi ustanowione w rozdziale 2 niniejszego tytułu. Deklaracja zgodności UE zawiera informacje przedstawione w załączniku V i musi zostać przetłumaczona na język urzędowy Unii lub na języki wskazane przez państwa członkowskie, w których wprowadza się do obrotu lub udostępnia się system sztucznej inteligencji wysokiego ryzyka;

Poprawka 471

Wniosek dotyczący rozporządzenia

Artykuł 48 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Jeżeli systemy sztucznej inteligencji wysokiego ryzyka podlegają innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również ustanowiono wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich aktów prawa Unii mających zastosowanie do systemu sztucznej inteligencji wysokiego ryzyka sporządza się jedną deklarację zgodności UE. W deklaracji zamieszcza się wszystkie informacje niezbędne do zidentyfikowania unijnego prawodawstwa harmonizacyjne- go, do którego się ona odnosi. 3. Jeżeli systemy sztucznej inteligencji wysokiego ryzyka podlegają innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również ustanowiono wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich aktów prawa Unii mających zastosowanie do systemu sztucznej inteligencji wysokiego ryzyka można sporządzić jedną deklarację zgodności UE. W deklaracji zamieszcza się wszystkie informacje niezbędne do zidentyfikowania unijnego prawodawstwa harmonizacyjne- go, do którego się ona odnosi.

Poprawka 472

Wniosek dotyczący rozporządzenia

Artykuł 48 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73, aby zaktualizować treść deklaracji zgodności UE określoną w załączniku V w celu wprowadzenia elementów, które stały się konieczne z uwagi na postęp techniczny. 5. Po konsultacji z Urzędem ds. Sztucznej Inteligencji Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 73, aby zaktualizować treść deklaracji zgodności UE określoną w załączniku V w celu wprowadzenia elementów, które stały się konieczne z uwagi na postęp techniczny.

Poprawka 473

Wniosek dotyczący rozporządzenia

Artykuł 49 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Oznakowanie CE umieszcza się na systemie sztucznej inteligencji wysokiego ryzyka w sposób widoczny, czytelny i trwały. Jeżeli z uwagi na charakter systemu sztucznej inteligencji wysokiego ryzyka oznakowanie systemu w powyższy sposób nie jest możliwe lub uzasadnione, oznakowanie to umieszcza się na opakowaniu lub - w stosownych przypadkach - w dokumentacji towarzyszącej systemowi. 1. Fizyczne oznakowanie CE umieszcza się na systemie sztucznej inteligencji wysokiego ryzyka w sposób widoczny, czytelny i trwały przed wprowadzeniem danego systemu sztucznej inteligencji wysokiego ryzyka do obrotu. Jeżeli z uwagi na charakter systemu sztucznej inteligencji wysokiego ryzyka oznakowanie systemu w powyższy sposób nie jest możliwe lub uzasadnione, oznakowanie to umieszcza się na opakowaniu lub - w stosownych przypadkach - w dokumentacji towarzyszącej systemowi. Pod oznakowaniem CE można umieścić piktogram lub innego rodzaju znak wskazujący na szczególne ryzyko lub zastosowanie.

Wniosek dotyczący rozporządzenia

Artykuł 49 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a. W przypadku wyłącznie cyfrowych systemów sztucznej inteligencji wysokiego ryzyka cyfrowe oznakowanie CE stosuje się wyłącznie wtedy, gdy można je łatwo uzyskać za pośrednictwem interfejsu, z którego uzyskuje się dostęp do systemu sztucznej inteligencji, lub za pomocą łatwo dostępnego kodu nadającego się do odczytu maszynowego lub innych środków elektronicznych.

Poprawka 475

Wniosek dotyczący rozporządzenia

Artykuł 49 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. W stosownych przypadkach oznakowaniu CE towarzyszy również numer identyfikacyjny jednostki notyfikowanej odpowiedzialnej za przeprowadzenie procedur oceny zgodności ustanowionych w art. 43. Numer identyfikacyjny umieszcza się również na wszelkich materiałach promocyjnych zawierających informacje o tym, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi konieczne do opatrzenia go oznakowaniem CE. 3. W stosownych przypadkach oznakowaniu CE towarzyszy również numer identyfikacyjny jednostki notyfikowanej odpowiedzialnej za przeprowadzenie procedur oceny zgodności ustanowionych w art. 43. Numer identyfikacyjny jednostki notyfikowanej umieszcza sama jednostka lub upoważniony przedstawiciel dostawcy zgodnie z poleceniem jednostki notyfikowanej. Numer identyfikacyjny umieszcza się również na wszelkich materiałach promocyjnych zawierających informacje o tym, że system sztucznej inteligencji wysokiego ryzyka spełnia wymogi konieczne do opatrzenia go oznakowaniem CE;

Poprawka 476

Wniosek dotyczący rozporządzenia

Artykuł 49 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. Jeżeli systemy sztucznej inteligencji wysokiego ryzyka podlegają innym przepisom Unii, które również przewidują umieszczenie oznakowania CE, oznakowanie CE wskazuje, że dane systemy sztucznej inteligencji wysokiego ryzyka spełniają także wymogi zawarte w tych innych przepisach.

Poprawka 477

Wniosek dotyczący rozporządzenia Artykuł 50 - akapit 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
Przez okres 10 lat od dnia wprowadzenia systemu sztucznej inteligencji do obrotu lub oddania go do użytku dostawca przechowuje do dyspozycji właściwych organów krajowych: Przez okres 10 lat od dnia wprowadzenia systemu sztucznej inteligencji do obrotu lub oddania go do użytku dostawca przechowuje do dyspozycji krajowego organu nadzorczego i właściwych organów krajowych:

Poprawka 478

Wniosek dotyczący rozporządzenia

Artykuł 51 - akapit 1

Tekst proponowany przez Komisję Poprawka
Przed wprowadzeniem do obrotu systemu sztucznej inteligencji wysokiego ryzyka, o którym mowa w art. 6 ust. 2, lub przed oddaniem go do użytku dostawca lub - w stosownych przypadkach - jego upoważniony przedstawiciel rejestruje ten system w unijnej bazie danych, o której mowa w art. 60. Przed wprowadzeniem do obrotu systemu sztucznej inteligencji wysokiego ryzyka, o którym mowa w art. 6 ust. 2, lub przed oddaniem go do użytku dostawca lub - w stosownych przypadkach - jego upoważniony przedstawiciel rejestruje ten system w unijnej bazie danych, o której mowa w art. 60, zgodnie z art. 60 ust. 2;

Poprawka 479

Wniosek dotyczący rozporządzenia Artykuł 51 - akapit 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
Przed oddaniem do użytku lub użyciem systemu sztucznej inteligencji wysokiego ryzyka zgodnie z art. 6 ust. 2 następujące kategorie operatorów sztucznej inteligencji rejestrują stosowanie tego systemu sztucznej inteligencji w bazie danych UE, o której mowa w art. 60:

Poprawka 480

Wniosek dotyczący rozporządzenia

Artykuł 51 - akapit 1 b (nowy)

Tekst proponowany przez Komisję Poprawka
Operatorzy sztucznej inteligencji, którzy nie są objęci zakresem ust. 1a, są uprawnieni do dobrowolnej rejestracji korzystania z systemu sztucznej inteligencji wysokiego ryzyka, o którym mowa w art. 6 ust. 2, w unijnej bazie danych, o której mowa w art. 60.

Poprawka 481

Wniosek dotyczący rozporządzenia Artykuł 51 - akapit 1 c (nowy)

Tekst proponowany przez Komisję Poprawka
Aktualny wpis dotyczący rejestracji musi zostać uzupełniony niezwłocznie po każdej istotnej zmianie.

Poprawka 482

Wniosek dotyczący rozporządzenia

Tytuł  IV

Tekst proponowany przez Komisję Poprawka
OBOWIĄZKI W ZAKRESIE PRZEJRZYSTOŚCI W ODNIESIENIU DO OKREŚLONYCH SYSTEMÓW SZTUCZNEJ INTELIGENCJI OBOWIĄZKI W ZAKRESIE PRZEJRZYSTOŚCI
Poprawka 483

Wniosek dotyczący rozporządzenia

Artykuł 52 - nagłówek

a) operatorzy sztucznej inteligencji będący organami publicznymi lub instytucjami, organami, urzędami lub agencjami Unii bądź operatorzy sztucznej inteligencji działających w ich imieniu;

b) operatorzy sztucznej inteligencji będący przedsiębiorstwami wyznaczonymi jako strażnik dostępu na podstawie rozporządzenia (UE) 2022/1925.

Tekst proponowany przez Komisję Poprawka
Obowiązki w zakresie przejrzystości w odniesieniu do określonych systemów sztucznej inteligencji Obowiązki w zakresie przejrzystości

Poprawka 484

Wniosek dotyczący rozporządzenia

Artykuł 52 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Dostawcy zapewniają, aby systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi projektowano i opracowywano w taki sposób, aby osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem sztucznej inteligencji, chyba że okoliczności i kontekst korzystania z systemu jednoznacznie na to wskazują. Obowiązek ten nie ma zastosowania do systemów sztucznej inteligencji zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom, prowadzenia dochodzeń/śledztw w związku z przestępstwami i ścigania ich sprawców, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa. 1. Dostawcy zapewniają, aby systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi projektowano i opracowywano w taki sposób, aby system sztucznej inteligencji, sam dostawca lub użytkownik informował osoby fizyczne mające kontakt z systemem sztucznej inteligencji w odpowiednim czasie, w jasny i zrozumiały sposób o tym, że prowadzą interakcję z systemem sztucznej inteligencji, chyba że okoliczności i kontekst korzystania z systemu jednoznacznie na to wskazują.

W stosownych przypadkach informacje te obejmują również to, które funkcje są wspomagane sztuczną inteligencją, czy istnieje nadzór ze strony człowieka, oraz kto jest odpowiedzialny za proces decyzyjny, a także istniejące prawa i procesy, które zgodnie z prawem Unii i prawem krajowym umożliwiają osobom fizycznym lub ich przedstawicielom sprzeciw wobec stosowania w ich przypadku takich systemów oraz dochodzenie roszczeń na drodze sądowej w odniesieniu do decyzji podjętych przez systemy sztucznej inteligencji lub szkód przez nie spowodowanych, w tym prawo do uzyskania wyjaśnień. Obowiązek ten nie ma zastosowania do systemów sztucznej inteligencji zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom, prowadzenia dochodzeń/śledztw w związku z przestępstwami i ścigania ich sprawców, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.

Poprawka 485

Wniosek dotyczący rozporządzenia

Artykuł 52 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Użytkownicy systemów rozpoznawania emocji lub systemów kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania. Obowiązek ten nie ma zastosowania do systemów sztucznej inteligencji wykorzystywanych do kategoryzacji biometrycznej zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom i prowadzenia docho- dzeń/śledztw w związku z przestępstwami. 2. Użytkownicy systemów rozpoznawania emocji lub systemów kategoryzacji biometrycznej, które nie są zakazane na mocy art. 5, informują w odpowiednim czasie, w jasny i zrozumiały sposób osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania i uzyskują ich zgodę przed przetwarzaniem ich danych biometrycznych i innych danych osobowych zgodnie z rozporządzeniem (UE) 2016/679, rozporządzeniem (UE) 2016/1725 i dyrektywą (UE) 2016/280, stosownie do przypadku. Obowiązek ten nie ma zastosowania do systemów sztucznej inteligencji wykorzystywanych do kategoryzacji biometrycznej zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom i prowadzenia dochodzeń/śledztw w związku z przestępstwami.

Poprawka 486

Wniosek dotyczący rozporządzenia

Artykuł 52 - ustęp 3 - akapit 1

Tekst proponowany przez Komisję Poprawka
3. Użytkownicy systemu sztucznej inteligencji, który generuje obrazy, treści dźwiękowe lub treści wideo, które łudząco przypominają istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia, lub który tymi obrazami i treściami manipuluje, przez co osoba będąca ich odbiorcą mogłaby niesłusznie uznać je za autentyczne lub prawdziwe ("deepfake"), ujawniają, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji. 3. Użytkownicy systemu sztucznej inteligencji, który generuje treści tekstowe, dźwiękowe lub wizualne lub tymi treściami manipuluje, i treści te można by niesłusznie uznać za autentyczne lub prawdziwe i przedstawiają one osoby - bez ich zgody - wypowiadające słowa lub wykonujące czynności, których nie powiedziały i nie zrobiły ("deepfake"), ujawniają w odpowiednim czasie, w jasny i zrozumiały sposób, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji oraz podają imię i nazwisko osoby fizycznej lub nazwę osoby prawnej odpowiedzialnej za ich wygenerowanie lub zmanipulowanie. Ujawnienie oznacza oznakowanie treści informacją, że treść jest nieautentyczna, wyraźnie widoczną dla odbiorcy tych treści. Przy oznaczaniu treści użytkownicy uwzględniają powszechnie uznane najnowsze, odpowiednie zharmonizowane normy i specyfikacje.

Poprawka 487

Wniosek dotyczący rozporządzenia

Artykuł 52 - ustęp 3 - akapit 2

Tekst proponowany przez Komisję Poprawka
Przepisy akapitu pierwszego nie mają jednak zastosowania w przypadku, gdy korzystanie z takich rozwiązań zatwierdzono z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom, prowadzenia dochodzeń/śledztw w związku z przestępstwami i ścigania ich sprawców lub gdy jest to konieczne do wykonywania prawa do wolności wypowiedzi i prawa do wolności sztuki i nauki zagwarantowanych w Karcie praw podstawowych Unii Europejskiej, z zastrzeżeniem odpowiednich gwarancji zabezpieczających prawa i wolności osób trzecich. 3a. Ust. 3 nie ma zastosowania w przypadku, gdy korzystanie z systemu sztucznej inteligencji, który generuje treści tekstowe, dźwiękowe lub wizualne lub tymi treściami manipuluje, zatwierdzono z mocy prawa lub gdy jest to konieczne do wykonywania prawa do wolności wypowiedzi i prawa do wolności sztuki i nauki zagwarantowanych w Karcie praw podstawowych Unii Europejskiej, z zastrzeżeniem odpowiednich gwarancji zabezpieczających prawa i wolności osób trzecich. W przypadku gdy treści stanowią część wyraźnie twórczej, satyrycznej, artystycznej lub fikcyjnej kinematografii, gier wideo oraz analogicznego utworu lub programu, obowiązki w zakresie przejrzystości określone w ust. 3 ograniczają się do ujawnienia istnienia takich wygenerowanych lub zmanipulowanych treści w odpowiedni jasny i widoczny sposób, który nie utrudnia wyświetlania utworu i, w stosownych przypadkach, ujawniania mających zastosowanie praw autorskich. Nie uniemożliwia to również organom ścigania stosowania systemów sztucznej inteligencji służących wykrywaniu fałszywych treści oraz zapobieganiu przestępstwom związanym z ich wykorzystywaniem, prowadzeniu dochodzeń w ich sprawie i ich ściganiu.

Poprawka 488

Wniosek dotyczący rozporządzenia

Artykuł 52 - ustęp 3 b (nowy)

Tekst proponowany przez Komisję Poprawka
3b. Informacje, o których mowa w ust. 1-3, są przekazywane osobom fizycznym najpóźniej w momencie pierwszej interakcji lub kontaktu. Informacje te są przystępne dla osób wymagających szczególnego traktowania, takich jak osoby z niepełnosprawnościami lub dzieci, uzupełnia się je, w stosownych przypadkach i gdy jest to właściwe, o procedury umożliwiające narażonej osobie fizycznej interwencję lub oznakowanie treści, z uwzględnieniem ogólnie uznanego poziomu techniki oraz odpowiednich norm zharmonizowanych i wspólnych specyfikacji.

Poprawka 489

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Piaskownice regulacyjne w zakresie AI tworzone przez jeden właściwy organ państwa członkowskiego lub większą liczbę takich organów, lub przez Europejskiego Inspektora Ochrony Danych zapewniają kontrolowane środowisko ułatwiające opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem ich do użytku zgodnie z określonym planem. Tego rodzaju działalność musi przebiegać pod bezpośrednim nadzorem właściwych organów i zgodnie z ich wytycznymi, aby zapewnić zgodność z wymogami niniejszego rozporządzenia oraz - w stosownych przypadkach - z innymi przepisami prawa Unii i prawa państw członkowskich objętymi nadzorem w ramach piaskownicy. 1. Państwa członkowskie ustanawiają co najmniej jedną piaskownicę regulacyjną w zakresie sztucznej inteligencji na szczeblu krajowym, która powinna działać najpóźniej w dniu rozpoczęcia stosowania niniejszego rozporządzenia. Piaskownicę taką można również ustanowić wspólnie z jednym innym państwem członkowskim lub z kilkoma innymi państwami członkowskimi.

Poprawka 490

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a. Można również ustanowić dodatkowe piaskownice regulacyjne w zakresie sztucznej inteligencji na szczeblu regionalnym lub lokalnym bądź wspólnie z innymi państwami członkowskimi.

Poprawka 491

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 b (nowy)

Tekst proponowany przez Komisję Poprawka
1b. Komisja i Europejski Inspektor Ochrony Danych samodzielnie, wspólnie lub we współpracy z co najmniej jednym państwem członkowskim mogą również ustanowić piaskownice regulacyjne w zakresie sztucznej inteligencji na szczeblu Unii.

Poprawka 492

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 c (nowy)

Tekst proponowany przez Komisję Poprawka
1c. Organy ustanawiające przydzielają wystarczające zasoby, aby skutecznie i terminowo zapewnić zgodność z niniejszym artykułem.

Poprawka 493

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 d (nowy)

Tekst proponowany przez Komisję Poprawka
1d. Zgodnie z kryteriami określonymi w art. 53a piaskownice regulacyjne w zakresie sztucznej inteligencji zapewniają kontrolowane środowisko sprzyjające innowacjom oraz ułatwiające opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem ich do użytku zgodnie z określonym planem uzgodnionym między potencjalnymi dostawcami a organem ustanawiającym.

Poprawka 494

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 e (nowy)

Tekst proponowany przez Komisję Poprawka
1e. Utworzenie piaskownicy regulacyjnej w zakresie sztucznej inteligencji zmierza do wniesienia wkładu w osiągnięcie następujących celów:

a) w przypadku właściwych organów - udzielanie wskazówek potencjalnym dostawcom systemów sztucznej inteligencji w celu osiągnięcia zgodności regulacyjnej z niniejszym rozporządzeniem lub, w stosownych przypadkach, z innymi obowiązującymi przepisami Unii i państw członkowskich;

b) w przypadku potencjalnych dostawców - umożliwienie i ułatwienie testowania i opracowywania innowacyjnych rozwiązań związanych z systemami sztucznej inteligencji;

c) uczenie się działań regulacyjnych w kontrolowanym środowisku.

Poprawka 495

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 f (nowy)

Tekst proponowany przez Komisję Poprawka
1f. Organy ustanawiające zapewniają wytyczne i nadzór w ramach piaskownicy w celu identyfikowania zagrożeń, w szczególności dla praw podstawowych, demokracji i praworządności, zdrowia i bezpieczeństwa oraz środowiska, w celu testowania i demonstracji środków ograniczających zidentyfikowane zagrożenia oraz ich skuteczności, a także w celu zapewnienia zgodności z wymogami niniejszego rozporządzenia oraz, w stosownych przypadkach, z innymi przepisami Unii i państw członkowskich.

Poprawka 496

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 1 g (nowy)

Tekst proponowany przez Komisję Poprawka
1g. Organy ustanawiające zapewniają potencjalnym dostawcom piaskownicy, którzy opracowują systemy sztucznej inteligencji wysokiego ryzyka, wytyczne i nadzór nad sposobem spełnienia wymogów określonych w niniejszym rozporządzeniu, tak aby systemy sztucznej inteligencji mogły opuścić piaskownicę z domniemaniem zgodności ze szczegółowymi wymogami niniejszego rozporządzenia, które oceniono w ramach piaskownicy. W zakresie, w jakim system sztucznej inteligencji spełnia wymogi przy wyjściu z piaskownicy, domniemywa się, że jest on zgodny z niniejszym rozporządzeniem. W związku z tym w kontekście procedur oceny zgodności lub kontroli w ramach nadzoru rynku organy nadzoru rynku lub jednostki notyfikowane uwzględniają w stosownych przypadkach sprawozdania dotyczące wyjścia sporządzone przez organ ustanawiający.

Poprawka 497

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Państwa członkowskie zapewniają, aby w zakresie, w jakim innowacyjne systemy sztucznej inteligencji wiążą się z przetwarzaniem danych osobowych lub z innego tytułu wchodzą w zakres kompetencji nadzorczych innych organów krajowych lub właściwych organów zapewniających dostęp do danych lub wsparcie w uzyskaniu dostępu do danych, krajowe organy ochrony danych oraz te inne organy krajowe włączono w działalność piaskownicy regulacyjnej w zakresie AI. 2. Organy ustanawiające zapewniają, aby w zakresie, w jakim innowacyjne systemy sztucznej inteligencji wiążą się z przetwarzaniem danych osobowych lub z innego tytułu wchodzą w zakres kompetencji nadzorczych innych organów krajowych lub właściwych organów zapewniających dostęp do danych osobowych lub wsparcie w uzyskaniu dostępu do tych danych, krajowe organy ochrony danych, a w przypadkach, o których mowa w ust. 1b - EIOD, oraz te inne organy krajowe włączono w działalność piaskownicy regulacyjnej w zakresie AI oraz zaangażowano w kontrolę nad tymi aspektami w pełnym zakresie wynikającym z ich odpowiednich uprawnień.

Poprawka 498

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Piaskownice regulacyjne w zakresie AI pozostają bez wpływu na uprawnienia właściwych organów w zakresie nadzoru i stosowania środków naprawczych. Wykrycie jakichkolwiek istotnych zagrożeń dla zdrowa i bezpieczeństwa oraz dla praw podstawowych na etapie opracowywania i testowania takich systemów powoduje konieczność natychmiastowego zaradzenia tym zagrożeniom, a w przypadku ich nieusunięcia - skutkuje zawieszeniem procesu opracowywania i testowania systemu, dopóki wspomniane zagrożenia nie zostaną wyeliminowane. 3. Piaskownice regulacyjne w zakresie AI pozostają bez wpływu na uprawnienia właściwych organów w zakresie nadzoru i stosowania środków naprawczych, w tym na szczeblu regionalnym lub lokalnym. Wykrycie jakichkolwiek istotnych zagrożeń dla praw podstawowych, demokracji, praworządności, zdrowia, bezpieczeństwa lub środowiska na etapie opracowywania i testowania takich systemów sztucznej inteligencji powoduje konieczność natychmiastowego i właściwego zaradzenia tym zagrożeniom. Właściwe organy są uprawnione do tymczasowego lub trwałego zawieszenia procesu testowania lub udziału w piaskownicy, jeżeli skuteczne ograniczenie nie jest możliwe, oraz informują o takiej decyzji Urząd ds. Sztucznej Inteligencji.

Poprawka 499

Wniosek dotyczący rozporządzen

Artykuł 53 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Uczestnicy korzystający z piaskownicy regulacyjnej w zakresie AI ponoszą odpowiedzialność, przewidzianą w mających zastosowanie przepisach dotyczących odpowiedzialności przyjętych na szczeblu Unii i na szczeblu państw członkowskich, za wszelkie szkody wyrządzone osobom trzecim w wyniku eksperymentów prowadzonych w piaskownicy. 4. Potencjalni dostawcy korzystający z piaskownicy regulacyjnej w zakresie AI ponoszą odpowiedzialność, przewidzianą w mających zastosowanie przepisach dotyczących odpowiedzialności przyjętych na szczeblu Unii i na szczeblu państw członkowskich, za wszelkie szkody wyrządzone osobom trzecim w wyniku eksperymentów prowadzonych w piaskownicy. O ile jednak potencjalni dostawcy respektują plan, o którym mowa w ust. 1c, oraz warunki udziału, a także stosują się w dobrej wierze do wytycznych organu ustanawiającego, władze nie nakładają kar administracyjnych w związku z naruszeniem niniejszego rozporządzenia.

Poprawka 500

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Właściwe organy państw członkowskich, które utworzyły piaskownice regulacyjne w zakresie AI, koordynują swoje działania i prowadzą współpracę w ramach Europejskiej Rady ds. Sztucznej Inteligencji. Wspomniane organy przedkładają Radzie i Komisji sprawozdania roczne dotyczące rezultatów wdrażania tych programów, uwzględniając dobre praktyki, wyciągnięte wnioski, zalecenia dotyczące tworzenia piaskownic regulacyjnych i - w stosownych przypadkach - zalecenia dotyczące stosowania niniejszego rozporządzenia i innych przepisów Unii objętych nadzorem w ramach piaskownicy. 5. Organy ustanawiające koordynują swoje działania i prowadzą współpracę w ramach Urzędu ds. Sztucznej Inteligencji.

Poprawka 501

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 5 a (nowy)

Tekst proponowany przez Komisję Poprawka
5a. Organy ustanawiające informują Urząd ds. Sztucznej Inteligencji o utworzeniu piaskownicy oraz mogą zwrócić się o wsparcie i wytyczne. Urząd ds. Sztucznej Inteligencji udostępnia publicznie wykaz planowanych i istniejących piaskownic i aktualizuje go, aby zachęcić do większej interakcji w ramach piaskownic regulacyjnych i do współpracy transnarodowej.

Poprawka 502

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 5 b (nowy)

Tekst proponowany przez Komisję Poprawka
5b. Organy ustanawiające przedkładają Urzędowi ds. Sztucznej Inteligencji oraz Komisji - chyba że Komisja jest jedynym organem ustanawiającym - sprawozdania roczne, przy czym pierwsze rok po utworzeniu piaskownicy, a następne co roku aż do jej zamknięcia, a także sprawozdanie końcowe. Wspomniane sprawozdania zawierają informacje o postępach i wynikach wdrożenia piaskownic, w tym również o najlepszych praktykach, incydentach, wyciągniętych wnioskach i zaleceniach dotyczących tworzenia piaskownic regulacyjnych, a w stosownych przypadkach - zalecenia dotyczące stosowania i ewentualnego przeglądu niniejszego rozporządzenia i innych przepisów Unii objętych nadzorem w ramach piaskownicy. Owe roczne sprawozdania lub ich streszczenia są udostępniane publicznie w internecie.

Poprawka 503

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Zasady i warunki funkcjonowania piaskownic regulacyjnych w zakresie AI, w tym kryteria kwalifikowalności i procedury regulujące ubieganie się o uczestnictwo w piaskownicy, selekcję uczestników, uczestnictwo i rezygnowanie z uczestnictwa w piaskownicy regulacyjnej, a także kwestie dotyczące praw i obowiązków uczestników piaskownic określa się w aktach wykonawczych. Wspomniane akty wykonawcze przyjmuje się zgodnie z procedurą sprawdzającą, o której mowa w art. 74 ust. 2. 6. Komisja opracowuje jednolity i specjalny interfejs zawierający wszystkie istotne informacje dotyczące piaskownic, a także pojedynczy punkt kontaktowy na szczeblu Unii w celu interakcji z piaskownicami regulacyjnymi i umożliwienia zainteresowanym stronom zwracania się z pytaniami do właściwych organów oraz poszukiwania niewiążących wytycznych dotyczących zgodności innowacyjnych produktów, usług i modeli biznesowych obejmujących technologie sztucznej inteligencji.

W stosownych przypadkach Komisja proaktywnie koordynuje swoje działania z organami krajowymi, regionalnymi i lokalnymi.

Poprawka 504

Wniosek dotyczący rozporządzenia

Artykuł 53 - ustęp 6 a (nowy)

Tekst proponowany przez Komisję Poprawka
6a. Do celów ust. 1 i 1a Komisja odgrywa rolę uzupełniającą, umożliwiając państwom członkowskim posługiwanie się tą wiedzą fachową, a z drugiej strony pomagając państwom członkowskim, które potrzebują pomocy w tworzeniu i prowadzeniu tych piaskownic regulacyjnych, oraz udostępniając im wiedzę techniczną i zasoby.

Poprawka 505

Wniosek dotyczący rozporządzenia

Artykuł 53 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 53a

Zasady i funkcjonowanie piaskownic regulacyjnych w zakresie sztucznej inteligencji

1. Aby uniknąć fragmentacji w całej Unii, Komisja, w porozumieniu z Urzędem ds. Sztucznej Inteligencji, przyjmuje akt delegowany określający szczegółowe zasady tworzenia, opracowywania, wdrażania i funkcjonowania piaskownic regulacyjnych w zakresie sztucznej inteligencji oraz nadzoru nad nimi, w tym kryteria kwalifikowalności i procedurę składania wniosków, wyboru, uczestnictwa i wycofania się z piaskownicy, a także prawa i obowiązki uczestników w oparciu o przepisy określone w niniejszym artykule.

2. Komisja jest uprawniona do przyjęcia aktów delegowanych zgodnie z procedurą, o której mowa w art. 73, nie później niż 12 miesięcy po wejściu niniejszego rozporządzenia w życie i dba o to, aby:

a) piaskownice regulacyjne były otwarte dla każdego potencjalnego dostawcy systemu sztucznej inteligencji, który złoży wniosek i spełnia kryteria kwalifikowalności i wyboru; kryteria dostępu do piaskownicy regulacyjnej są przejrzyste i sprawiedliwe, a organy ustanawiające informują wnioskodawców o swojej decyzji w terminie trzech miesięcy od złożenia wniosku;

b) piaskownice regulacyjne umożliwiały szeroki i równy dostęp oraz nadążały za popytem, jeżeli chodzi o uczestnictwo;

c) dostęp do piaskownic regulacyjnych w zakresie sztucznej inteligencji był nieodpłatny dla MŚP i przedsiębiorstw typu startup, bez uszczerbku dla nadzwyczajnych kosztów, do których odzyskania w sprawiedliwy i proporcjonalny sposób mogą być uprawnione organy ustanawiające;

d) piaskownice regulacyjne ułatwiały zaangażowanie innych odpowiednich podmiotów w ekosystem sztucznej inteligencji, takich jak jednostki notyfikowane i organizacje normalizacyjne (MŚP, przedsiębiorstwa typu startup, inne przedsiębiorstwa, innowatorzy, ośrodki testowo-doświad- czalne, laboratoria badawcze i eksperymentalne, ośrodki innowacji cyfrowych, centra doskonałości i poszczególni naukowcy), aby umożliwić i ułatwić współpracę z sektorem publicznym i prywatnym;

e) umożliwiały one potencjalnym dostawcom wypełnienie, w kontrolowanym środowisku, obowiązków w zakresie oceny zgodności wynikających z niniejszego rozporządzenia lub dobrowolne stosowanie kodeksów postępowania, o których mowa w art. 69;

f) procedury, procesy i wymogi administracyjne dotyczące składania wniosków, wyboru, uczestnictwa i wyjścia z piaskownicy były proste, łatwe do zrozumienia, jasno podane do wiadomości w celu ułatwienia uczestnictwa MŚP i przedsiębiorstwom typu startup o ograniczonych zdolnościach prawnych i administracyjnych, a także by były takie same w całej Unii, aby uniknąć fragmentacji, oraz aby uczestnictwo w piaskownicy regulacyjnej ustanowionej przez państwo członkowskie, Komisję lub EIOD było wzajemnie i jednolicie uznawane i miało takie same skutki prawne w całej Unii;

g) uczestnictwo w piaskownicy regulacyjnej w zakresie sztucznej inteligencji było ograniczone do okresu, który odpowiada złożoności i skali projektu;

h) piaskownice ułatwiały tworzenie narzędzi i infrastruktury do testowania, analizy porównawczej, oceny i wyjaśniania aspektów systemów sztucznej inteligencji istotnych dla piaskownic, takich jak dokładność, odporność i cyberbezpie- czeństwo, a także do minimalizacji zagrożeń dla praw podstawowych, środowiska i ogółu społeczeństwa.

3. Potencjalnym dostawcom piaskownic, w szczególności MŚP i przedsiębiorstwom typu startup, ułatwia się dostęp do usług poprzedzających wdrożenie, takich jak wytyczne dotyczące wdrażania niniejszego rozporządzenia, do innych usług o wartości dodanej, takich jak pomoc w zakresie dokumentów normalizacyjnych oraz certyfikacji i konsultacji, a także do innych inicjatyw jednolitego rynku cyfrowego, takich jak ośrodki testowe i doświadczalne, centra cyfrowe, centra doskonałości i zdolności UE w zakresie analizy porównawczej.

Poprawka 506

Wniosek dotyczący rozporządzenia

Artykuł 54 - nagłówek

Tekst proponowany przez Komisję Poprawka
Dalsze przetwarzanie danych osobowych na potrzeby opracowywania określonych systemów sztucznej inteligencji w interesie publicznym w ramach piaskownicy regulacyjnej w zakresie AI Dalsze przetwarzanie danych na potrzeby opracowywania określonych systemów sztucznej inteligencji w interesie publicznym w ramach piaskownicy regulacyjnej w zakresie AI

Poprawka 507

Wniosek dotyczący rozporządzenia

Artykuł 54 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. W piaskownicy regulacyjnej w zakresie AI dane osobowe zgromadzone zgodnie z prawem w innych celach przetwarza się na potrzeby opracowywania i testowania określonych innowacyjnych systemów sztucznej inteligencji w ramach piaskownicy na następujących warunkach: 1. W piaskownicy regulacyjnej w zakresie AI dane osobowe zgromadzone zgodnie z prawem w innych celach można przetwarzać wyłącznie na potrzeby opracowywania i testowania określonych innowacyjnych systemów sztucznej inteligencji w ramach piaskownicy z zastrzeżeniem spełnienia wszystkich następujących warunków:

Poprawka 508

Wniosek dotyczący rozporządzenia

Artykuł 54 - ustęp 1 - litera a - wprowadzenie

Tekst proponowany przez Komisję Poprawka
a) innowacyjne systemy sztucznej inteligencji opracowuje się w celu zapewnienia ochrony ważnego interesu publicznego w co najmniej jednym z poniższych obszarów: a) systemy sztucznej inteligencji opracowuje się w celu zapewnienia ochrony ważnego interesu publicznego w co najmniej jednym z poniższych obszarów:

(ii) bezpieczeństwo publiczne i zdrowie publiczne, uwzględniając wykrywanie i diagnozowanie chorób, zapobieganie chorobom, zwalczanie ich i ich leczenie;

(iii) wysoki poziom ochrony środowiska i poprawa jego jakości, ochrona różnorodności biologicznej, zanieczyszczenie, a także łagodzenie zmiany klimatu i przystosowanie się do niej;

(iii a) bezpieczeństwo i odporność systemów transportowych, infrastruktury krytycznej i sieci.

Poprawka 509

Wniosek dotyczący rozporządzenia Artykuł 54 - ustęp 1 - litera a - podpunkt i

Tekst proponowany przez Komisję Poprawka
(i) zapobieganie przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub egzekwowania sankcji karnych, w tym ochrona przed zagrożeniami dla bezpieczeństwa publicznego i zapobieganie takim zagrożeniom pod nadzorem właściwych organów i na ich odpowiedzialność. Przetwarzanie prowadzi się w oparciu o prawo państwa członkowskiego lub prawo Unii; skreśla się

Poprawka 510

Wniosek dotyczący rozporządzenia Artykuł 54 - ustęp 1 - litera c

Tekst proponowany przez Komisję Poprawka
c) ustanowiono skuteczne mechanizmy monitorowania pozwalające zidentyfikować wszelkie poważne zagrożenia dla praw podstawowych osób, których dane dotyczą, jakie mogą wystąpić w trakcie przeprowadzania eksperymentów w ramach piaskownicy, a także mechanizm reagowania zapewniający możliwość szybkiego zaradzenia tym zagrożeniom oraz - w stosownych przypadkach - wstrzymania przetwarzania; c) ustanowiono skuteczne mechanizmy monitorowania pozwalające zidentyfikować wszelkie poważne zagrożenia dla praw i wolności osób, których dane dotyczą, jak przewidziano w art. 35 rozporządzenia (UE) 2016/679 i w art. 35 rozporządzenia (UE) 2018/1725, jakie mogą wystąpić w trakcie przeprowadzania eksperymentów w ramach piaskownicy, a także mechanizm reagowania zapewniający możliwość szybkiego zaradzenia tym zagrożeniom oraz - w stosownych przypadkach - wstrzymania przetwarzania;

Poprawka 511

Wniosek dotyczący rozporządzenia

Artykuł 54 - ustęp 1 - litera d

Tekst proponowany przez Komisję Poprawka
d) wszelkie dane osobowe, które mają być przetwarzane w kontekście piaskownicy, znajdują się w funkcjonalnie wyodrębnionym, odizolowanym i chronionym środowisku przetwarzania danych podlegającym kontroli uczestników korzystających z piaskownicy, a dostęp do tych danych posiadają wyłącznie upoważnione osoby; d) wszelkie dane osobowe, które mają być przetwarzane w kontekście piaskownicy, znajdują się w funkcjonalnie wyodrębnionym, odizolowanym i chronionym środowisku przetwarzania danych podlegającym kontroli potencjalnego dostawcy, a dostęp do tych danych posiadają wyłącznie upoważnione osoby;

Poprawka 512

Wniosek dotyczący rozporządzenia Artykuł 54 - ustęp 1 - litera f

Tekst proponowany przez Komisję Poprawka
f) żadne przypadki przetwarzania danych osobowych w kontekście piaskownicy nie mogą prowadzić do wdrożenia środków lub podjęcia decyzji wywierających wpływ na osoby, których dane dotyczą; f) żadne przypadki przetwarzania danych osobowych w kontekście piaskownicy nie mogą prowadzić do wdrożenia środków lub podjęcia decyzji wywierających wpływ na osoby, których dane dotyczą, ani nie wpływają na stosowanie ich praw określonych w prawie Unii dotyczącym ochrony danych osobowych;

Poprawka 513

Wniosek dotyczący rozporządzenia

Artykuł 54 - ustęp 1 - litera g

Tekst proponowany przez Komisję Poprawka
g) wszelkie dane osobowe przetwarzane w kontekście piaskownicy usuwa się po zakończeniu uczestnictwa w piaskownicy lub po upływie okresu przechowywania danych osobowych; g) wszelkie dane osobowe przetwarzane w kontekście piaskownicy chroni się za pomocą odpowiednich środków technicznych i organizacyjnych oraz usuwa się po zakończeniu uczestnictwa w piaskownicy lub po upływie okresu przechowywania danych osobowych;

Poprawka 514

Wniosek dotyczący rozporządzenia

Artykuł 54 - ustęp 1 - litera h

Tekst proponowany przez Komisję Poprawka
h) rejestry ewidencjonujące przetwarzanie danych osobowych w kontekście piaskownicy przechowuje się przez cały czas uczestnictwa w piaskownicy oraz przez jeden rok po jego zakończeniu, wyłącznie w celu wywiązania się z obowiązków w zakresie rozliczalności i dokumentacji ustanowionych w niniejszym artykule lub w innych mających zastosowanie przepisach prawa Unii lub prawa państw członkowskich i wyłącznie przez okres niezbędny do wywiązania się z tych obowiązków; h) rejestry ewidencjonujące przetwarzanie danych osobowych w kontekście piaskownicy przechowuje się przez cały czas uczestnictwa w piaskownicy;

Poprawka 515

Wniosek dotyczący rozporządzenia

Artykuł 54 - ustęp 1 - litera j

Tekst proponowany przez Komisję Poprawka
j) krótkie podsumowanie projektu w zakresie sztucznej inteligencji opracowanego w ramach piaskownicy, jego celów i oczekiwanych rezultatów opublikowano na stronie internetowej właściwych organów. j) krótkie podsumowanie systemu sztucznej inteligencji opracowanego w ramach piaskownicy, jego celów, założeń i oczekiwanych rezultatów opublikowano na stronie internetowej właściwych organów.

Poprawka 516

Wniosek dotyczący rozporządzenia

Artykuł 54 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 54a

Promowanie badań i rozwoju w obszarze sztucznej inteligencji w celu wsparcia wyników korzystnych społecznie i środowiskowo

1. Państwa członkowskie promują badania i rozwój w obszarze rozwiązań w zakresie sztucznej inteligencji, które wspierają wyniki korzystne społecznie i środowiskowo, w tym między innymi rozwój rozwiązań opartych na sztucznej inteligencji w celu zwiększenia dostępności dla osób z niepeł- nosprawnościami, eliminowania nierówności społeczno-gospodarczych oraz osiągnięcia celów środowiskowych przez:

a) zapewnianie odpowiednim projektom dostępu do piaskownic regulacyjnych w zakresie AI na zasadzie pierwszeństwa, o ile spełniają one warunki kwalifikowalności;

b) przeznaczanie finansowania publicznego, w tym z odpowiednich funduszy UE, na badania i rozwój w obszarze sztucznej inteligencji w celu wsparcia wyników korzystnych społecznie i środowiskowo;

c) organizowanie specjalnych wydarzeń informacyjnych na temat stosowania niniejszego rozporządzenia oraz dostępności i zastosowania procedur dotyczących specjalnego finansowania, dostosowanego do potrzeb tych projektów;

d) w stosownych przypadkach tworzenie dostępnych specjalnych kanałów komunikacji z projektami, w tym w ramach piaskownic, aby zapewniać im wytyczne i odpowiadać na ich pytania dotyczące wdrażania niniejszego rozporządzenia.

Państwa członkowskie wspierają społeczeństwo obywatelskie i zainteresowane strony społeczne w kierowaniu takimi projektami lub w uczestnictwie w nich.

Poprawka 517

Wniosek dotyczący rozporządzenia

Artykuł 55 - nagłówek

Tekst proponowany przez Komisję Poprawka
Środki na rzecz drobnych dostawców i użytkowników Środki na rzecz MŚP, przedsiębiorstw typu startup i użytkowników

Poprawka 518

Wniosek dotyczący rozporządzenia

Artykuł 55 - ustęp 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) zapewniają drobnym dostawcom i przedsiębiorstwom typu startup dostęp do piaskownic regulacyjnych w zakresie AI na zasadzie pierwszeństwa, o ile spełniają oni warunki kwalifi- kowalności; a) zapewniają MŚP i przedsiębiorstwom typu startup mającym siedzibę w Unii dostęp do piaskownic regulacyjnych w zakresie AI na zasadzie pierwszeństwa, o ile spełniają one warunki kwalifikowalności;

Poprawka 519

Wniosek dotyczący rozporządzenia

Artykuł 55 - ustęp 1 - litera b

Tekst proponowany przez Komisję Poprawka
b) organizują specjalne wydarzenia informacyjne poświęcone stosowaniu przepisów niniejszego rozporządzenia dostosowane do indywidualnych potrzeb drobnych dostawców i użytkowników; b) organizują specjalne wydarzenia informacyjne oraz wydarzenia służące rozwijaniu zaawansowanych umiejętności cyfrowych poświęcone stosowaniu przepisów niniejszego rozporządzenia, dostosowane do indywidualnych potrzeb MŚP, przedsiębiorstw typu startup i użytkowników;

Poprawka 520

Wniosek dotyczący rozporządzenia

Artykuł 55 - ustęp 1 - litera c

Tekst proponowany przez Komisję Poprawka
c) w stosownych przypadkach tworzą specjalny kanał komunikacji z drobnymi dostawcami i z użytkownikami oraz z innymi innowacyjnymi podmiotami, aby zapewniać im wytyczne i odpowiadać na ich pytania dotyczące wdrażania niniejszego rozporządzenia. c) korzystają z istniejących specjalnych kanałów komunikacji, a w stosownych przypadkach tworzą nowe specjalne kanały komunikacji z MŚP, przedsiębiorstwami typu startup, użytkownikami oraz z innymi innowacyjnymi podmiotami, aby udzielać im wskazówek i odpowiadać na ich pytania dotyczące wdrażania niniejszego rozporządzenia.

Poprawka 521

Wniosek dotyczący rozporządzenia

A rtrrlml ncton 1 r* a itttmrui

Tekst proponowany przez Komisję Poprawka
ca) wspierają udział MŚP i innych odpowiednich stron w procesie opracowywania norm;

Poprawka 522

Wniosek dotyczący rozporządzenia

Artykuł 55 _ ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Przy ustalaniu wysokości opłat z tytułu oceny zgodności przeprowadzanej zgodnie z art. 43 bierze się pod uwagę szczególne interesy i potrzeby drobnych dostawców, obniżając te opłaty proporcjonalnie do wielkości wspomnianych dostawców i do wielkości rynku. 2. Przy ustalaniu wysokości opłat z tytułu oceny zgodności przeprowadzanej zgodnie z art. 43 bierze się pod uwagę szczególne interesy i potrzeby MŚP, przedsiębiorstw typu startup i użytkowników, obniżając te opłaty proporcjonalnie do etapu ich rozwoju, ich rozmiarów, wielkości rynku i popytu na rynku. Komisja regularnie ocenia koszty certyfikacji i przestrzegania przepisów ponoszone przez MŚP i przedsiębiorstwa typu startup, w tym w drodze przejrzystych konsultacji z MŚP, przedsiębiorstwami typu startup i użytkownikami, oraz współpracuje z państwami członkowskimi na rzecz obniżenia w miarę możliwości tych kosztów. Komisja zdaje sprawę z tych ustaleń Parlamentowi Europejskiemu i Radzie w ramach sprawozdania z oceny i przeglądu niniejszego rozporządzenia, przewidzianego w art. 84 ust. 2.

Poprawka 523

Wniosek dotyczący rozporządzenia Artykuł 56 _ Sekcja 1 _ nagłówek

Tekst proponowany przez Komisję Poprawka
Tytuł

SEKCJA 1: Przepisy ogólne dotyczące Europejskiego Urzędu ds. Sztucznej Inteligencji

Poprawka 524

Wniosek dotyczący rozporządzenia Artykuł 56 _ nagłówek

Tekst proponowany przez Komisję Poprawka
Ustanowienie Europejskiej Rady ds. Sztucznej Inteligencji Ustanowienie Europejskiego Urzędu ds. Sztucznej Inteligencji

Poprawka 525

Wniosek dotyczący rozporządzenia

Artykuł 56 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Ustanawia się Europejską Radę ds. Sztucznej Inteligencji ("Rada"). 1. Niniejszym ustanawia się Europejski Urząd ds. Sztucznej Inteligencji ("Urząd ds. Sztucznej Inteligencji"). Urząd ds. Sztucznej Inteligencji jest niezależnym organem Unii. Posiada on osobowość prawną.

Poprawka 526

Wniosek dotyczący rozporządzenia

Artykuł 56 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
2. Rada udziela Komisji porad i wsparcia, aby: 2. Urząd ds. Sztucznej Inteligencji posiada sekretariat oraz otrzymuje odpowiednie środki finansowe i personel, aby wykonywać swoje zadania zgodnie z niniejszym rozporządzeniem.

Poprawka 527

Wniosek dotyczący rozporządzenia Artykuł 56 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
2a. Siedziba Urzędu ds. Sztucznej Inteligencji mieści się w Brukseli.

Poprawka 528

Wniosek dotyczący rozporządzenia

Artykuł 56 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 56a Struktura

W skład struktury administracyjnej i kierowniczej Urzędu ds. Sztucznej Inteligencji wchodzą:

a) zarząd, w tym przewodniczący;

b) sekretariat, którym kieruje dyrektor wykonawczy;

c) forum doradcze.

Poprawka 529

Wniosek dotyczący rozporządzenia

Artykuł 56 b (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 56b

Zadania Urzędu ds. Sztucznej Inteligencji

Urząd ds. Sztucznej Inteligencji wykonuje następujące zadania:

a) wspiera, doradza i współpracuje z państwami członkowskimi, krajowymi organami nadzoru, Komisją oraz innymi instytucjami, organami i jednostkami organizacyjnymi Unii w odniesieniu do wdrażania niniejszego rozporządzenia;

b) monitoruje i zapewnia skuteczne i spójne stosowanie niniejszego rozporządzenia bez uszczerbku dla zadań krajowych organów nadzorczych;

c) przyczynia się do koordynacji między krajowymi organami nadzoru odpowiedzialnymi za stosowanie niniejszego rozporządzenia;

d) pełni rolę mediatora w dyskusjach na temat poważnych sporów, jakie mogą wyniknąć między właściwymi organami w odniesieniu do stosowania rozporządzenia;

e) koordynuje wspólne dochodzenia na podstawie art. 66a;

f) przyczynia się do skutecznej współpracy z właściwymi organami państw trzecich i z organizacjami międzynarodowymi;

g) gromadzi wiedzę fachową i najlepsze praktyki państw członkowskich oraz dzieli się nimi, a także wspiera krajowe organy nadzoru państw członkowskich i Komisję w rozwijaniu organizacyjnej i technicznej wiedzy fachowej wymaganej do wdrożenia niniejszego rozporządzenia, w tym poprzez ułatwianie tworzenia i utrzymywania unijnej puli ekspertów;

h) z własnej inicjatywy bądź na wniosek swojego zarządu lub Komisji bada kwestie związane z wykonaniem niniejszego rozporządzenia oraz wydaje opinie, zalecenia lub pisemne uwagi, w tym w odniesieniu do następujących kwestii:

(i) specyfikacje techniczne lub istniejące normy;

(ii) wytyczne Komisji;

(iii) kodeks postępowania i jego zastosowanie we współpracy z branżą i innymi właściwymi zainteresowanymi stronami;

(iv) ewentualny przegląd rozporządzenia, przygotowanie aktów delegowanych oraz ewentualne dostosowanie niniejszego rozporządzenia do aktów prawnych wymienionych w załączniku II;

(v) tendencje, takie jak europejska globalna konkurencyjność w dziedzinie sztucznej inteligencji, absorpcja sztucznej inteligencji w Unii, rozwój umiejętności cyfrowych oraz pojawiające się zagrożenia systemowe związane ze sztuczną inteligencją;

(vi) wytyczne dotyczące tego, w jaki sposób niniejsze rozporządzenie należy stosować do stale zmieniającej się typologii łańcuchów wartości sztucznej inteligencji, w szczególności w odniesieniu do wynikających z tego konsekwencji pod względem odpowiedzialności wszystkich zaangażowanych podmiotów;

i) publikuje:

(i) sprawozdanie roczne obejmujące ocenę wykonania niniejszego rozporządzenia, przegląd zgłoszeń poważnych incydentów, o których mowa w art. 62, oraz funkcjonowania bazy danych, o której mowa w art. 60;

(ii) zalecenia dla Komisji dotyczące kategoryzacji zakazanych praktyk, systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III, kodeksów postępowania, o których mowa w art. 69, oraz stosowania zasad ogólnych określonych w art. 4a;

j) wspiera organy w tworzeniu i rozwijaniu piaskownic regulacyjnych oraz ułatwia współpracę między piaskownicami regulacyjnymi;

k) organizuje spotkania z agencjami Unii i organami zarządzającymi, których zadania są związane ze sztuczną inteligencją i wdrażaniem niniejszego rozporządzenia;

l) organizuje kwartalne konsultacje z forum doradczym, a w stosownych przypadkach - konsultacje publiczne z innymi zainteresowanymi stronami, a także podaje wyniki tych konsultacji do wiadomości publicznej na swojej stronie internetowej;

m) upowszechnia w społeczeństwie wiedzę o korzyściach, zagrożeniach, gwarancjach, prawach i obowiązkach związanych z użytkowaniem systemów sztucznej inteligencji;

Dz.U. C z 23.1.2024

PL

Tekst proponowany przez Komisję

Poprawka

n)
ułatwia opracowywanie wspólnych kryteriów i wspólnego rozumienia przez podmioty gospodarcze i właściwe organy odpowiednich pojęć przewidzianych w niniejszym rozporządzeniu;
o)
zapewnia monitorowanie modeli generatywnych oraz organizuje regularny dialog z twórcami modeli generatywnych na temat kwestii ich zgodności, a także systemów sztucznej inteligencji wykorzystujących takie modele sztucznej inteligencji;
p)
zapewnia wytyczne interpretacyjne dotyczące tego, w jaki sposób akt w sprawie sztucznej inteligencji ma zastosowanie do stale zmieniającej się typologii łańcuchów wartości sztucznej inteligencji oraz jakie będą konsekwencje, jeżeli chodzi o odpowiedzialność wszystkich zaangażowanych podmiotów, w ramach różnych scenariuszy opartych na powszechnie uznanym aktualnym stanie wiedzy, w tym również w kontekście odpowiednich norm zharmonizowanych;
q)
zapewnia szczególny nadzór i monitorowanie oraz instytu- cjonalizuje regularny dialog z dostawcami modeli genera- tywnych na temat zgodności modeli generatywnych, a także systemów sztucznej inteligencji, które wykorzystują takie modele sztucznej inteligencji, z art. 28b niniejszego rozporządzenia oraz na temat najlepszych praktyk branżowych w zakresie samorządności; wszelkie takie posiedzenia powinny być otwarte dla krajowych organów nadzorczych, jednostek notyfikowanych i organów nadzoru rynku, które powinny mieć możliwość uczestnictwa w nich i przekazania swoich wkładów;
r)
wydaje i okresowo aktualizuje wytyczne dotyczące progów służących do kwalifikacji treningu modelu generatywnego jako dużego cyklu szkoleniowego, rejestruje i monitoruje znane przypadki dużych serii szkoleniowych oraz wydaje roczne sprawozdanie na temat aktualnej sytuacji w zakresie opracowywania, rozpowszechniania i stosowania modeli generatywnych wraz z wariantami strategicznymi w celu przeciwdziałania zagrożeniom i korzystania z możliwości, jakie są specyficzne dla modeli generatywnych;
s)
promuje kompetencje w zakresie sztucznej inteligencji zgodnie z art. 4b.

Poprawka 530

Wniosek dotyczący rozporządzenia

Artykuł 56 c (nowy)

Tekst proponowany przez Komisję

Poprawka

Artykuł  56c

Odpowiedzialność, niezależność i przejrzystość

1. 
Urząd ds. Sztucznej Inteligencji:
a)
odpowiada przed Parlamentem Europejskim i Radą zgodnie z niniejszym rozporządzeniem;

ELI: http://data.europa.eu/eli/C/2024/506/oj

219/291 b) wykonuje swoje zadania lub korzysta ze swoich uprawnień w sposób niezależny oraz

c) zapewnia wysoki poziom przejrzystości swoich działań i opracowuje dobre praktyki administracyjne w tym zakresie.

Przepisy rozporządzenia (WE) nr 1049/2001 mają zastosowanie do dokumentów będących w posiadaniu Urzędu ds. Sztucznej Inteligencji.

Poprawka 531

Wniosek dotyczący rozporządzenia

Artykuł - 57 a (nowy) -Sekcja 2 - nagłówek

Tekst proponowany przez Komisję Poprawka

Tytuł

SEKCJA 2: Zarząd

Poprawka 532

Wniosek dotyczący rozporządzenia

Artykuł - 57 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł - 57a

Skład zarządu

1. Skład zarządu jest następujący:

a) jeden przedstawiciel krajowego organu nadzorczego z każdego państwa członkowskiego;

b) jeden przedstawiciel Komisji;

c) jeden przedstawiciel Europejskiego Inspektora Ochrony Danych (EIOD);

d) jeden przedstawiciel Agencji Unii Europejskiej ds. Cyber- bezpieczeństwa (ENISA);

e) jeden przedstawiciel Agencji Praw Podstawowych Unii Europejskiej (FRA).

Każdy przedstawiciel krajowego organu nadzorczego ma jeden głos. Przedstawiciele Komisji, EIOD, ENISA i FRA nie mają prawa głosu. Każdy członek ma zastępcę. Przy powoływaniu członków i zastępców członków zarządu uwzględnia się potrzebę równowagi płci. Nazwiska członków zarządu i ich zastępców podaje się do wiadomości publicznej.

2. Członkowie i zastępcy członków zarządu nie mogą zajmować stanowisk ani reprezentować interesów handlowych będących w sprzeczności z jakimikolwiek kwestiami związanymi ze stosowaniem niniejszego rozporządzenia.

3. Zasady dotyczące posiedzeń i głosowania w zarządzie oraz mianowania i odwoływania dyrektora wykonawczego określa regulamin wewnętrzny, o którym mowa w art.-57b lit. a).

Poprawka 533

Wniosek dotyczący rozporządzenia

Artykuł - 57 b (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł - 57b

Funkcje zarządu

1. Zarząd ma następujące zadania:

a) podejmuje strategiczne decyzje dotyczące działalności Urzędu ds. Sztucznej Inteligencji oraz przyjmuje regulamin wewnętrzny większością dwóch trzecich głosów swoich członków;

b) egzekwuje postanowienia swojego regulaminu wewnętrznego;

c) przyjmuje jednolity dokument programowy Urzędu ds. Sztucznej Inteligencji i roczne sprawozdanie publiczne oraz przekazuje obydwa te dokumenty Parlamentowi Europejskiemu, Radzie, Komisji i Trybunałowi Obrachunkowemu;

d) przyjmuje budżet Urzędu ds. Sztucznej Inteligencji;

e) powołuje dyrektora wykonawczego, a w stosownych przypadkach przedłuża lub skraca jego kadencję bądź odwołuje go ze stanowiska;

f) podejmuje decyzje w sprawie ustanowienia wewnętrznych struktur Urzędu ds. Sztucznej Inteligencji, a w razie potrzeby w sprawie modyfikacji owych struktur wewnętrznych niezbędnych do realizacji zadań Urzędu ds. Sztucznej Inteligencji.

Poprawka 534

Wniosek dotyczący rozporządzenia

Artykuł - 57 c (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł - 57c

Przewodniczący zarządu

1. Zarząd wybiera zwykłą większością głosów spośród swoich głosujących członków przewodniczącego i dwóch wiceprzewodniczących.

2. Kadencja przewodniczącego i wiceprzewodniczących trwa cztery lata. Kadencja przewodniczącego i wiceprzewodniczących może być odnowiona jeden raz.

Poprawka 535

Wniosek dotyczący rozporządzenia

Artykuł 57 - Sekcja 3 - nagłówek

Tekst proponowany przez Komisję Poprawka
Struktura Rady Sekretariat

Poprawka 536

Wniosek dotyczący rozporządzenia

Artykuł 57 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. W skład Rady wchodzą krajowe organy nadzorcze reprezentowane przez osobę stojącą na czele danego organu lub równoważnego wysokiego rangą urzędnika danego organu oraz Europejski Inspektor Ochrony Danych. Inne organy krajowe mogą być zapraszane na posiedzenia Rady, na których omawia się istotne dla nich kwestie. 1. Działalnością sekretariatu zarządza dyrektor wykonawczy. Dyrektor wykonawczy odpowiada przed zarządem. Bez uszczerbku dla odpowiednich uprawnień zarządu i instytucji Unii dyrektor wykonawczy nie zwraca się o instrukcje ani ich nie przyjmuje od żadnego rządu ani od innych organów.

Poprawka 537

Wniosek dotyczący rozporządzenia

Artykuł 57 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Rada przyjmuje regulamin wewnętrzny, po zatwierdzeniu go przez Komisję, zwykłą większością głosów swoich członków. Regulamin wewnętrzny reguluje również aspekty operacyjne związane z wykonywaniem zadań Rady wyszczególnionych w art. 58. W stosownych przypadkach Rada może również tworzyć podgrupy na potrzeby zbadania konkretnych kwestii. 2. Dyrektor wykonawczy uczestniczy w wysłuchaniach we wszelkich sprawach związanych z działalnością Urzędu ds. Sztucznej Inteligencji i na zaproszenie Parlamentu Europejskiego lub Rady składa sprawozdanie z wykonywanych przez siebie obowiązków dyrektora wykonawczego.

Poprawka 538

Wniosek dotyczący rozporządzenia

Artykuł 57 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Radzie przewodniczy Komisja. Komisja zwołuje posiedzenia i przygotowuje porządek obrad zgodnie z zadaniami Rady określonymi w niniejszym rozporządzeniu oraz z jej regulaminem wewnętrznym. Komisja udziela administracyjnego i analitycznego wsparcia na potrzeby działań Rady podejmowanych na podstawie niniejszego rozporządzenia. 3. Dyrektor wykonawczy reprezentuje Urząd ds. Sztucznej Inteligencji, w tym również na forach międzynarodowych zajmujących się współpracą w zakresie sztucznej inteligencji.

Poprawka 539

Wniosek dotyczący rozporządzenia

Artykuł 57 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Rada może zapraszać zewnętrznych ekspertów i obserwatorów do udziału w swoich posiedzeniach oraz może organizować konsultacje z zainteresowanymi osobami trzecimi, wykorzystując w odpowiednim stopniu uzyskane w ten sposób informacje jako wkład w jej działalność. W tym celu Komisja może podejmować działania sprzyjające wymianie informacji między Radą a innymi organami, urzędami, agencjami i grupami doradczymi Unii. 4. Sekretariat zapewnia zarządowi i forum doradczemu wsparcie analityczne, administracyjne i logistyczne niezbędne do wykonywania zadań Urzędu ds. Sztucznej Inteligencji, w tym poprzez:
a) wdrażanie decyzji, programów i działań przyjętych przez zarząd;
b) przygotowywanie co roku projektu jednolitego dokumentu programowego, projektu budżetu, rocznego sprawozdania z działalności Urzędu ds. Sztucznej Inteligencji, projektów opinii i projektów stanowisk Urzędu ds. Sztucznej Inteligencji, a także przedkładanie ich zarządowi;
c) koordynację z forami międzynarodowymi na potrzeby współpracy w dziedzinie sztucznej inteligencji.

Poprawka 540

Wniosek dotyczący rozporządzenia

Artykuł 58 - Sekcja 4 - nagłówek

Tekst proponowany przez Komisję Poprawka
Zadania Rady Forum Doradcze

Poprawka 541

Wniosek dotyczący rozporządzenia

Artykuł 58 - akapit 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
Udzielając Komisji porad i wsparcia zgodnie z art. 56 ust. 2, Rada w szczególności: Forum doradcze zapewnia Urzędowi ds. Sztucznej Inteligencji wkład zainteresowanych stron w sprawy związane z niniejszym rozporządzeniem, w szczególności w odniesieniu do zadań określonych w art. 56b lit. l).

Poprawka 542

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 2 (nowy)

Tekst proponowany przez Komisję Poprawka
Skład forum doradczego stanowi wyważony wybór zainteresowanych stron, w tym przemysłu, przedsiębiorstw typu startup, MŚP, społeczeństwa obywatelskiego, partnerów społecznych i środowisk akademickich. Skład forum doradczego jest zrównoważony pod względem interesów handlowych i niekomercyjnych, a w ramach kategorii interesów handlowych - w odniesieniu do MŚP i innych przedsiębiorstw.

Poprawka 543

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 3 (nowy)

Tekst proponowany przez Komisję Poprawka
Zarząd powołuje członków forum doradczego zgodnie z procedurą wyboru ustanowioną w regulaminie wewnętrznym Urzędu ds. Sztucznej Inteligencji oraz z uwzględnieniem potrzeby przejrzystości i zgodnie z kryteriami określonymi w ust. 2.

Poprawka 544

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 4 (nowy)

Tekst proponowany przez Komisję Poprawka
Kadencja członków forum doradczego trwa dwa lata i może by przedłużona o maksymalnie cztery lata.

Poprawka 545

Wniosek dotyczący rozporządzenia

Artykuł 58 - akapit 5 (nowy)

Tekst proponowany przez Komisję Poprawka
Stałymi członkami forum doradczego są Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) oraz Europejski Instytut Norm Telekomunikacyjnych (ETSI). Wspólne Centrum Badawcze jest stałym członkiem bez prawa głosu.

Poprawka 546

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 6 (nowy)

Tekst proponowany przez Komisję Poprawka
Komitet doradczy sporządza swój regulamin. Wybiera dwóch współprzewodniczących spośród swoich członków, zgodnie z kryteriami określonymi w ust. 2. Kadencja współprzewodniczących trwa dwa lata z możliwością jednokrotnego odnowienia.

Poprawka 547

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 7 (nowy)

Tekst proponowany przez Komisję Poprawka
Forum doradcze odbywa posiedzenia co najmniej cztery razy w roku. Forum doradcze może zapraszać na swoje posiedzenia ekspertów i inne zainteresowane strony. Dyrektor wykonawczy z urzędu może uczestniczyć w posiedzeniach forum doradczego.

Poprawka 548

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 8 (nowy)

Tekst proponowany przez Komisję Poprawka
Wypełniając rolę określoną w ust. 1, forum doradcze może przygotowywać opinie, zalecenia i uwagi pisemne.

Poprawka 549

Wniosek dotyczący rozporządzenia

Artykuł 58 - akapit 9 (nowy)

Tekst proponowany przez Komisję Poprawka
W stosownych przypadkach forum doradcze może tworzyć stałe lub tymczasowe podgrupy do badania konkretnych kwestii związanych z celami niniejszego rozporządzenia.

Poprawka 550

Wniosek dotyczący rozporządzenia Artykuł 58 - akapit 10 (nowy)

Tekst proponowany przez Komisję Poprawka
Forum doradcze przygotowuje roczne sprawozdanie ze swoich działań. Sprawozdanie to jest podawane do wiadomości publicznej.

Poprawka 551

Wniosek dotyczący rozporządzenia Artykuł 58 - Sekcja 5 - nagłówek

Tekst proponowany przez Komisję Poprawka
Europejskie organy ds. analizy porównawczej

Poprawka 552

Wniosek dotyczący rozporządzenia Artykuł 58 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 58a

Analiza porównawcza

Europejskie organy ds. analizy porównawczej, o których mowa w art. 15 ust. 1a, oraz Urząd ds. Sztucznej Inteligencji, w ścisłej współpracy z partnerami międzynarodowymi, wspólnie opracowują racjonalne pod względem kosztów wytyczne i zdolności do pomiaru i porównywania aspektów systemów i komponentów sztucznej inteligencji, w szczególności modeli generatywnych, istotnych dla zgodności i egzekwowania niniejszego rozporządzenia w oparciu o powszechnie uznany stan wiedzy technicznej, w tym wiedzę, której odzwierciedleniem są odpowiednie normy zharmonizowane.

Poprawka 553

Wniosek dotyczący rozporządzenia

Artykuł 59 - nagłówek

Tekst proponowany przez Komisję Poprawka
Wyznaczanie właściwych organów krajowych Wyznaczanie krajowych organów nadzorczych

Poprawka 554

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Każde państwo członkowskie ustanawia lub wyznacza właściwe organy krajowe na potrzeby zapewnienia stosowania i wdrażania niniejszego rozporządzenia. Właściwe organy krajowe organizuje się w sposób gwarantujący obiektywizm i bezstronność podejmowanych przez nie działań i wykonywanych przez nie zadań. 1. Do dnia ... [trzy miesiące od daty wejścia w życie niniejszego rozporządzenia] każde państwo członkowskie wyznacza jeden krajowy organ nadzorczy, który organizuje się w sposób gwarantujący obiektywizm i bezstronność podejmowanych przez niego działań i wykonywanych przez niego zadań.

Poprawka 555

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Każde państwo członkowskie wyznacza krajowy organ nadzorczy spośród właściwych organów krajowych. Krajowy organ nadzorczy pełni funkcję organu notyfikującego i organu nadzoru rynku, chyba że za wyznaczeniem przez państwo członkowskie więcej niż jednego organu przemawiają względy organizacyjne i administracyjne. 2. Krajowy organ nadzorczy dba o stosowanie i wdrożeni niniejszego rozporządzenia. W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka związanych z produk tami, do których mają zastosowanie akty prawne wymienion w załączniku II, właściwe organy wyznaczone na mocy tyc aktów prawnych nadal prowadzą procedury administracyjne Jednakże w zakresie, w jakim sprawa dotyczy aspektów objętych wyłącznie niniejszym rozporządzeniem, właściw organy są związane środkami dotyczącymi tych aspektów wydanymi przez krajowy organ nadzorczy wyznaczony n mocy niniejszego rozporządzenia. Krajowy organ nadzorcz pełni funkcję organu nadzoru rynku.

Poprawka 556

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Państwa członkowskie informują Komisję o wyznaczonym przez siebie organie lub wyznaczonych przez siebie organach, w stosownych przypadkach podając przyczyny wyznaczenia więcej niż jednego organu. 3. Państwa członkowskie podają do wiadomości publicznej i przekazują Urzędowi ds. Sztucznej Inteligencji i Komisji nazwę krajowego organu nadzorczego oraz informacje, w jaki sposób można się z nim skontaktować, do dnia ... [trzy miesiące po wejściu w życie niniejszego rozporządzenia]. Krajowy organ nadzorczy działa jako pojedynczy punkt kontaktowy w odniesieniu do niniejszego rozporządzenia i powinien być dostępny za pomocą środków łączności elektronicznej.

Poprawka 557

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Państwa członkowskie zapewniają, aby właściwe organy krajowe dysponowały odpowiednimi zasobami finansowymi i ludzkimi umożliwiającymi im wykonywanie zadań powierzonych im na podstawie niniejszego rozporządzenia. Właściwe organy krajowe muszą w szczególności stale mieć do dyspozycji wystarczającą liczbą pracowników, których kompetencje i wiedza fachowa obejmują dogłębną znajomość kwestii z zakresu technologii sztucznej inteligencji, danych i metod przetwarzania danych, praw podstawowych, zagrożeń dla zdrowia i bezpieczeństwa oraz wiedzę na temat obowiązujących norm i wymogów prawnych. 4. Państwa członkowskie dbają o to, aby krajowe organy nadzorcze dysponowały odpowiednimi zasobami technicznymi, finansowymi i ludzkimi, a także infrastrukturą niezbędną do skutecznego wykonywania zadań powierzonych im na podstawie niniejszego rozporządzenia. Krajowe organy nadzorcze muszą w szczególności stale mieć do dyspozycji wystarczającą liczbą pracowników, których kompetencje i wiedza fachowa obejmują dogłębną znajomość kwestii z zakresu technologii sztucznej inteligencji, danych i metod przetwarzania danych, ochrony danych osobowych, cyberbezpieczeństwa, prawa konkurencji, praw podstawowych, zagrożeń dla zdrowia i bezpieczeństwa oraz wiedzę na temat obowiązujących norm i wymogów prawnych. Państwa członkowskie co roku oceniają i w razie potrzeby aktualizują wymogi dotyczące kompetencji i zasobów, o których mowa w niniejszym ustępie.

Poprawka 558

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
4a. Każdy krajowy organ nadzorczy wykonuje swoje uprawnienia i obowiązki w sposób niezależny, bezstronny i wolny od uprzedzeń. Członkowie każdego krajowego organu nadzorczego podczas wypełniania swoich zadań i wykonywania swoich uprawnień zgodnie z niniejszym rozporządzeniem nie zwracają się do nikogo o instrukcje ani ich nie przyjmują od żadnych podmiotów oraz nie podejmują żadnych działań niezgodnych z ich obowiązkami.

Poprawka 559

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 4 b (nowy)

Tekst proponowany przez Komisję Poprawka
4b. Krajowe organy nadzorcze spełniają minimalne wymogi w zakresie cyberbezpieczeństwa określone dla jednostek administracji publicznej zidentyfikowanych jako operatorzy usług kluczowych zgodnie z dyrektywą (UE) 2022/2555.

Poprawka 560

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 4 c (nowy)

Tekst proponowany przez Komisję Poprawka
4c. Wykonując swoje zadania, krajowy organ nadzorczy działa zgodnie z obowiązkami w zakresie poufności określonymi w art. 70.

Poprawka 561

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Państwa członkowskie co roku przekazują Komisji sprawozdania dotyczące stanu zasobów finansowych i ludzkich właściwych organów krajowych wraz z oceną ich odpowied- niości. Komisja przekazuje te informacje Radzie w celu ich omówienia i ewentualnego wydania zaleceń. 5. Państwa członkowskie co roku przekazują Komisji sprawozdania dotyczące stanu zasobów finansowych i ludzkich krajowego organu nadzorczego wraz z oceną ich odpowied- niości. Komisja przekazuje te informacje Urzędowi ds. Sztucznej Inteligencji w celu ich omówienia i ewentualnego wydania zaleceń.

Poprawka 562

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Komisja ułatwia wymianę doświadczeń między właściwymi organami krajowymi. skreśla się

Poprawka 563

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 7

Tekst proponowany przez Komisję Poprawka
7. Właściwe organy krajowe mogą udzielać wytycznych i porad dotyczących wdrażania niniejszego rozporządzenia, w tym również drobnym dostawcom. Jeżeli właściwe organy krajowe zamierzają udzielić wytycznych i porad dotyczących systemu sztucznej inteligencji w dziedzinach objętych innymi przepisami Unii, są zobowiązane - w stosownych przypadkach - do każdorazowego zasięgnięcia opinii właściwych organów krajowych wyznaczonych na podstawie tych przepisów Unii. Państwa członkowskie mogą również utworzyć jeden centralny punkt kontaktowy na potrzeby wymiany informacji z operatorami. 7. Krajowe organy nadzorcze mogą udzielać wytycznych i porad dotyczących wdrażania niniejszego rozporządzenia, w tym również MŚP i przedsiębiorstwom typu startup, uwzględniając przy tym wytyczne i porady Urzędu ds. Sztucznej Inteligencji i Komisji. Jeżeli krajowe organy nadzorcze zamierzają udzielić wytycznych i porad dotyczących systemu sztucznej inteligencji w dziedzinach objętych innymi przepisami Unii, wytyczne należy opracować - w stosownych przypadkach - w konsultacji z właściwymi organami krajowymi wyznaczonymi na podstawie tych przepisów Unii.

Poprawka 564

Wniosek dotyczący rozporządzenia

Artykuł 59 - ustęp 8

Tekst proponowany przez Komisję Poprawka
8. Jeżeli instytucje, organy i jednostki organizacyjne Unii są objęte zakresem niniejszego rozporządzenia, funkcję właściwego organu odpowiedzialnego za sprawowanie nad nimi nadzoru pełni Europejski Inspektor Ochrony Danych. 8. Jeżeli instytucje, organy i jednostki organizacyjne Unii są objęte zakresem niniejszego rozporządzenia, funkcję właściwego organu odpowiedzialnego za sprawowanie nad nimi nadzoru i koordynację pełni Europejski Inspektor Ochrony Danych.

Poprawka 565

Wniosek dotyczący rozporządzenia

Artykuł 59 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 59a

Mechanizm współpracy między krajowymi organami nadzorczymi w sprawach dotyczących dwóch lub więcej państw członkowskich

1. Każdy krajowy organ nadzorczy wypełnia swoje zadania i wykonuje uprawnienia powierzone mu zgodnie z niniejszym rozporządzeniem na terytorium swojego państwa członkowskiego.

2. Jeżeli sprawa dotyczy co najmniej dwóch krajowych organów nadzorczych, za wiodący organ nadzorczy uznaje się krajowy organ nadzorczy państwa członkowskiego, w którym doszło do naruszenia.

3. W przypadkach, o których mowa w ust. 2, odpowiednie organy nadzorcze współpracują ze sobą i wymieniają w odpowiednim czasie wszystkie istotne informacje. Krajowe organy nadzorcze współpracują w celu osiągnięcia porozumienia.

Poprawka 566

Wniosek dotyczący rozporządzenia

Tytuł VII

Tekst proponowany przez Komisję Poprawka
VII UNIJNA BAZA DANYCH DLA SAMODZIELNYCH SYSTEMÓW SZTUCZNEJ INTELIGENCJI WYSOKIEGO RYZYKA UNIJNA BAZA DANYCH DLA SYSTEMÓW SZTUCZNEJ INTELIGENCJI WYSOKIEGO RYZYKA

Poprawka 567

Wniosek dotyczący rozporządzenia

Artykuł 60 - nagłówek

Tekst proponowany przez Komisję Poprawka
Unijna baza danych dla samodzielnych systemów sztucznej inteligencji wysokiego ryzyka Unijna baza danych dla systemów sztucznej inteligencji wysokiego ryzyka

Poprawka 568

Wniosek dotyczący rozporządzenia

Artykuł 60 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Komisja - we współpracy z państwami członkowskimi - tworzy i prowadzi unijną bazę danych zawierającą informacje, o których mowa w ust. 2, dotyczące systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w art. 6 ust. 2, które podlegają rejestracji zgodnie z art. 51. 1. Komisja - we współpracy z państwami członkowskimi - tworzy i prowadzi publiczną unijną bazę danych zawierającą informacje, o których mowa w ust. 2 i 2a, dotyczące systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w art. 6 ust. 2, które podlegają rejestracji zgodnie z art. 51.

Poprawka 569

Wniosek dotyczący rozporządzenia

Artykuł 60 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Do unijnej bazy danych dane wymienione w załączniku VIII wprowadzają dostawcy. Komisja udziela im wsparcia technicznego i administracyjnego. 2. Do unijnej bazy danych dane wymienione w załączniku VIII sekcja A wprowadzają dostawcy.

Poprawka 570

Wniosek dotyczący rozporządzenia

Artykuł 60 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
2a. Dane wymienione w załączniku VIII sekcja B są wprowadzane do bazy danych UE przez operatorów sztucznej inteligencji, którzy są organami publicznymi lub działają w imieniu organów publicznych bądź instytucji, organów, urzędów lub agencji Unii, a także przez operatorów będących przedsiębiorstwami, o których mowa w art. 51 ust. 1a i 1b.

Poprawka 571

Wniosek dotyczący rozporządzenia

Artykuł 60 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Informacje zawarte w unijnej bazie danych są publicznie dostępne. 3. Informacje zawarte w unijnej bazie danych są nieodpłatne i publicznie dostępne, przyjazne dla użytkownika, przystępne, łatwe w nawigacji i nadające się do odczytu maszynowego, a także zawierają ustrukturyzowane dane cyfrowe oparte na znormalizowanym protokole.

Poprawka 572

Wniosek dotyczący rozporządzenia

Artykuł 60 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Unijna baza danych zawiera dane osobowe wyłącznie w zakresie, w jakim jest to konieczne do celów związanych z gromadzeniem i przetwarzaniem informacji zgodnie z niniejszym rozporządzeniem. Wspomniane informacje obejmują imiona i nazwiska oraz dane kontaktowe osób fizycznych, które są odpowiedzialne za rejestrację systemu i posiadają umocowanie do reprezentowania dostawcy. 4. Unijna baza danych zawiera dane osobowe wyłącznie w zakresie, w jakim jest to konieczne do celów związanych z gromadzeniem i przetwarzaniem informacji zgodnie z niniejszym rozporządzeniem. Wspomniane informacje obejmują imiona i nazwiska oraz dane kontaktowe osób fizycznych, które są odpowiedzialne za rejestrację systemu i posiadają umocowanie do reprezentowania dostawcy lub użytkownika, który jest organem publicznym bądź instytucją, organem, urzędem lub agencją Unii, lub użytkownika występującego w ich imieniu, lub użytkownika będącego przedsiębiorstwem, o którym mowa w art. 51 ust. 1a lit. b) i ust. 1b.

Poprawka 573

Wniosek dotyczący rozporządzenia

Artykuł 60 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Komisja pełni funkcję administratora unijnej bazy danych. Zapewnia również dostawcom odpowiednie wsparcie techniczne i administracyjne. 5. Komisja pełni funkcję administratora unijnej bazy danych Zapewnia również dostawcom, a w stosownych przypadkach operatorom sztucznej inteligencji odpowiednie wsparcie tech niczne i administracyjne.

Baza danych spełnia wymogi dostępności określone w załącz niku I do dyrektywy (UE) 2019/882.

Poprawka 574

Wniosek dotyczący rozporządzenia

Artykuł 61 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. W ramach systemu monitorowania po wprowadzeniu do obrotu w aktywny i systematyczny sposób gromadzi się, dokumentuje i analizuje stosowne dane przekazywane przez użytkowników lub gromadzone z innych źródeł dotyczące skuteczności działania systemów sztucznej inteligencji wysokiego ryzyka w całym cyklu ich życia, przy czym system ten zapewnia dostawcy możliwość oceny, czy systemy sztucznej inteligencji stale spełniają wymogi ustanowione w tytule III rozdział 2. 2. W ramach systemu monitorowania po wprowadzeniu do obrotu w aktywny i systematyczny sposób gromadzi się, dokumentuje i analizuje stosowne dane przekazywane przez operatorów sztucznej inteligencji lub gromadzone z innych źródeł dotyczące skuteczności działania systemów sztucznej inteligencji wysokiego ryzyka w całym cyklu ich życia, przy czym system ten zapewnia dostawcy możliwość oceny, czy systemy sztucznej inteligencji stale spełniają wymogi ustanowione w tytule III rozdział 2. W stosownych przypadkach monitorowanie po wprowadzeniu do obrotu obejmuje analizę interakcji ze środowiskiem innych systemów sztucznej inteligencji, w tym z innymi urządzeniami i oprogramowaniem, z uwzględnieniem przepisów mających zastosowanie w obszarach takich jak ochrona danych, prawa własności intelektualnej i prawo konkurencji.

Poprawka 575

Wniosek dotyczący rozporządzenia

Artykuł 61 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. System monitorowania po wprowadzeniu do obrotu jest oparty na planie monitorowania po wprowadzeniu do obrotu. Plan monitorowania po wprowadzeniu do obrotu stanowi jeden z elementów dokumentacji technicznej, o której mowa w załączniku IV. Komisja przyjmuje akt wykonawczy zawierające szczegółowe przepisy określające wzór planu monitorowania po wprowadzeniu do obrotu oraz wykaz elementów, które należy zawrzeć w tym planie. 3. System monitorowania po wprowadzeniu do obrotu jest oparty na planie monitorowania po wprowadzeniu do obrotu. Plan monitorowania po wprowadzeniu do obrotu stanowi jeden z elementów dokumentacji technicznej, o której mowa w załączniku IV. Komisja przyjmuje akt wykonawczy zawierające szczegółowe przepisy określające wzór planu monitorowania po wprowadzeniu do obrotu oraz wykaz elementów, które należy zawrzeć w tym planie do dnia ... [12 miesięcy od dnia wejścia w życie niniejszego rozporządzenia].

Poprawka 576

Wniosek dotyczący rozporządzenia

Artykuł 62 - nagłówek

Tekst proponowany przez Komisję Poprawka
Zgłaszanie poważnych incydentów i nieprawidłowego działania Zgłaszanie poważnych incydentów

Poprawka 577

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. Dostawcy systemów sztucznej inteligencji wysokiego ryzyka wprowadzanych do obrotu w Unii zgłaszają wszelkie poważne incydenty związane z tymi systemami lub wszelkie przypadki nieprawidłowego działania tych systemów, które stanowią naruszenie obowiązków przewidzianych w prawie Unii mającym na celu ochronę praw podstawowych, organom nadzoru rynku państw członkowskich, w których doszło do danego incydentu lub naruszenia. 1. Dostawcy oraz użytkownicy systemów sztucznej inteligencji wysokiego ryzyka wprowadzanych do obrotu w Unii, jeżeli to oni zidentyfikowali poważny incydent, zgłaszają wszelkie poważne incydenty związane z tymi systemami, które stanowią naruszenie obowiązków przewidzianych w prawie Unii mającym na celu ochronę praw podstawowych, krajowym organom nadzoru państw członkowskich, w których doszło do danego incydentu lub naruszenia.

Poprawka 578

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 1 - akapit 1

Tekst proponowany przez Komisję Poprawka
Dostawca dokonuje takiego zgłoszenia niezwłocznie po ustaleniu związku przyczynowego między systemem sztucznej inteligencji a incydentem lub nieprawidłowym działaniem lub po potwierdzeniu dostatecznie wysokiego prawdopodobieństwa istnienia takiego związku, a każdym razie najpóźniej w terminie 15 dni od dnia powzięcia przez dostawców wiedzy o wystąpieniu poważnego incydentu lub nieprawidłowego działania. Dostawca lub, w stosownych przypadkach, operator sztucznej inteligencji dokonuje takiego zgłoszenia niezwłocznie po ustaleniu związku przyczynowego między systemem sztucznej inteligencji a incydentem lub po potwierdzeniu dostatecznie wysokiego prawdopodobieństwa istnienia takiego związku, a każdym razie najpóźniej w terminie 72 godzin od dnia powzięcia przez dostawcę lub, w stosownych przypadkach, operatora sztucznej inteligencji wiedzy o wystąpieniu poważnego incydentu.

Poprawka 579

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a. Po ustaleniu związku przyczynowego między systemem sztucznej inteligencji a poważnym incydentem lub uzasadnionego prawdopodobieństwa takiego związku dostawcy podejmują odpowiednie działania naprawcze zgodnie z art. 21.

Poprawka 580

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Po otrzymaniu zgłoszenia dotyczącego naruszenia obowiązków przewidzianych w prawie Unii mającym na celu ochronę praw podstawowych organ nadzoru rynku informuje o tym fakcie krajowe organy publiczne lub organy, o których mowa w art. 64 ust. 3. Komisja opracowuje specjalne wytyczne ułatwiające zapewnienie zgodności z obowiązkami określonymi w ust. 1. Wytyczne wydaje się najpóźniej w terminie 12 miesięcy od dnia wejścia niniejszego rozporządzenia w życie. 2. Po otrzymaniu zgłoszenia dotyczącego naruszenia obowiązków przewidzianych w prawie Unii mającym na celu ochronę praw podstawowych krajowy organ nadzoru informuje o tym fakcie krajowe organy publiczne lub organy, o których mowa w art. 64 ust. 3. Komisja opracowuje specjalne wytyczne ułatwiające zapewnienie zgodności z obowiązkami określonymi w ust. 1. Wytyczne wydaje się do dnia ... [data wejścia niniejszego rozporządzenia w życie] i poddaje regularnej ocenie.

Poprawka 581

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
2a. Krajowy organ nadzorczy podejmuje odpowiednie środki w ciągu siedmiu dni od daty otrzymania zgłoszenia, o którym mowa w ust. 1. Jeśli naruszenie występuje lub prawdopodobnie wystąpi w innych państwach członkowskich, krajowy organ nadzorczy powiadamia o tym Urząd ds. Sztucznej Inteligencji i odpowiednie krajowe organy nadzorcze tych państw członkowskich.

Poprawka 582

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 5 lit. b), wprowadzanych do obrotu lub oddawanych do użytku przez dostawców będących instytucjami kredytowymi podlegającymi przepisom dyrektywy 2013/36/UE i w przypadku systemów sztucznej inteligencji wysokiego ryzyka, które są związanymi z bezpieczeństwem elementami wyrobów podlegających przepisom rozporządzenia (UE) 2017/745 i rozporządzenia (UE) 2017/746 lub które same są wyrobami podlegającymi wspomnianym przepisom, zgłaszanie poważnych incydentów lub nieprawidłowego działania ogranicza się do tych poważnych incydentów i przypadków nieprawidłowego działania, które stanowią naruszenie obowiązków przewidzianych w prawie Unii mającym na celu ochronę praw podstawowych. 3. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III, wprowadzanych do obrotu lub oddawanych do użytku przez dostawców podlegających unijnym instrumentom prawnym określającym wymogi w zakresie sprawozdawczości równoważne w stosunku do wymogów określonych w niniejszym rozporządzeniu, zgłaszanie poważnych incydentów stanowiących naruszenie praw podstawowych na mocy prawa Unii przekazuje się krajowemu organowi nadzorczemu.

Poprawka 583

Wniosek dotyczący rozporządzenia

Artykuł 62 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. Krajowe organy nadzorcze co roku powiadamiają Urząd ds. Sztucznej Inteligencji o poważnych incydentach zgłoszonych im zgodnie z niniejszym artykułem.

Poprawka 584

Wniosek dotyczący rozporządzenia Artykuł 63 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. W odniesieniu do systemów sztucznej inteligencji objętych niniejszym rozporządzeniem zastosowanie mają przepisy rozporządzenia (UE) 2019/1020. Jednak do celów skutecznego egzekwowania przepisów niniejszego rozporządzenia: 1. W odniesieniu do systemów sztucznej inteligencji i modeli generatywnych objętych niniejszym rozporządzeniem zastosowanie mają przepisy rozporządzenia (UE) 2019/1020. Jednak do celów skutecznego egzekwowania przepisów niniejszego rozporządzenia:

Poprawka 585

Wniosek dotyczący rozporządzenia Artykuł 63 - ustęp 1 - litera b a (nowa)

Tekst proponowany przez Komisję Poprawka
ba) krajowe organy nadzorcze działają jako organy nadzor rynku na mocy niniejszego rozporządzenia oraz mają taki same uprawnienia i obowiązki jak organy nadzoru rynk na mocy rozporządzenia (UE) 2019/1020.

Poprawka 586

Wniosek dotyczący rozporządzenia

Artykuł 63 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Krajowy organ nadzorczy regularnie przekazuje Komisji sprawozdania dotyczące rezultatów stosownych działań w zakresie nadzoru rynku. Krajowy organ nadzorczy niezwłocznie przekazuje Komisji i odpowiednim krajowym organom ochrony konkurencji wszelkie informacje zgromadzone w trakcie podejmowania działań w zakresie nadzoru rynku, które mogą mieć potencjalnie wartość w kontekście stosowania reguł konkurencji przewidzianych w prawie Unii. 2. Krajowy organ nadzorczy co roku przekazuje Komisji i Urzędowi ds. Sztucznej Inteligencji sprawozdania dotyczące rezultatów stosownych działań w zakresie nadzoru rynku. Krajowy organ nadzorczy niezwłocznie przekazuje Komisji i odpowiednim krajowym organom ochrony konkurencji wszelkie informacje zgromadzone w trakcie podejmowania działań w zakresie nadzoru rynku, które mogą mieć potencjalnie wartość w kontekście stosowania reguł konkurencji przewidzianych w prawie Unii.

Poprawka 587

Wniosek dotyczący rozporządzenia

Artykuł 63 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. W celu zapewnienia skutecznego egzekwowania niniejszego rozporządzenia krajowe organy nadzorcze mogą:

a) przeprowadzać niezapowiedziane kontrole, na miejscu i zdalne, systemów sztucznej inteligencji wysokiego ryzyka;

b) nabywać próbki systemów sztucznej inteligencji wysokiego ryzyka, w tym w ramach kontroli zdalnych, w celu poddania systemów sztucznej inteligencji inżynierii odwrotnej i zdobycia dowodów potwierdzających brak zgodności.

Poprawka 588

Wniosek dotyczący rozporządzenia

Artykuł 63 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. W przypadku systemów sztucznej inteligencji wymienionych w załączniku III pkt 1 lit. a) - w zakresie, w jakim systemy te są wykorzystywane do celów związanych z egzekwowaniem prawa - oraz w załączniku III pkt 6 i 7 państwa członkowskie wyznaczają jako organy nadzoru rynku do celów niniejszego rozporządzenia albo właściwe organy nadzorcze odpowiedzialne za ochronę danych, o których mowa w dyrektywie (UE) 2016/680 lub w rozporządzeniu 2016/679, albo właściwe organy krajowe sprawujące nadzór nad działaniami organów ścigania, organów imigracyjnych lub organów odpowiedzialnych za udzielanie azylu oddających te systemy do użytku lub korzystających z tych systemów. 5. W przypadku systemów sztucznej inteligencji, które s wykorzystywane do celów związanych z egzekwowanie prawa, państwa członkowskie wyznaczają jako organy nadzor rynku do celów niniejszego rozporządzenia właściwe organ nadzorcze odpowiedzialne za ochronę danych, o których mow w dyrektywie (UE) 2016/680.

Poprawka 589

Wniosek dotyczący rozporządzenia

Artykuł 63 - ustęp 7

Tekst proponowany przez Komisję Poprawka
7. Państwa członkowskie ułatwiają koordynację działań między organami nadzoru rynku wyznaczonymi na podstawie niniejszego rozporządzenia a innymi odpowiednimi organami lub podmiotami krajowymi sprawującymi nadzór nad stosowaniem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II lub innych przepisów Unii, które mogą być istotne w kontekście systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III. 7. Krajowe organy nadzorcze wyznaczone na podstawie niniejszego rozporządzenia koordynują z innymi odpowiednimi organami lub podmiotami krajowymi sprawującymi nadzór nad stosowaniem unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II lub innych przepisów Unii, które mogą być istotne w kontekście systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III.

Poprawka 590

Wniosek dotyczący rozporządzenia

Artykuł 64 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Jeżeli chodzi o dostęp do danych i dokumentacji w kontekście działalności prowadzonej przez organy nadzoru rynku, organom tym zapewnia się pełny dostęp do zbiorów danych treningowych, walidacyjnych i testowych wykorzystywanych przez dostawcę, w tym za pośrednictwem interfejsów programowania aplikacji lub innych odpowiednich środków i narzędzi technicznych umożliwiających zdalny dostęp. 1. W kontekście działalności prowadzonej przez organy nadzoru rynku i na ich uzasadniony wniosek, krajowy organ nadzorczy zapewnia pełny dostęp do zbiorów danych treningowych, walidacyjnych i testowych wykorzystywanych przez dostawcę, lub, w stosownych przypadkach, przez operatora sztucznej inteligencji, które są istotne i absolutnie niezbędne do celów wniosku, za pośrednictwem odpowiednich środków i narzędzi technicznych.

Poprawka 591

Wniosek dotyczący rozporządzenia

Artykuł 64 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Jeżeli jest to konieczne do oceny zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami określonymi w tytule III rozdział 2 oraz na uzasadniony wniosek, organom nadzoru rynku zapewnia się również dostęp do kodu źródłowego systemu sztucznej inteligencji. 2. Jeżeli jest to konieczne do oceny zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami określonymi w tytule III rozdział 2, po wyczerpaniu wszystkich innych racjonalnych sposobów weryfikacji zgodności, w tym w ust. 1, które okazały się niewystarczające, oraz na uzasadniony wniosek, krajowy organ nadzorczy uzyskuje również dostęp do modeli treningowych i trenowanych systemu sztucznej inteligencji, w tym do odpowiednich parametrów jego modelu. Wszystkie uzyskane informacje zgodnie z art. 70 traktuje się jako informacje poufne i podlegają one obowiązującemu prawu Unii dotyczącemu ochrony własności intelektualnej i tajemnic przedsiębiorstwa oraz usuwa się je po zakończeniu dochodzenia, w odniesieniu do którego zwrócono się o informacje.

Poprawka 592

Wniosek dotyczący rozporządzenia

Artykuł 64 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka

2a. Ust. 1 i 2 pozostają bez uszczerbku dla praw procesowych odnośnego operatora określonych w art. 18 rozporządzenia (UE) 2019/1020.

Poprawka 593

Wniosek dotyczący rozporządzenia

Artykuł 64 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Krajowe organy lub podmioty publiczne, które nadzorują lub egzekwują przestrzeganie obowiązków wynikających z prawa Unii służącego ochronie praw podstawowych w odniesieniu do stosowania systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III, są uprawnione do żądania wszelkiej dokumentacji sporządzonej lub prowadzonej na podstawie niniejszego rozporządzenia i do uzyskania do niej dostępu, jeżeli dostęp do tej dokumentacji jest niezbędny do wykonywania ich kompetencji w ramach ich mandatu w granicach ich jurysdykcji. Odpowiedni organ lub podmiot publiczny informuje organ nadzoru rynku zainteresowanego państwa członkowskiego o każdym takim żądaniu. 3. Krajowe organy lub podmioty publiczne, które nadzorują lub egzekwują przestrzeganie obowiązków wynikających z prawa Unii służącego ochronie praw podstawowych w odniesieniu do stosowania systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III, są uprawnione do żądania wszelkiej dokumentacji sporządzonej lub prowadzonej na podstawie niniejszego rozporządzenia i do uzyskania do niej dostępu, jeżeli dostęp do tej dokumentacji jest niezbędny do wykonywania ich kompetencji w ramach ich mandatu w granicach ich jurysdykcji. Odpowiedni organ lub podmiot publiczny informuje krajowy organ nadzorczy zainteresowanego państwa członkowskiego o każdym takim żądaniu.

Poprawka 594

Wniosek dotyczący rozporządzenia

Artykuł 64 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. W terminie trzech miesięcy od wejścia w życie niniejszego rozporządzenia każde państwo członkowskie określa organy lub podmioty publiczne, o których mowa w ust. 3, i podaje ich wykaz do publicznej wiadomości na stronie internetowej krajowego organu nadzorczego. Państwa członkowskie przekazują ten wykaz Komisji i wszystkim pozostałym państwom członkowskim oraz na bieżąco go aktualizują. 4. W terminie trzech miesięcy od wejścia w życie niniejszego rozporządzenia każde państwo członkowskie określa organy lub podmioty publiczne, o których mowa w ust. 3, i podaje ich wykaz do publicznej wiadomości na stronie internetowej krajowego organu nadzorczego. Krajowe organy nadzorcze przekazują ten wykaz Komisji, Urzędowi ds. Sztucznej Inteligencji i wszystkim pozostałym krajowym organom nadzorczym oraz na bieżąco go aktualizują. Komisja publikuje na specjalnej stronie internetowej listę wszystkich właściwych organów wyznaczonych przez państwa członkowskie zgodnie z tym artykułem.

Poprawka 595

Wniosek dotyczący rozporządzenia

Artykuł 64 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. W przypadku gdy dokumentacja, o której mowa w ust. 3, jest niewystarczająca do stwierdzenia, czy nastąpiło naruszenie obowiązków wynikających z prawa Unii mającego na celu ochronę praw podstawowych, organ lub podmiot publiczny, o którym mowa w ust. 3, może wystąpić do organu nadzoru rynku z uzasadnionym wnioskiem o zorganizowanie testów systemu sztucznej inteligencji wysokiego ryzyka przy użyciu środków technicznych. Organ nadzoru rynku organizuje testy w ścisłej współpracy z wnioskującym organem lub podmiotem publicznym w rozsądnym terminie po otrzymaniu wniosku. 5. W przypadku gdy dokumentacja, o której mowa w ust. 3, jest niewystarczająca do stwierdzenia, czy nastąpiło naruszenie obowiązków wynikających z prawa Unii mającego na celu ochronę praw podstawowych, organ lub podmiot publiczny, o którym mowa w ust. 3, może wystąpić do krajowego organu nadzorczego z uzasadnionym wnioskiem o zorganizowanie testów systemu sztucznej inteligencji wysokiego ryzyka przy użyciu środków technicznych. Krajowy organ nadzorczy organizuje testy w ścisłej współpracy z wnioskującym organem lub podmiotem publicznym w rozsądnym terminie po otrzymaniu wniosku.

Poprawka 596

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Systemy sztucznej inteligencji stwarzające ryzyko rozumie się jako produkt stwarzający ryzyko w rozumieniu art. 3 pkt 19 rozporządzenia (UE) 2019/1020, o ile ryzyko wiąże się z zagrożeniem dla zdrowia i bezpieczeństwa lub praw podstawowych obywateli. 1. Systemy sztucznej inteligencji stwarzające ryzyko rozumie się jako system sztucznej inteligencji mogący mieć niekorzystny wpływ na zdrowie i bezpieczeństwo, prawa podstawowe obywateli w ujęciu ogólnym, w tym w miejscu pracy, ochronę konsumentów, środowisko, bezpieczeństwo publiczne, demokrację lub rządy prawa i inne interesy publiczne chronione przez obowiązujące unijne prawo harmonizacyjne, w stopniu wykraczającym poza wpływ uważany za uzasadniony i dopuszczalny w stosunku do przeznaczenia lub w zwykłych lub w dających się racjonalnie przewidzieć warunkach używania systemu, w tym długości okresu jego używania oraz, w stosownych przypadkach, wymogów dotyczących oddania do użytku, instalacji i konserwacji.

Poprawka 597

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
2. Jeżeli organ nadzoru rynku państwa członkowskiego ma wystarczające powody, aby uznać, że system sztucznej inteligencji stwarza ryzyko, o którym mowa w ust. 1, organ ten przeprowadza ocenę tego systemu sztucznej inteligencji pod kątem zgodności systemu ze wszystkimi wymogami i obowiązkami określonymi w niniejszym rozporządzeniu. W przypadku wystąpienia ryzyka zagrażającego ochronie praw podstawowych organ nadzoru rynku informuje o tym fakcie również odpowiednie krajowe organy lub podmioty publiczne, o których mowa w art. 64 ust. 3. Operatorzy, których to dotyczy, współpracują w razie konieczności z organami nadzoru rynku i innymi krajowymi organami lub podmiotami publicznymi, o których mowa w art. 64 ust. 3. 2. Jeżeli krajowy organ nadzorczy państwa członkowskiego ma wystarczające powody, aby uznać, że system sztucznej inteligencji stwarza ryzyko, o którym mowa w ust. 1, organ ten przeprowadza ocenę tego systemu sztucznej inteligencji pod kątem zgodności systemu ze wszystkimi wymogami i obowiązkami określonymi w niniejszym rozporządzeniu. W przypadku wystąpienia ryzyka zagrażającego prawom podstawowym krajowy organ nadzorczy niezwłocznie informuje o tym fakcie również odpowiednie krajowe organy lub podmioty publiczne, o których mowa w art. 64 ust. 3., i w pełni z nimi współpracuje. Jeśli istnieje wystarczający powód, by uważać, że system sztucznej inteligencji wykorzystuje podatność słabszych grup lub narusza ich prawa w sposób umyślny lub nieumyślny, krajowy organ nadzorczy ma obowiązek przeanalizować cele projektowe, dane wejściowe, wybór modeli, wdrażanie i wyniki systemu sztucznej inteligencji. Operatorzy, których to dotyczy, współpracują w razie konieczności z krajowym organem nadzorczym i innymi krajowymi organami lub podmiotami publicznymi, o których mowa w art. 64 ust. 3.

Poprawka 598

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 2 - akapit 1

Tekst proponowany przez Komisję Poprawka
Jeżeli w trakcie wspomnianej oceny organ nadzoru rynku stwierdzi, że system sztucznej inteligencji nie jest zgodny z wymogami i obowiązkami określonymi w niniejszym rozporządzeniu, niezwłocznie zobowiązuje danego operatora do podjęcia wszelkich odpowiednich działań naprawczych, aby zapewnić zgodność systemu sztucznej inteligencji z wymogami, wycofać system sztucznej inteligencji z rynku lub wycofać go od użytkowników w wyznaczonym przez organ rozsądnym terminie, stosownym do charakteru ryzyka. Jeżeli w trakcie wspomnianej oceny krajowy organ nadzorczy lub, w stosownych przypadkach, krajowy organ publiczny, o którym mowa w art. 64 ust. 3, stwierdzi, że system sztucznej inteligencji nie jest zgodny z wymogami i obowiązkami określonymi w niniejszym rozporządzeniu, niezwłocznie zobowiązuje danego operatora do podjęcia wszelkich odpowiednich działań naprawczych, aby zapewnić zgodność systemu sztucznej inteligencji z wymogami, wycofać system sztucznej inteligencji z rynku lub wycofać go od użytkowników w wyznaczonym przez organ rozsądnym terminie, stosownym do charakteru ryzyka, a w żadnym wypadku nie później niż w ciągu piętnastu dni roboczych lub zgodnie z odpowiednim unijnym prawodawstwem harmonizacyjnym, zależnie od przypadku.

Poprawka 599

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 2 - akapit 2

Tekst proponowany przez Komisję Poprawka
Organ nadzoru rynku informuje o tym odpowiednią jednostkę notyfikowaną. Art. 18 rozporządzenia (UE) 2019/1020 stosuje się do środków, o których mowa w akapicie drugim. Krajowy organ nadzorczy informuje o tym odpowiednią jednostkę notyfikowaną. Art. 18 rozporządzenia (UE) 2019/1020 stosuje się do środków, o których mowa w akapicie drugim.

Poprawka 600

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Jeżeli organ nadzoru rynku uzna, że niezgodność nie ogranicza się do terytorium jego państwa, informuje Komisję i inne państwa członkowskie o wynikach oceny i działaniach, do których podjęcia zobowiązał operatora. 3. Jeżeli krajowy organ nadzorczy uzna, że niezgodność nie ogranicza się do terytorium jego państwa, informuje bez zbędnej zwłoki Komisję, Urząd ds. Sztucznej Inteligencji i krajowe organy nadzorcze innych państw członkowskich o wynikach oceny i działaniach, do których podjęcia zobowiązał operatora.

Poprawka 601

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. W przypadku niepodjęcia przez operatora systemu sztucznej inteligencji odpowiednich działań naprawczych w terminie, o którym mowa w ust. 2, organ nadzoru rynku wprowadza wszelkie odpowiednie środki tymczasowe w celu zakazania lub ograniczenia udostępniania systemu sztucznej inteligencji na właściwym dla siebie rynku krajowym, wycofania produktu z rynku lub wycofania go od użytkowników. Organ ten niezwłocznie powiadamia Komisję i pozostałe państwa członkowskie o tych środkach. 5. W przypadku niepodjęcia przez operatora systemu sztucznej inteligencji odpowiednich działań naprawczych w terminie, o którym mowa w ust. 2, krajowy organ nadzorczy wprowadza wszelkie odpowiednie środki tymczasowe w celu zakazania lub ograniczenia udostępniania systemu sztucznej inteligencji lub wprowadzania go do użytku na właściwym dla siebie rynku krajowym, wycofania systemu sztucznej inteligencji z rynku lub wycofania go od użytkowników. Organ ten natychmiast powiadamia Komisję, Urząd ds. Sztucznej Inteligencji i krajowe organy nadzorcze pozostałych państw członkowskich o tych środkach.

Poprawka 602

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 6 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
6. W powiadomieniu, o którym mowa w ust. 5, zawiera się wszelkie dostępne informacje szczegółowe, w szczególności dane niezbędne do identyfikacji niezgodnego z przepisami systemu sztucznej inteligencji, pochodzenie systemu sztucznej inteligencji, charakter domniemanej niezgodności i związanego z nią ryzyka, charakter i okres obowiązywania zastosowanych środków krajowych oraz argumenty przedstawione przez operatora, którego to dotyczy. W szczególności organy nadzoru rynku wskazują, czy niezgodność wynika z co najmniej jednego z następujących czynników: 6. W powiadomieniu, o którym mowa w ust. 5, zawiera się wszelkie dostępne informacje szczegółowe, w szczególności dane niezbędne do identyfikacji niezgodnego z przepisami systemu sztucznej inteligencji, pochodzenie systemu sztucznej inteligencji i łańcuch dostaw, charakter domniemanej niezgodności i związanego z nią ryzyka, charakter i okres obowiązywania zastosowanych środków krajowych oraz argumenty przedstawione przez operatora, którego to dotyczy. W szczególności krajowe organy nadzorcze wskazują, czy niezgodność wynika z co najmniej jednego z następujących czynników:

Poprawka 603

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 6 - litera a

Tekst proponowany przez Komisję Poprawka
a) niespełnienia przez system sztucznej inteligencji wymogów określonych w tytule III rozdział 2; a) niespełnienia przez system sztucznej inteligencji wysokiego ryzyka wymogów określonych w niniejszym rozporządzeniu;

Poprawka 604

Wniosek dotyczący rozporządzenia Artykuł 65 - ustęp 6 - litera b a (nowa)

Tekst proponowany przez Komisję Poprawka
ba) nieprzestrzegania zakazu praktyk w zakresie sztucznej inteligencji, o których mowa w art. 5;

Poprawka 605

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 6 - litera b b (nowa)

Tekst proponowany przez Komisję Poprawka
bb) nieprzestrzegania przepisów określonych w art. 52.

Poprawka 606

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 7

Tekst proponowany przez Komisję Poprawka
7. Organy nadzoru rynku państw członkowskich inne niż organ nadzoru rynku państwa członkowskiego, w którym wszczęto postępowanie, niezwłocznie informują Komisję i pozostałe państwa członkowskie o wszelkich przyjętych środkach i przekazują wszelkie posiadane dodatkowe informacje dotyczące niezgodności odnośnego systemu sztucznej inteligencji z przepisami, a w przypadku gdy nie zgadzają się ze zgłoszonym środkiem krajowym - zgłaszają swój sprzeciw. 7. Krajowe organy nadzorcze państw członkowskich inne niż krajowy organ nadzorczy państwa członkowskiego, w którym wszczęto postępowanie, niezwłocznie informują Komisję, Urząd ds. Sztucznej Inteligencji i pozostałe państwa członkowskie o wszelkich przyjętych środkach i przekazują wszelkie posiadane dodatkowe informacje dotyczące niezgodności odnośnego systemu sztucznej inteligencji z przepisami, a w przypadku gdy nie zgadzają się ze zgłoszonym środkiem krajowym - zgłaszają swój sprzeciw.

Poprawka 607

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 8

Tekst proponowany przez Komisję Poprawka
8. Jeżeli w terminie trzech miesięcy od dnia otrzymania powiadomienia, o którym mowa w ust. 5, ani państwo członkowskie, ani Komisja nie zgłoszą sprzeciwu wobec środka tymczasowego przyjętego przez dane państwo członkowskie, taki środek uznaje się za uzasadniony. Pozostaje to bez uszczerbku dla praw procesowych odnośnego operatora określonych w art. 18 rozporządzenia (UE) 2019/1020. 8. Jeżeli w terminie trzech miesięcy od dnia otrzymania powiadomienia, o którym mowa w ust. 5, ani krajowy organ nadzorczy państwa członkowskiego, ani Komisja nie zgłoszą sprzeciwu wobec środka tymczasowego przyjętego przez dany krajowy organ nadzorczy innego państwo członkowskie, taki środek uznaje się za uzasadniony. Pozostaje to bez uszczerbku dla praw procesowych odnośnego operatora określonych w art. 18 rozporządzenia (UE) 2019/1020. Okres, o którym mowa w zdaniu pierwszym niniejszego ustępu, skraca się do trzydziestu dni w przypadku nieprzestrzegania zakazu praktyk w zakresie sztucznej inteligencji, o których mowa w art. 5.

Poprawka 608

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 9

Tekst proponowany przez Komisję Poprawka
9. Organy nadzoru rynku we wszystkich państwach członkowskich zapewniają niezwłoczne wprowadzenie odpowiednich środków ograniczających w odniesieniu do danego produktu, takich jak wycofanie produktu z ich rynku. 9. Krajowe organy nadzorcze we wszystkich państwach członkowskich zapewniają niezwłoczne wprowadzenie odpowiednich środków ograniczających w odniesieniu do danego systemu sztucznej inteligencji, takich jak wycofanie systemu sztucznej inteligencji z ich rynku.

Poprawka 609

Wniosek dotyczący rozporządzenia

Artykuł 65 - ustęp 9 a (nowy)

Tekst proponowany przez Komisję Poprawka
9a. Krajowe organy nadzorcze składają Urzędowi ds. Sztucznej Inteligencji coroczne sprawozdania o przypadkach stosowania niedozwolonych praktyk, które miały miejsce w danym roku, oraz o środkach podjętych w celu wyeliminowania lub ograniczenia ryzyka zgodnie z niniejszym artykułem.

Poprawka 610

Wniosek dotyczący rozporządzenia

Artykuł 66 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Jeżeli w terminie trzech miesięcy od dnia otrzymania powiadomienia, o którym mowa w art. 65 ust. 5, państwo członkowskie zgłosi sprzeciw wobec środka wprowadzonego przez inne państwo członkowskie lub jeżeli Komisja uzna taki środek za sprzeczny z prawem Unii, Komisja niezwłocznie przystępuje do konsultacji z odpowiednim państwem członkowskim i operatorem lub operatorami i poddaje taki środek krajowy ocenie. Na podstawie wyników tej oceny Komisja podejmuje decyzję, czy środek krajowy jest uzasadniony, czy nie, w terminie dziewięciu miesięcy od otrzymania powiadomienia, o którym mowa w art. 65 ust. 5, i powiadamia o tej decyzji zainteresowane państwo członkowskie. 1. Jeżeli w terminie trzech miesięcy od dnia otrzymania powiadomienia, o którym mowa w art. 65 ust. 5, lub 30 dni w przypadku braku zgodności z zakazem stosowania praktyk związanych ze sztuczną inteligencją, o których mowa w art. 5, krajowy organ nadzorczy państwa członkowskiego zgłosi sprzeciw wobec środka wprowadzonego przez inny krajowy organ nadzorczy lub jeżeli Komisja uzna taki środek za sprzeczny z prawem Unii, Komisja niezwłocznie przystępuje do konsultacji z krajowym organem nadzorczym danego państwa członkowskiego i operatorem lub operatorami i poddaje taki środek krajowy ocenie. Na podstawie wyników tej oceny Komisja podejmuje decyzję, czy środek krajowy jest uzasadniony, czy nie, w terminie trzech miesięcy lub 60 dni w przypadku nieprzestrzegania zakazu stosowania praktyk w zakresie sztucznej inteligencji, o których mowa w art. 5, począwszy od otrzymania powiadomienia, o którym mowa w art. 65 ust. 5, i powiadamia o tej decyzji krajowy organ nadzorczy zainteresowanego państwa członkowskiego. Komisja powiadamia również pozostałe krajowe organy nadzorcze o takiej decyzji.

Poprawka 611

Wniosek dotyczący rozporządzenia

Artykuł 66 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. W przypadku uznania krajowego środka za uzasadniony wszystkie państwa członkowskie wprowadzają środki konieczne do zapewnienia wycofania niezgodnego z przepisami systemu sztucznej inteligencji ze swoich rynków oraz informują o nich Komisję. W przypadku uznania krajowego środka za nieuzasadniony państwo członkowskie, które dany środek wprowadziło, wycofuje ten środek. 2. W przypadku uznania krajowego środka za uzasadniony wszystkie krajowe organy nadzorcze wyznaczone na podstawie niniejszego rozporządzenia wprowadzają niezwłocznie środki konieczne do zapewnienia niezwłocznego wycofania niezgodnego z przepisami systemu sztucznej inteligencji ze swoich rynków oraz informują o nich Komisję i Urząd ds. Sztucznej Inteligencji. W przypadku uznania krajowego środka za nieuzasadniony krajowy organ nadzorczy w zainteresowanym państwie członkowskim jest zobowiązany uchylić ten środek.

Poprawka 612

Wniosek dotyczący rozporządzenia

Artykuł 66 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 66a

Wspólne dochodzenia

W przypadku gdy krajowy organ nadzorczy ma powody, by podejrzewać, że naruszenie niniejszego rozporządzenia przez dostawcę lub operatora systemu sztucznej inteligencji wysokiego ryzyka lub model podstawowy stanowi powszechne naruszenie o wymiarze unijnym lub ma lub może mieć wpływ na co najmniej 45 mln osób w więcej niż jednym państwie członkowskim, ten krajowy organ nadzorczy informuje o tym Urząd ds. Sztucznej Inteligencji i może zwrócić się do krajowych organów nadzorczych państw członkowskich, w których doszło do takiego naruszenia, o wszczęcie wspólnego dochodzenia. Urząd ds. Sztucznej Inteligencji zapewnia centralną koordynację wspólnego dochodzenia. Uprawnienia do przeprowadzania dochodzeń pozostają w gestii krajowych organów nadzorczych.

Poprawka 613

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Jeżeli po przeprowadzeniu oceny zgodnie z art. 65 organ nadzoru rynku państwa członkowskiego stwierdzi, że chociaż system sztucznej inteligencji jest zgodny z niniejszym rozporządzeniem, stwarza on ryzyko dla zdrowia lub bezpieczeństwa osób, dla wypełnienia obowiązków wynikających z przepisów prawa Unii lub prawa krajowego mających na celu ochronę praw podstawowych lub dla innych aspektów ochrony interesu publicznego, organ ten zobowiązuje właściwego operatora do wprowadzenia wszelkich odpowiednich środków w celu zapewnienia, aby odnośny system sztucznej inteligencji system po wprowadzeniu do obrotu lub oddaniu do użytku nie stwarzał już takiego ryzyka, do wycofania systemu sztucznej inteligencji z rynku lub do wycofania go od użytkowników w wyznaczonym przez organ rozsądnym terminie, stosownym do charakteru ryzyka. 1. Jeżeli po przeprowadzeniu oceny zgodnie z art. 65 w pełnej współpracy z właściwym krajowym organem publicznym, o którym mowa w art. 64 ust. 3 krajowy organ nadzorczy państwa członkowskiego stwierdzi, że chociaż system sztucznej inteligencji jest zgodny z niniejszym rozporządzeniem, stwarza on poważne ryzyko dla zdrowia lub bezpieczeństwa osób, dla wypełnienia obowiązków wynikających z przepisów prawa Unii lub prawa krajowego mających na celu ochronę praw podstawowych, środowiska lub demokracji i rządów prawa, lub dla innych aspektów ochrony interesu publicznego, organ ten zobowiązuje właściwego operatora do wprowadzenia wszelkich odpowiednich środków w celu zapewnienia, aby odnośny system sztucznej inteligencji system po wprowadzeniu do obrotu lub oddaniu do użytku nie stwarzał już takiego ryzyka.

Poprawka 614

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Dostawca lub inni właściwi operatorzy zapewniają podjęcie działań naprawczych w odniesieniu do wszystkich odnośnych systemów sztucznej inteligencji, które wprowadzili do obrotu w całej Unii, w terminie wyznaczonym przez organ nadzoru rynku państwa członkowskiego, o którym mowa w ust. 1. 2. Dostawca lub inni właściwi operatorzy zapewniają podjęcie działań naprawczych w odniesieniu do wszystkich odnośnych systemów sztucznej inteligencji, które wprowadzili do obrotu w całej Unii, w terminie wyznaczonym przez krajowy organ nadzorczy państwa członkowskiego, o którym mowa w ust. 1.

Poprawka 615

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
2a. Jeżeli dostawca lub inni odpowiedni operatorzy nie podejmą działań naprawczych, o których mowa w ust. 2, i jeżeli system sztucznej inteligencji nadal stwarza ryzyko, o którym mowa w ust. 1, krajowy organ nadzorczy może zażądać od właściwego operatora wycofania systemu sztucznej inteligencji z obrotu lub odzyskania go w rozsądnym terminie, współmiernym do charakteru ryzyka.

Poprawka 616

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. To państwo członkowskie niezwłocznie powiadamia o tym Komisję i pozostałe państwa członkowskie. W powiadomieniu tym zawiera się wszelkie dostępne szczegółowe informacje, w szczególności dane niezbędne do identyfikacji odnośnego systemu sztucznej inteligencji, pochodzenie systemu sztucznej inteligencji i informacje na temat jego łańcucha dostaw, charakter przedmiotowego ryzyka oraz charakter i okres obowiązywania zastosowanych środków krajowych. 3. Krajowy organ nadzorczy niezwłocznie informuje o tym Komisję, Urząd ds. Sztucznej Inteligencji i pozostałe krajowe organy nadzorcze. W powiadomieniu tym zawiera się wszelkie dostępne szczegółowe informacje, w szczególności dane niezbędne do identyfikacji odnośnego systemu sztucznej inteligencji, pochodzenie systemu sztucznej inteligencji i informacje na temat jego łańcucha dostaw, charakter przedmiotowego ryzyka oraz charakter i okres obowiązywania zastosowanych środków krajowych.

Poprawka 617

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Komisja niezwłocznie przystępuje do konsultacji z państwem członkowskim i właściwym operatorem i poddaje ocenie wprowadzone środki krajowe. Na podstawie wyników tej oceny Komisja podejmuje decyzję, czy środek krajowy jest uzasadniony, czy nie, i w razie potrzeby proponuje odpowiednie środki. 4. Komisja, w porozumieniu z Urzędem ds. Sztucznej Inteligencji, niezwłocznie przystępuje do konsultacji z zainteresowanymi krajowymi organami nadzorczymii właściwym operatorem i poddaje ocenie wprowadzone środki krajowe. Na podstawie wyników tej oceny Urząd ds. Sztucznej Inteligencji podejmuje decyzję, czy środek krajowy jest uzasadniony, czy nie, i w razie potrzeby proponuje odpowiednie środki.

Poprawka 618

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Komisja kieruje swoją decyzję do państw członkowskich. 5. Komisja, w porozumieniu z Urzędem ds. Sztucznej Inteligencji, niezwłocznie przekazuje swoją decyzję krajowym organom nadzorczym zainteresowanych państw członkowskich oraz odpowiednim operatorom. Informuje ona również o tej decyzji wszystkie pozostałe krajowe organy nadzorcze.

Poprawka 619

Wniosek dotyczący rozporządzenia

Artykuł 67 - ustęp 5 a (nowy)

Tekst proponowany przez Komisję Poprawka
5a. Komisja przyjmuje wytyczne mające pomóc właściwym organom krajowym w identyfikowaniu i korygowaniu, w razie potrzeby, podobnych problemów pojawiających się w innych systemach sztucznej inteligencji.

Poprawka 620

Wniosek dotyczący rozporządzenia Artykuł 68 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. Jeżeli organ nadzoru rynku państwa członkowskiego dokona jednego z poniższych ustaleń, wymaga od właściwego dostawcy usunięcia danej niezgodności: 1. Jeżeli krajowy organ nadzorczy państwa członkowskiego dokona jednego z poniższych ustaleń, wymaga od właściwego dostawcy usunięcia danej niezgodności:

Poprawka 621

Wniosek dotyczący rozporządzenia

Artykuł 68 - ustęp 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) umieszczenie oznakowania zgodności z naruszeniem art. 49; a) umieszczenie oznakowania CE z naruszeniem art. 49;

Poprawka 622

Wniosek dotyczący rozporządzenia

Artykuł 68 - ustęp 1 - litera b

Tekst proponowany przez Komisję Poprawka
b) nieumieszczenie oznakowania zgodności; b) nieumieszczenie oznakowania CE;

Poprawka 623

Wniosek dotyczący rozporządzenia Artykuł 68 - ustęp 1 - litera e a (nowa)

Tekst proponowany przez Komisję Poprawka
ea) brak dokumentacji technicznej;

Poprawka 624

Wniosek dotyczący rozporządzenia

Artykuł 68 - ustęp 1 - litera e b (nowa)

Tekst proponowany przez Komisję Poprawka
eb) niedokonanie rejestracji w bazie danych UE;

Poprawka 625

Wniosek dotyczący rozporządzenia Artykuł 68 - ustęp 1 - litera e c (nowa)

Tekst proponowany przez Komisję Poprawka
ec) niewyznaczenie, w stosownych przypadkach, upoważnionego przedstawiciela.

Poprawka 626

Wniosek dotyczący rozporządzenia

Artykuł 68 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. W przypadku gdy niezgodność, o której mowa w ust. 1, utrzymuje się, zainteresowane państwo członkowskie wprowadza wszelkie odpowiednie środki w celu ograniczenia lub zakazania udostępniania na rynku takiego systemu sztucznej inteligencji wysokiego ryzyka lub zapewnienia, aby system wycofano od użytkowników lub by wycofano go z rynku. 2. W przypadku gdy niezgodność, o której mowa w ust. 1, utrzymuje się, krajowy organ nadzorczy zainteresowanego państwa członkowskiego wprowadza wszelkie odpowiednie i proporcjonalne środki w celu ograniczenia lub zakazania udostępniania na rynku takiego systemu sztucznej inteligencji wysokiego ryzyka lub zapewnienia, aby system wycofano od użytkowników lub by niezwłocznie wycofano go z rynku. Krajowy organ nadzorczy zainteresowanego państwa członkowskiego niezwłocznie informuje Urząd ds. Sztucznej Inteligencji o nieprzestrzeganiu przepisów i podjętych środkach.

Poprawka 627

Wniosek dotyczący rozporządzenia Artykuł 68 - rozdział 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. Środki odwoławcze

Poprawka 628

Wniosek dotyczący rozporządzenia

Artykuł 68 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 68a

Prawo do wniesienia skargi do krajowego organu nadzorczego

1. Bez uszczerbku dla innych administracyjnych lub sądowych środków ochrony prawnej każda osoba fizyczna lub grupa osób fizycznych ma prawo wnieść skargę do krajowego organu nadzorczego, w szczególności w państwie członkowskim swojego zwykłego pobytu, swojego miejsca pracy lub miejsca popełnienia domniemanego naruszenia, jeżeli sądzi, że system sztucznej inteligencji jej dotyczący narusza niniejsze rozporządzenie.

2. Krajowy organ nadzorczy, do którego wniesiono skargę, informuje skarżącego o postępach i efektach rozpatrywania skargi, w tym o możliwości skorzystania z sądowego środka ochrony prawnej na mocy art. 78.

Poprawka 629

Wniosek dotyczący rozporządzenia

Artykuł 68 b (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 68b

Prawo do skutecznego sądowego środka ochrony prawnej przeciwko krajowemu organowi nadzorczemu

1. Z zastrzeżeniem innych administracyjnych lub pozasądowych środków ochrony prawnej, każda osoba fizyczna lub prawna ma prawo do skutecznego środka zaskarżenia przeciwko prawnie wiążącej decyzji krajowego organu nadzorczego dotyczącej tej osoby.

2. Bez uszczerbku dla innych administracyjnych lub pozasądowych środków ochrony prawnej każda osoba fizyczna lub prawna ma prawo do skutecznego sądowego środka ochrony prawnej, jeżeli krajowy organ nadzorczy właściwy zgodnie z art. 59 nie rozpatrzył skargi lub nie poinformował osoby fizycznej lub prawnej, której dane dotyczą, w terminie trzech miesięcy o postępach lub efektach rozpatrywania skargi wniesionej zgodnie z art. 68a.

3. Postępowanie przeciwko krajowemu organowi nadzorczemu zostaje wszczęte przed sądem państwa członkowskiego, w którym krajowy organ nadzorczy ma siedzibę.

4. Jeżeli postępowanie zostało wszczęte przeciwko decyzji krajowego organu nadzorczego, którą poprzedziła opinia lub decyzja Komisji w ramach unijnej procedury ochronnej, organ nadzorczy przekazuje sądowi tę opinię lub decyzję.

Poprawka 630

Wniosek dotyczący rozporządzenia

Artykuł 68 c (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 68c

Prawo do wyjaśnienia indywidualnego procesu podejmowania decyzji

1. Każda osoba, której dotyczy decyzja podjęta przez operatora sztucznej inteligencji na podstawie wyników uzyskanych z systemu sztucznej inteligencji wysokiego ryzyka wywołująca skutki prawne lub w podobny sposób znacząco na nią wpływająca, co zdaniem danej osoby ma negatywny wpływ na jej zdrowie, bezpieczeństwo, prawa podstawowe, dobrostan społeczno-gospodarczy lub jakiekolwiek inne jej prawa wynikające z obowiązków określonych w niniejszym rozporządzeniu, ma prawo zażądać od operatora sztucznej inteligencji jasnych i zrozumiałych wyjaśnień zgodnie z art. 13 ust. 1 dotyczących roli systemu sztucznej inteligencji w procedurze podejmowania decyzji, głównych parametrów podjętej decyzji oraz powiązanych danych wejściowych.

2. Ust. 1 nie ma zastosowania do wykorzystywania systemów sztucznej inteligencji, w odniesieniu do których przewidziano wyjątki od obowiązku określonego w ust. 1 lub ograniczenia tego obowiązku wynikające z prawa Unii lub prawa krajowego, o ile taki wyjątek lub ograniczenia są zgodne z istotą podstawowych praw i wolności oraz stanowią niezbędny i proporcjonalny środek w demokratycznym społeczeństwie.

3. Niniejszy artykuł stosuje się bez naruszenia art. 13, 14, 15 oraz 22 rozporządzenia 2016/679.

Poprawka 631

Wniosek dotyczący rozporządzenia

Artykuł 68 d (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 68d

Zmiana w dyrektywie (UE) 2020/1828

W załączniku I do dyrektywy Parlamentu Europejskiego i Rady (UE) 2020/1828 (1a) dodaje się punkt w brzmieniu:

"(67a) Rozporządzenie Parlamentu Europejskiego i Rady xxxx/xxxx ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii (Dz.U. L ".)]".

(1a) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2020/1828 z dnia 25 listopada 2020 r. w sprawie powództw przedstawicielskich wytaczanych w celu ochrony zbiorowych interesów konsumentów i uchylająca dyrektywę 2009/22/WE (Dz.U. L 409 z 4.12.2020, s. 1).

Poprawka 632

Wniosek dotyczący rozporządzenia

Artykuł 68 e (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 68e

Zgłaszanie naruszeń i ochrona osób dokonujących zgłoszeń

Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki naruszeń stosuje się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937.

Poprawka 633

Wniosek dotyczący rozporządzenia

Artykuł 69- ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Komisja i państwa członkowskie zachęcają do tworzenia (i ułatwiają tworzenie) kodeksów postępowania sprzyjających dobrowolnemu stosowaniu w odniesieniu do systemów sztucznej inteligencji innych niż systemy sztucznej inteligencji wysokiego ryzyka wymogów określonych w tytule III rozdział 2, w oparciu o specyfikacje i rozwiązania techniczne, które stanowią odpowiedni sposób zapewnienia zgodności z takimi wymogami w świetle przeznaczenia tych systemów. 1. Komisja, Urząd ds. Sztucznej Inteligencji i państwa członkowskie zachęcają do tworzenia (i ułatwiają tworzenie) kodeksów postępowania - w tym w przypadku gdy zostały one opracowane, by wykazać w jaki sposób systemy sztucznej inteligencji są zgodne z zasadami określonymi w art. 4a i w związku z tym mogą zostać uznane za godne - sprzyjających dobrowolnemu stosowaniu w odniesieniu do systemów sztucznej inteligencji innych niż systemy sztucznej inteligencji wysokiego ryzyka wymogów określonych w tytule III rozdział 2, w oparciu o specyfikacje i rozwiązania techniczne, które stanowią odpowiedni sposób zapewnienia zgodności z takimi wymogami w świetle przeznaczenia tych systemów.

Poprawka 634

Wniosek dotyczący rozporządzenia

Artykuł 69 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Komisja i Rada zachęcają do tworzenia (i ułatwiają tworzenie) kodeksów postępowania sprzyjających dobrowolnemu stosowaniu w odniesieniu do systemów sztucznej inteligencji wymogów związanych na przykład ze zrównoważeniem środowiskowym, dostępnością dla osób z niepełnosprawnościa- mi, udziałem zainteresowanych stron w projektowaniu i opracowywaniu systemów sztucznej inteligencji oraz różnorodnością zespołów programistycznych na podstawie jasno określonych celów i kluczowych wskaźników skuteczności działania służących do pomiaru stopnia realizacji tych celów. 2. Kodeksy postępowania mające na celu wspieranie dobrowolnego przestrzegania zasad, na których opierają się godne zaufania systemy sztucznej inteligencji, w szczególności:
a) mają na celu zapewnienie, by personel oraz wszelkie inne osoby mające styczność z funkcjonowaniem i użytkowaniem systemów sztucznej inteligencji posiadały wystarczający poziom kompetencji w zakresie sztucznej inteligencji, aby przestrzegać tych zasad;

b) oceniają, w jakim zakresie systemy sztucznej inteligencji mogą mieć wpływ na szczególnie wrażliwe osoby lub grupy osób, w tym dzieci, osoby starsze, migrantów i osoby z niepełnosprawnościami, oraz czy można wdrożyć środki w celu zwiększenia dostępności lub innego wsparcia tych osób lub grup osób;

c) zwracają uwagę na sposób, w jaki użytkowanie systemów sztucznej inteligencji może wywierać wpływ na równowagę i równouprawnienie płci;

d) zwracają uwagę na możliwości wykorzystywania systemów sztucznej inteligencji w sposób, który bezpośrednio lub pośrednio może nieznacznie lub znacząco pogłębiać istniejące uprzedzenia lub nierówności;

e) rozważają konieczność i znaczenie stworzenia różnorodnych zespołów programistycznych w celu zapewnienia włączającego projektowania systemów;

f) wnikliwie rozważają, czy ich systemy mogą mieć negatywny wpływ na społeczeństwo, w szczególności w odniesieniu do instytucji politycznych i procesów demokratycznych;

g) oceniają, w jaki sposób systemy sztucznej inteligencji mogą przyczynić się do zrównoważenia środowiskowego, a w szczególności zobowiązań Unii zgodnie z Europejskim Zielonym Ładem i Europejską deklaracją w sprawie praw i zasad cyfrowych.

Poprawka 635

Wniosek dotyczący rozporządzenia

Artykuł 69- ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Kodeksy postępowania mogą być opracowywane przez poszczególnych dostawców systemów sztucznej inteligencji lub przez reprezentujące ich organizacje bądź przez obie te grupy, w tym z udziałem użytkowników i wszelkich zainteresowanych stron oraz reprezentujących je organizacji. Kodeksy postępowania mogą obejmować jeden lub większą liczbę systemów sztucznej inteligencji, mając na uwadze podobieństwa w przeznaczeniu danych systemów. 3. Kodeksy postępowania mogą być opracowywane przez poszczególnych dostawców systemów sztucznej inteligencji lub przez reprezentujące ich organizacje bądź przez obie te grupy, w tym z udziałem użytkowników i wszelkich zainteresowanych stron, w tym badaczy naukowych, oraz reprezentujących je organizacji, w szczególności związków zawodowych i organizacji konsumentów. Kodeksy postępowania mogą obejmować jeden lub większą liczbę systemów sztucznej inteligencji, mając na uwadze podobieństwa w przeznaczeniu danych systemów. Dostawcy przyjmujący kodeksy postępowania wyznaczą co najmniej jedną osobę fizyczną odpowiedzialną za monitorowanie wewnętrzne.

Poprawka 636

Wniosek dotyczący rozporządzenia

Artykuł 69 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. W ramach wspierania i ułatwiania tworzenia kodeksów postępowania Komisja i Rada uwzględniają szczególne interesy i potrzeby drobnych dostawców i przedsiębiorstw typu startup. 4. W ramach wspierania i ułatwiania tworzenia kodeksów postępowania Komisja i Urząd ds. Sztucznej Inteligencji uwzględniają szczególne interesy i potrzeby MŚP i przedsiębiorstw typu startup.

Poprawka 637

Wniosek dotyczący rozporządzenia

Artykuł 70 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. Właściwe organy krajowe i jednostki notyfikowane zaangażowane w stosowanie niniejszego rozporządzenia przestrzegają zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań i swojej działalności tak, aby w szczególności: 1. Komisja, właściwe organy krajowe i jednostki notyfikowane, Urząd ds. Sztucznej Inteligencji i wszelkie inne osoby fizyczne lub prawne zaangażowane w stosowanie niniejszego rozporządzenia przestrzegają zasady poufności informacji i danych uzyskanych podczas wykonywania swoich zadań i swojej działalności tak, aby w szczególności:

Poprawka 638

Wniosek dotyczący rozporządzenia

Artykuł 70 - ustęp 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) chronić prawa własności intelektualnej oraz poufne informacje handlowe lub tajemnice przedsiębiorstwa osoby fizycznej lub prawnej, w tym kod źródłowy, chyba że zastosowanie mają przypadki określone w art. 5 dyrektywy (UE) 2016/943 w sprawie ochrony niejawnego know-how i niejawnych informacji handlowych (tajemnic przedsiębiorstwa) przed ich bezprawnym pozyskiwaniem, wykorzystywaniem i ujawnianiem; a) chronić prawa własności intelektualnej oraz poufne informacje handlowe lub tajemnice przedsiębiorstwa osoby fizycznej lub prawnej, zgodnie z przepisami dyrektywy 2004/48/WE i 2016/943/WE, w tym kod źródłowy, chyba że zastosowanie mają przypadki określone w art. 5 dyrektywy (UE) 2016/943 w sprawie ochrony niejawnego know-how i niejawnych informacji handlowych (tajemnic przedsiębiorstwa) przed ich bezprawnym pozyskiwaniem, wykorzystywaniem i ujawnianiem;

Poprawka 639

Wniosek dotyczący rozporządzenia

Artykuł 70 - ustęp 1 - litera b a (nowa)

Tekst proponowany przez Komisję Poprawka
ba) chronić interesy bezpieczeństwa publicznego i narodowego;

Poprawka 640

Wniosek dotyczący rozporządzenia

Artykuł 70 - ustęp 1 a (nowy)

Tekst proponowany przez Komisję Poprawka
1a. Organy zaangażowane w stosowanie niniejszego rozporządzenia zgodnie z ust. 1 minimalizują ilość danych, o których ujawnienie zwrócono się, do danych, które są absolutnie niezbędne w kontekście postrzeganego ryzyka i jego oceny. Usuwają one dane, gdy tylko przestaną być potrzebne w odniesieniu do celu, w jakim zwrócono się o nie. Wprowadzają one odpowiednie i skuteczne środki w zakresie cyberbez- pieczeństwa, środki techniczne i organizacyjne w celu ochrony bezpieczeństwa i poufności informacji i danych uzyskanych podczas wykonywania swoich zadań i działań.

Poprawka 641

Wniosek dotyczący rozporządzenia Artykuł 70 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
2. Nie naruszając przepisów ust. 1, informacji wymienianych na zasadzie poufności między właściwymi organami krajowymi oraz między właściwymi organami krajowymi i Komisją nie można ujawniać bez uprzedniej konsultacji z właściwym organem krajowym, który je przekazał, oraz z użytkownikiem, gdy z systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 1, 6 i 7, korzystają organy ścigania, organy imigracyjne lub organy odpowiedzialne za udzielanie azylu, jeżeli takie ujawnienie mogłoby zagrozić interesom bezpieczeństwa publicznego i narodowego. 2. Nie naruszając przepisów ust. 1 i 1a, informacji wymienianych na zasadzie poufności między właściwymi organami krajowymi oraz między właściwymi organami krajowymi i Komisją nie można ujawniać bez uprzedniej konsultacji z właściwym organem krajowym, który je przekazał, oraz z operatorem sztucznej inteligencji, gdy z systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III pkt 1, 6 i 7, korzystają organy ścigania, organy imigracyjne lub organy odpowiedzialne za udzielanie azylu, jeżeli takie ujawnienie mogłoby zagrozić bezpieczeństwu publicznemu lub narodowemu.

Poprawka 642

Wniosek dotyczący rozporządzenia

Artykuł 70 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Ust. 1 i 2 pozostają bez uszczerbku dla praw i obowiązków Komisji, państw członkowskich i jednostek notyfikowanych w zakresie wymiany informacji i wydawania ostrzeżeń oraz obowiązków zainteresowanych stron w zakresie udzielania informacji zgodnie z prawem karnym państw członkowskich. 3. Ust. 1, 1a i 2 pozostają bez uszczerbku dla praw i obowiązków Komisji, państw członkowskich i jednostek notyfikowanych w zakresie wymiany informacji i wydawania ostrzeżeń oraz obowiązków zainteresowanych stron w zakresie udzielania informacji zgodnie z prawem karnym państw członkowskich.

Poprawka 643

Wniosek dotyczący rozporządzenia

Artykuł 70 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Komisja i państwa członkowskie mogą, w razie potrzeby, wymieniać informacje poufne z organami regulacyjnymi państw trzecich, z którymi zawarły dwustronne lub wielostronne porozumienia o poufności gwarantujące odpowiedni stopień poufności. 4. Komisja i państwa członkowskie mogą, w razie bezwzględnej potrzeby i zgodnie z odpowiednimi postanowieniami umów międzynarodowych i handlowych, wymieniać informacje poufne z organami regulacyjnymi państw trzecich, z którymi zawarły dwustronne lub wielostronne porozumienia o poufności gwarantujące odpowiedni stopień poufności.

Poprawka 644

Wniosek dotyczący rozporządzenia

Artykuł 71 - nagłówek

Tekst proponowany przez Komisję Poprawka
Kary i grzywny Kary

Poprawka 645

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Zgodnie z zasadami i warunkami określonymi w niniejszym rozporządzeniu państwa członkowskie przyjmują przepisy dotyczące kar, w tym administracyjnych kar pieniężnych, mających zastosowanie w przypadku naruszeń niniejszego rozporządzenia i podejmują wszelkie działania niezbędne do zapewnienia ich właściwego i skutecznego wdrożenia. Przewidziane kary muszą być skuteczne, proporcjonalne i odstraszające. Uwzględniają one w szczególności interesy drobnych dostawców i przedsiębiorstw typu startup oraz ich rentowność. 1. Zgodnie z zasadami i warunkami określonymi w niniejszym rozporządzeniu państwa członkowskie przyjmują przepisy dotyczące kar, mających zastosowanie w przypadku naruszeń niniejszego rozporządzenia przez dowolnego operatora, i podejmują wszelkie działania niezbędne do zapewnienia ich właściwego i skutecznego wdrożenia oraz uspójnienia ich z wytycznymi wydanymi przez Komisję i Urząd ds. Sztucznej Inteligencji zgodnie z art. 82b. Przewidziane kary muszą być skuteczne, proporcjonalne i odstraszające. Uwzględniają one interesy MŚP i przedsiębiorstw typu startup oraz ich rentowność.

Poprawka 646

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Państwa członkowskie powiadamiają Komisję o tych przepisach i środkach, a także powiadamiają niezwłocznie o wszelkich późniejszych zmianach, które ich dotyczą. 2. Państwa członkowskie powiadamiają Komisję i Urząd o tych przepisach i środkach do dnia ... [12 miesięcy po dniu wejścia w życie niniejszego rozporządzenia], a także powiadamiają ich niezwłocznie o wszelkich późniejszych zmianach mających wpływ na te przepisy i środki.

Poprawka 647

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 3 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
3. Następujące naruszenia podlegają administracyjnej karze pieniężnejw wysokości do 30 000 000 EUR lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 6 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa: 3. Nieprzestrzeganie zakazu praktyk dotyczących sztucznej inteligencji, o których mowa w art. 5, podlega administracyjnej karze pieniężnej w wysokości do 40 000 000 EUR lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa;

Poprawka 648

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 3 - litera a

Tekst proponowany przez Komisję Poprawka
a) nieprzestrzeganie zakazu praktyk w zakresie sztucznej inteligencji, o których mowa w art. 5; skreśla się

Poprawka 649

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 3 - litera b

Tekst proponowany przez Komisję Poprawka
b) niezgodność systemu sztucznej inteligencji z wymogami określonymi w art. 10. skreśla się

Poprawka 650

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. Nieprzestrzeganie przez system sztucznej inteligencji wymogów, o których mowa w art. 10 i 13, podlega administracyjnej karze pieniężnej w wysokości do 20 000 000 eUr lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 4 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa.

Poprawka 651

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Niezgodność systemu sztucznej inteligencji z jakimikolwiek wymogami lub obowiązkami wynikającymi z niniejszego rozporządzenia, innymi niż te określone w art. 5 i 10, podlega administracyjnej karze pieniężnej w wysokości do 20 000 000 EUR lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 4 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa. 4. Niezgodność systemu sztucznej inteligencji lub modelu generatywnego z jakimikolwiek wymogami lub obowiązkami wynikającymi z niniejszego rozporządzenia, innymi niż te określone w art. 5, 10 i 13, podlega administracyjnej karze pieniężnej w wysokości do 10 000 000 EUR lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 2 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa.

Poprawka 652

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Przekazywanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na ich wezwanie podlega administracyjnej karze pieniężnej w wysokości do 10 000 000 EUR lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 2 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa. 5. Przekazywanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym w odpowiedzi na ich wezwanie podlega administracyjnej karze pieniężnej w wysokości do 5 000 000 EUR lub - jeżeli naruszenia dopuszcza się przedsiębiorstwo - w wysokości do 1 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa.

Poprawka 653

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
6. Ustalając wysokość administracyjnej kary pieniężnej, w każdym indywidualnym przypadku uwzględnia się wszystkie istotne okoliczności danej sytuacji i zwraca się należytą uwagę na następujące kwestie: 6. Kary mogą być nakładane oprócz środków niepieniężnych, takich jak nakazy lub ostrzeżenia, lub zamiast nich. Ustalając wysokość administracyjnej kary pieniężnej, w każdym indywidualnym przypadku uwzględnia się wszystkie istotne okoliczności danej sytuacji i zwraca się należytą uwagę na następujące kwestie:

Poprawka 654

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera a

Tekst proponowany przez Komisję Poprawka
a) charakter, wagę i czas trwania naruszenia oraz jego konsekwencje; a) charakter, wagę i czas trwania naruszenia oraz jego konsekwencje, przy uwzględnieniu celu systemu sztucznej inteligencji, a także, w stosownych przypadkach, liczby poszkodowanych osób oraz rozmiaru poniesionej przez nie szkody;

Poprawka 655

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera b

Tekst proponowany przez Komisję Poprawka
b) czy inne organy nadzoru rynku nałożyły już na tego samego operatora administracyjne kary pieniężne za to samo naruszenie; b) czy inne krajowe organy nadzorcze jednego państwa członkowskiego lub kilku państw członkowskich nałożyły już na tego samego operatora administracyjne kary pieniężne za to samo naruszenie;

Poprawka 656

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera c

Tekst proponowany przez Komisję Poprawka
c) wielkość operatora dopuszczającego się naruszenia i jego udział w rynku. c) wielkość operatora dopuszczającego się naruszenia i jego roczny obrót.

Poprawka 657

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera c a (nowa)

Tekst proponowany przez Komisję Poprawka
ca) wszelkie działania podjęte przez operatora w celu złagodzenia szkody poniesionej przez poszkodowane osoby;

Poprawka 658

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera c b (nowa)

Tekst proponowany przez Komisję Poprawka
cb) umyślny lub nieumyślny charakter naruszenia;

Poprawka 659

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera c c (nowa)

Tekst proponowany przez Komisję Poprawka
cc) stopień współpracy z właściwym organem krajowym w celu usunięcia naruszenia oraz złagodzenia jego ewentualnych negatywnych skutków;

Poprawka 660

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 6 - litera c d (nowa)

Tekst proponowany przez Komisję Poprawka
cd) stopień odpowiedzialności operatora, z uwzględnieniem wdrożonych przez niego środków technicznych i organizacyjnych;

Poprawka 661

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 6 - litera c e (nowa)

Tekst proponowany przez Komisję Poprawka
ce) sposób, w jaki właściwe organy krajowe dowiedziały się o naruszeniu, w szczególności czy i w jakim zakresie operator zgłosił naruszenie;

Poprawka 662

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 6 - litera c f (nowa)

Tekst proponowany przez Komisję Poprawka
cf) stosowanie zatwierdzonych kodeksów postępowania lub zatwierdzonych mechanizmów certyfikacji;

Poprawka 663

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 6 - litera c g (nowa)

Tekst proponowany przez Komisję Poprawka
cg) wszelkie ewentualne wcześniejsze naruszenia, których dopuścił się operator;

Poprawka 664

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 6 - litera c h (nowa)

Tekst proponowany przez Komisję Poprawka
ch) wszelkie inne okoliczności obciążające lub łagodzące mające zastosowanie w danej sprawie.

Poprawka 665

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 7

Tekst proponowany przez Komisję Poprawka
7. Każde państwo członkowskie określa, czy i w jakim zakresie administracyjne kary pieniężne można nakładać na organy i podmioty publiczne ustanowione w tym państwie członkowskim. 7. Każde państwo członkowskie ustanawia przepisy dotyczące administracyjnych kar pieniężnych nakładanych na organy i podmioty publiczne ustanowione w tym państwie członkowskim.

Poprawka 666

Wniosek dotyczący rozporządzenia

Artykuł 71 - ustęp 8 a (nowy)

Tekst proponowany przez Komisję Poprawka
8a. Kary, o których mowa w niniejszym artykule, jak również związane z nimi koszty postępowania sądowego i roszczenia odszkodowawcze nie mogą być przedmiotem klauzul umownych ani innych rodzajów porozumień o podziale obciążenia między dostawcami a dystrybutorami, importerami, operatorami sztucznej inteligencji lub innymi osobami trzecimi.

Poprawka 667

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 8 b (nowy)

Tekst proponowany przez Komisję Poprawka
8b. Krajowe organy nadzorcze co roku składają Urzędowi ds. Sztucznej Inteligencji sprawozdanie z grzywien nałożonych w danym roku, zgodnie z niniejszym artykułem.

Poprawka 668

Wniosek dotyczący rozporządzenia Artykuł 71 - ustęp 8 c (nowy)

Tekst proponowany przez Komisję Poprawka
8c. Wykonywanie przez właściwe organy ich uprawnień na podstawie niniejszego artykułu powinno podlegać odpowiednim zabezpieczeniom proceduralnym zgodnie z prawem Unii i prawem krajowym, w tym prawu do sądowego środka ochrony prawnej i rzetelnego procesu.

Poprawka 669

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) charakter, wagę i czas trwania naruszenia oraz jego konsekwencje; a) charakter, wagę i czas trwania naruszenia oraz jego konsekwencje, przy uwzględnieniu celu systemu sztucznej inteligencji, a także liczby poszkodowanych osób oraz rozmiaru poniesionej przez nie szkody, oraz wszelkich istotnych wcześniejszych naruszeń;

Poprawka 670

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 1- litera a a (nowa)

Tekst proponowany przez Komisję Poprawka
aa) wszelkie działania podjęte przez instytucję, agencję lub organ Unii w celu złagodzenia szkody poniesionej przez osoby poszkodowane;

Poprawka 671

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 1 - litera a b (nowa)

Tekst proponowany przez Komisję Poprawka
ab) stopień odpowiedzialności instytucji, agencji lub organu Unii, z uwzględnieniem wdrożonych przez nie środków technicznych i organizacyjnych;

Poprawka 672

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 1 - litera b

Tekst proponowany przez Komisję Poprawka
b) współpracę z Europejskim Inspektorem Ochrony Danych w celu zaradzenia naruszeniu i złagodzenia ewentualnego niekorzystnego wpływu naruszenia, w tym zastosowanie się do wszelkich środków zarządzonych wcześniej przez Europejskiego Inspektora Ochrony Danych wobec danej instytucji lub organu, lub jednostki organizacyjnej Unii w odniesieniu do tego samego przedmiotu; b) stopień współpracy z Europejskim Inspektorem Ochrony Danych w celu zaradzenia naruszeniu i złagodzenia ewentualnego niekorzystnego wpływu naruszenia, w tym zastosowanie się do wszelkich środków zarządzonych wcześniej przez Europejskiego Inspektora Ochrony Danych wobec danej instytucji lub organu, lub jednostki organizacyjnej Unii w odniesieniu do tego samego przedmiotu;

Poprawka 673

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 1 - litera c a (nowa)

Tekst proponowany przez Komisję Poprawka
ca) sposób, w jaki Europejski Inspektor Ochrony Danych dowiedział się o naruszeniu, w szczególności, czy i w jakim zakresie instytucja lub organ Unii zgłosili naruszenie;

Poprawka 674

Wniosek dotyczący rozporządzenia Artykuł 72 - ustęp 1 - litera c b (nowa)

Tekst proponowany przez Komisję Poprawka
cb) roczny budżet organu;

Poprawka 675

Wniosek dotyczący rozporządzenia Artykuł 72 - ustęp 2 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
2. Następujące naruszenia podlegają administracyjnej karze pieniężnej w wysokości do 500 000 EUR: 2. Nieprzestrzeganie zakazu praktyk związanych ze sztuczną inteligencją, o których mowa w art. 5, podlega administracyjnym karom pieniężnym w wysokości do 1 500 000 EUR.

Poprawka 676

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 2 - litera a

Tekst proponowany przez Komisję Poprawka
a) nieprzestrzeganie zakazu praktyk w zakresie sztucznej inteligencji, o których mowa w art. 5; skreśla się

Poprawka 677

Wniosek dotyczący rozporządzenia Artykuł 72 - ustęp 2 a (nowy)

Tekst proponowany przez Komisję Poprawka
2a. Niezgodność systemu sztucznej inteligencji z wymogami określonymi w art. 10 podlega administracyjnym karom pieniężnym w wysokości do 1 000 000 EUR.

Poprawka 678

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 3

Tekst proponowany przez Komisję Poprawka
3. Niezgodność systemu sztucznej inteligencji z jakimikolwiek wymogami lub obowiązkami wynikającymi z niniejszego rozporządzenia, innymi niż te określone w art. 5 i 10, podlega administracyjnej karze pieniężnej w wysokości do 250 000 EUR. 3. Niezgodność systemu sztucznej inteligencji z jakimikolwiek wymogami lub obowiązkami wynikającymi z niniejszego rozporządzenia, innymi niż te określone w art. 5 i 10, podlega administracyjnej karze pieniężnej w wysokości do 750 000 EUR.

Poprawka 679

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Środki finansowe pochodzące z kar nałożonych na podstawie niniejszego artykułu stanowią dochód budżetu ogólnego Unii. 6. Środki finansowe pochodzące z kar nałożonych na podstawie niniejszego artykułu zasilają budżet ogólny Unii. Kary nie mają wpływu na skuteczne funkcjonowanie instytucji, organu lub agencji Unii, na które nałożono karę.

Poprawka 680

Wniosek dotyczący rozporządzenia

Artykuł 72 - ustęp 6 a (nowy)

Tekst proponowany przez Komisję Poprawka
6a. Europejski Inspektor Ochrony Danych co roku powiadamia Urząd ds. Sztucznej Inteligencji o karach nałożonych na mocy niniejszego artykułu.

Poprawka 681

Wniosek dotyczący rozporządzenia

Artykuł 73 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Uprawnienia do przyjęcia aktów delegowanych, o których mowa w art. 4, art. 7 ust. 1, art. 11 ust. 3, art. 43 ust. 5 i 6 oraz art. 48 ust. 5, powierza się Komisji na czas nieokreślony od dnia [data wejścia w życie niniejszego rozporządzenia]. 2. Uprawnienia do przyjmowania aktów delegowanych, o których mowa w art. 4, art. 7 ust. 1, art. 11 ust. 3, art. 43 ust. 5 i 6 oraz art. 48 ust. 5, powierza się Komisji na okres pięciu lat od dnia ... [data wejścia w życie niniejszego rozporządzenia]. Komisja sporządza sprawozdanie dotyczące przekazania uprawnień nie później niż dziewięć miesięcy przed końcem okresu pięciu lat. Przekazanie uprawnień jest automatycznie przedłużane na takie same okresy, chyba że Parlament Europejski lub Rada sprzeciwią się takiemu przedłużeniu nie później niż trzy miesiące przed końcem każdego okresu.

Poprawka 682

Wniosek dotyczący rozporządzenia

Artykuł 73 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. Przed przyjęciem aktu delegowanego Komisja konsultuje się z odpowiednimi instytucjami, Urzędem, forum doradczym i innymi odpowiednimi zainteresowanymi stronami zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonal- nym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa.

Gdy Komisja podejmie decyzję o sporządzeniu projektu aktu delegowanego, powiadamia o tym Parlament Europejski. Powiadomienie to nie zobowiązuje Komisji do przyjęcia wspomnianego aktu.

Poprawka 683

Wniosek dotyczący rozporządzenia

Artykuł 81 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 81a

Zmiana rozporządzenia (UE) 2019/1020

W rozporządzeniu (UE) 2019/1020 wprowadza się następujące zmiany:

w art. 14 ust. 4 dodaje się nowy akapit w brzmieniu:

"l). uprawnienie do zdalnego wykonywania uprawnień przewidzianych w niniejszym artykule, w stosownych przypadkach.";

Poprawka 684

Wniosek dotyczący rozporządzenia

Artykuł 82 a (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 82a

Lepsze stanowienie prawa

Przy uwzględnianiu wymogów niniejszego rozporządzenia zgodnie z poprawkami do art. 75, 76, 77, 78, 79, 80, 81 i 82 Komisja przeprowadza analizę i konsultuje się z odpowiednimi zainteresowanymi stronami w celu określenia potencjalnych luk i nakładania się na siebie istniejących przepisów sektorowych i przepisów niniejszego rozporządzenia.

Poprawka 685

Wniosek dotyczący rozporządzenia

Artykuł 82 b (nowy)

Tekst proponowany przez Komisję Poprawka
Artykuł 82b

Wytyczne Komisji dotyczące wdrażania niniejszego rozporządzenia

1. Komisja opracowuje, w porozumieniu z Urzędem ds. Sztucznej Inteligencji, wytyczne dotyczące praktycznego wdrażania niniejszego rozporządzenia, a w szczególności:

a) stosowania wymogów, o których mowa w art. 8-15 i art. 28-28b;

b) zakazanych praktyk, o których mowa w art. 5;

c) praktycznego wdrażania przepisów dotyczących istotnej zmiany;

d) praktycznych okoliczności, w których wynik działania systemu sztucznej inteligencji, o którym mowa w załączniku III, stwarzałby znaczne ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, o których mowa w art. 6 ust. 2, w tym przykładów dotyczących systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w załączniku III;

e) praktycznego wdrażania obowiązków w zakresie przejrzystości ustanowionych w art. 52;

f) opracowania kodeksów postępowania, o których mowa w art. 69;

g) zależności między niniejszym rozporządzeniem a innym odpowiednim prawem Unii, w tym w odniesieniu do spójności w ich egzekwowaniu;

h) praktycznego wdrożenia art. 12, art. 28b dotyczącego wpływu modeli generatywnych na środowisko oraz załącznika IV pkt 3 lit. b), w szczególności metod pomiaru i rejestrowania w celu umożliwienia obliczeń i sprawozdawczości w zakresie wpływu systemów na środowisko w celu spełnienia obowiązków określonych w niniejszym rozporządzeniu, w tym w zakresie śladu węglowego i efektywności energetycznej, z uwzględnieniem najnowocześniejszych metod i korzyści skali.

Przy wydawaniu takich wytycznych Komisja zwraca szczególną uwagę na potrzeby MŚP, w tym przedsiębiorstw typu startup, lokalnych organów publicznych i sektorów, na które niniejsze rozporządzenie będzie miało najprawdopodobniej największy wpływ.

2. Na wniosek państw członkowskich lub Urzędu ds. Sztucznej Inteligencji lub z własnej inicjatywy Komisja aktualizuje przyjęte już wytyczne, jeżeli uzna to za konieczne.

Poprawka 686

Wniosek dotyczący rozporządzenia

Artykuł 83 - ustęp 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. Niniejsze rozporządzenie nie ma zastosowania do systemów sztucznej inteligencji, które stanowią elementy wielko- skalowych systemów informatycznych utworzonych na podstawie aktów prawnych wymienionych w załączniku IX i które wprowadzono do obrotu lub oddano do użytku przed dniem [12 miesięcy od daty rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., chyba że na skutek zastąpienia lub zmiany tych aktów prawnych zajdzie znacząca zmiana projektu lub przeznaczenia odnośnego systemu sztucznej inteligencji lub odnośnych systemów sztucznej inteligencji. 1. Operatorzy systemów sztucznej inteligencji, które stanowią elementy wielkoskalowych systemów informatycznych utworzonych na podstawie aktów prawnych wymienionych w załączniku IX i które wprowadzono do obrotu lub oddano do użytku przed dniem ... [data wejścia w życie niniejszego rozporządzenia], podejmują niezbędne kroki w celu spełnienia wymogów określonych w niniejszym rozporządzeniu do dnia ... [cztery lata od daty wejścia w życie niniejszego rozporządzenia].

Poprawka 687

Wniosek dotyczący rozporządzenia

Artykuł 83 - ustęp 1 - akapit 1

Tekst proponowany przez Komisję Poprawka
Wymogi określone w niniejszym rozporządzeniu uwzględnia się, w stosownych przypadkach, w ocenach każdego z wielko- skalowych systemów informatycznych utworzonych na podstawie aktów prawnych wymienionych w załączniku IX, które to oceny należy przeprowadzić zgodnie z odnośnymi przepisami tych aktów. Wymogi określone w niniejszym rozporządzeniu uwzględnia się w ocenach każdego z wielkoskalowych systemów informatycznych utworzonych na podstawie aktów prawnych wymienionych w załączniku IX, które to oceny należy przeprowadzić zgodnie z odnośnymi przepisami tych aktów oraz zawsze, gdy te akty prawne są zastępowane lub zmieniane.

Poprawka 688

Wniosek dotyczący rozporządzenia

Artykuł 83 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Niniejsze rozporządzenie ma zastosowanie do systemów sztucznej inteligencji wysokiego ryzyka innych niż te określone w ust. 1, które wprowadzono do obrotu lub oddano do użytku przed dniem [data rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., wyłącznie wówczas, gdy po tej dacie projekt lub przeznaczenie tych systemów ulegną znaczącym zmianom. 2. Niniejsze rozporządzenie ma zastosowanie do operatorów systemów sztucznej inteligencji wysokiego ryzyka innych niż te określone w ust. 1, które wprowadzono do obrotu lub oddano do użytku przed dniem [data rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., wyłącznie wówczas, gdy po tej dacie systemy te podlegają istotnym modyfikacjom zgodnie z definicją w art. 3 ust. 23. W przypadku systemów sztucznej inteligencji wysokiego ryzyka, które mają być wykorzystywane przez organy publiczne, dostawcy i operatorzy takich systemów podejmują niezbędne kroki w celu spełnienia wymogów niniejszego rozporządzenia [dwa lata od daty wejścia w życie niniejszego rozporządzenia].

Poprawka 689

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 1

Tekst proponowany przez Komisję Poprawka
1. Komisja ocenia potrzebę wprowadzenia zmian w wykazie zawartym w załączniku III raz w roku po wejściu w życie niniejszego rozporządzenia. 1. Po konsultacji z Urzędem ds. Sztucznej Inteligencji Komisja ocenia potrzebę wprowadzenia zmian w wykazie zawartym w załączniku III, w tym rozszerzenia istniejących nagłówków dotyczących obszarów lub wprowadzenia nowych nagłówków dotyczących obszarów w tym załączniku, wykazie zakazanych praktyk w zakresie sztucznej inteligencji w art. 5 oraz wykazie systemów sztucznej inteligencji wymagających dodatkowych środków w zakresie przejrzystości w art. 52, raz w roku po wejściu w życie niniejszego rozporządzenia i na podstawie zalecenia Urzędu.

Komisja przedstawia wyniki tej oceny Parlamentowi Europejskiemu i Radzie.

Poprawka 690

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 2

Tekst proponowany przez Komisję Poprawka
2. Do dnia [trzy lata od daty rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., a następnie co cztery lata Komisja przedkłada Parlamentowi Europejskiemu i Radzie sprawozdanie z oceny i przeglądu niniejszego rozporządzenia. Sprawozdania te są podawane do wiadomości publicznej. 2. Do dnia [dwa lata od daty rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., a następnie co dwa lata Komisja, wraz z urzędem ds. Sztucznej Inteligencji, przedkłada Parlamentowi Europejskiemu i Radzie sprawozdanie z oceny i przeglądu niniejszego rozporządzenia. Sprawozdania te są podawane do wiadomości publicznej.

Poprawka 691

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 - litera a

Tekst proponowany przez Komisję Poprawka
a) stan zasobów finansowych i ludzkich właściwych organów krajowych wymaganych, by mogły one skutecznie wykonywać zadania powierzone im na podstawie niniejszego rozporządzenia; a) stan zasobów finansowych, technicznych i ludzkich właściwych organów krajowych wymaganych, by mogły one skutecznie wykonywać zadania powierzone im na podstawie niniejszego rozporządzenia;

Poprawka 692

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 - litera b a (nowa)

Tekst proponowany przez Komisję Poprawka
ba) poziom opracowania zharmonizowanych norm i wspólnych specyfikacji dotyczących sztucznej inteligencji;

Poprawka 693

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 - litera b b (nowa)

Tekst proponowany przez Komisję Poprawka
bb) poziomy inwestycji w badania, rozwój i stosowanie systemów sztucznej inteligencji w całej Unii;

Poprawka 694

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 - litera b c (nowa)

Tekst proponowany przez Komisję Poprawka
bc) konkurencyjność zagregowanego europejskiego sektora sztucznej inteligencji w porównaniu z sektorami sztucznej inteligencji w państwach trzecich;

Poprawka 695

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 - litera b d (nowa)

Tekst proponowany przez Komisję Poprawka
bd) wpływ rozporządzenia na zużycie zasobów i energii, a także na wytwarzanie odpadów i inne oddziaływanie na środowisko;

Poprawka 696

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 - litera b e (nowa)

Tekst proponowany przez Komisję Poprawka
be) wdrożenie skoordynowanego planu w zakresie sztucznej inteligencji, z uwzględnieniem różnego poziomu postępów w poszczególnych państwach członkowskich i zidentyfikowanie istniejących barier dla innowacji w dziedzinie sztucznej inteligencji;

Poprawka 697

Wniosek dotyczący rozporządzenia Artykuł 84 - ustęp 3 - litera b f (nowa)

Tekst proponowany przez Komisję Poprawka
bf) aktualizację szczegółowych wymogów dotyczących zrównoważonego charakteru systemów sztucznej inteligencji i modeli generatywnych, w oparciu o wymogi dotyczące sprawozdawczości i dokumentacji określone w załączniku IV i w art. 28b;

Poprawka 698

Wniosek dotyczący rozporządzenia Artykuł 84 - ustęp 3 - litera b g (nowa)

Tekst proponowany przez Komisję Poprawka
bg) system prawny regulujący modele generatywne;

Poprawka 699

Wniosek dotyczący rozporządzenia Artykuł 84 - ustęp 3 - litera b h (nowa)

Tekst proponowany przez Komisję Poprawka
bh) wykaz nieuczciwych postanowień umownych, o których mowa w art. 28a, uwzględniając w razie potrzeby nowe praktyki biznesowe;

Poprawka 700

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. Do dnia ... [dwa lata od daty rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] Komisja ocenia funkcjonowanie Urzędu ds. Sztucznej Inteligencji, to, czy przyznano mu uprawnienia i kompetencje wystarczające do wykonywania swoich zadań oraz czy dla właściwego wdrożenia i egzekwowania niniejszego rozporządzenia stosowne i potrzebne byłoby usprawnienie Urzędu i zwiększenie jego uprawnień w zakresie egzekwowania przepisów, a także zwiększenie jego zasobów. Komisja przedkłada sprawozdanie z oceny Parlamentowi Europejskiemu i Radzie.

Poprawka 701

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 4

Tekst proponowany przez Komisję Poprawka
4. Do dnia [trzy lata od daty rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., a następnie co cztery lata Komisja ocenia wpływ i skuteczność kodeksów postępowania sprzyjających stosowaniu wymogów określonych w tytule III rozdział 2 oraz ewentualnie innych dodatkowych wymogów dotyczących systemów sztucznej inteligencji innych niż systemy sztucznej inteligencji wysokiego ryzyka. 4. Do dnia [rok od daty rozpoczęcia stosowania niniejszego rozporządzenia, o której mowa w art. 85 ust. 2] r., a następnie co dwa lata Komisja ocenia wpływ i skuteczność kodeksów postępowania sprzyjających stosowaniu wymogów określonych w tytule III rozdział 2 oraz ewentualnie innych dodatkowych wymogów dotyczących systemów sztucznej inteligencji innych niż systemy sztucznej inteligencji wysokiego ryzyka.

Poprawka 702

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 5

Tekst proponowany przez Komisję Poprawka
5. Do celów ust. 1-4 Rada, państwa członkowskie i właściwe organy krajowe przekazują Komisji informacje na jej wniosek. 5. Do celów ust. 1-4 Urząd ds. Sztucznej Inteligencji, państwa członkowskie i właściwe organy krajowe przekazują Komisji bez zbędnej zwłoki informacje na jej wniosek.

Poprawka 703

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 6

Tekst proponowany przez Komisję Poprawka
6. Dokonując ocen i przeglądów, o których mowa w ust. 1-4, Komisja uwzględnia stanowiska i ustalenia Rady, Parlamentu Europejskiego, Rady Unii Europejskiej oraz innych stosownych podmiotów lub źródeł. 6. Dokonując ocen i przeglądów, o których mowa w ust. 1-4, Komisja uwzględnia stanowiska i ustalenia Urzędu ds. Sztucznej Inteligencji, Parlamentu Europejskiego, Rady Unii Europejskiej oraz innych stosownych podmiotów lub źródeł oraz konsultuje się z odpowiednimi zainteresowanymi stronami. Wyniki takich konsultacji załącza się do sprawozdania;

Poprawka 704

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 7

Tekst proponowany przez Komisję Poprawka
7. W razie potrzeby Komisja przedkłada odpowiednie wnioski w celu zmiany niniejszego rozporządzenia, uwzględniając w szczególności rozwój technologii oraz stan postępu w społeczeństwie informacyjnym. 7. W razie potrzeby Komisja przedkłada odpowiednie wnioski w celu zmiany niniejszego rozporządzenia, uwzględniając w szczególności rozwój technologii, wpływ systemów sztucznej inteligencji na zdrowie i bezpieczeństwo, prawa podstawowe, środowisko, równość i dostępność dla osób z niepełnosprawnościami, demokrację i praworządność oraz stan postępu w społeczeństwie informacyjnym.

Poprawka 705

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 7 a (nowy)

Tekst proponowany przez Komisję Poprawka
7a. W celu ukierunkowania ocen i przeglądów, o których mowa w ust. 1-4 niniejszego artykułu, Urząd opracowuje obiektywną i partycypacyjną metodykę oceny poziomu ryzyka w oparciu o kryteria określone w odpowiednich artykułach i włączenia nowych systemów do: wykazu w załączniku III, łącznie z rozszerzeniem istniejących nagłówków dotyczących obszarów lub dodaniem nowych nagłówków dotyczących obszarów w tym załączniku; zawartego w art. 5 wykazu zakazanych praktyk; oraz wykazu systemów sztucznej inteligencji wymagających dodatkowych środków w zakresie przejrzystości zgodnie z art. 52.

Poprawka 706

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 7 b (nowy)

Tekst proponowany przez Komisję Poprawka
7b. Wszelkie zmiany wprowadzane do niniejszego rozporządzenia zgodnie z ust. 7 niniejszego artykułu lub odpowiednie przyszłe akty delegowane i wykonawcze, które dotyczą prawodawstwa sektorowego wymienionego w załączniku II sekcja B, uwzględniają specyfikę regulacyjną każdego sektora i istniejące mechanizmy zarządzania, oceny zgodności i egzekwowania oraz działalność organów ustanowionych w tym sektorze.

Poprawka 707

Wniosek dotyczący rozporządzenia

Artykuł 84 - ustęp 7 c (nowy)

Tekst proponowany przez Komisję Poprawka
7c. Do dnia ... [pięć lat od daty rozpoczęcia stosowania niniejszego rozporządzenia] Komisja przeprowadza ocenę wdrażania niniejszego rozporządzenia i przedkłada sprawozdanie z tej oceny Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu, uwzględniając pierwsze lata stosowania niniejszego rozporządzenia. Na podstawie ustaleń do sprawozdania tego dołącza się, w stosownych przypadkach, wniosek dotyczący zmiany niniejszego rozporządzenia w odniesieniu do struktury egzekwowania przepisów i potrzeby usunięcia wszelkich stwierdzonych niedociągnięć przez agencję Unii.

Poprawka 708

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK I

Tekst proponowany przez Komisję Poprawka
TECHNIKI I PODEJŚCIA Z ZAKRESU SZTUCZNEJ INTELIGENCJI, o których mowa w art. 3 pkt 1

a) mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego;

skreśla się
b) metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne programowanie (logiczne), bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne) i systemy ekspertowe;

c) podejścia statystyczne, estymacja bayesowska, metody wyszukiwania i optymalizacji.

Poprawka 709

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
Systemy sztucznej inteligencji wysokiego ryzyka zgodnie z art. 6 ust. 2 to systemy sztucznej inteligencji wymienione w którymkolwiek z poniższych obszarów: Systemy sztucznej inteligencji, o których mowa w pkt 1-8a, stanowią krytyczne przypadki użycia i każde z nich uznaje się za systemy sztucznej inteligencji wysokiego ryzyka zgodnie z art. 6 ust. 2, pod warunkiem że spełniają one kryteria określone w tym artykule:

Poprawka 710

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 1 - wprowadzenie

Tekst proponowany przez Komisję Poprawka
1. identyfikacja i kategoryzacja biometryczna osób fizycznych: 1. systemy biometryczne i systemy oparte na biometrii:

Poprawka 711

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do stosowania w celu zdalnej identyfikacji biometrycznej osób fizycznych

"w czasie rzeczywistym" i "post factum";

a) systemy sztucznej inteligencji przeznaczone do stosowania w celu identyfikacji biometrycznej osób fizycznych, z wyjątkiem systemów, o których mowa w art. 5;

Poprawka 712

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 1 - litera a a (nowa)

Tekst proponowany przez Komisję Poprawka
aa) systemy sztucznej inteligencji przeznaczone do wykorzystywania do wyciągania wniosków o cechach osobowych osób fizycznych na podstawie danych biometrycznych lub danych opartych na biometrii, w tym systemy rozpoznawania emocji, z wyjątkiem systemów wymienionych w art. 5;

punkt 1 nie obejmuje systemów sztucznej inteligencji przeznaczonych do weryfikacji biometrycznej, których jedynym celem jest potwierdzenie, że określona osoba fizyczna jest osobą, za którą się podaje.

Poprawka 713

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 2 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do stosowania jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi ruchu drogowego oraz zaopatrzenia w wodę, gaz, ciepło i energię elektryczną; a) systemy sztucznej inteligencji przeznaczone do stosowania jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi ruchu drogowego, kolejowego i lotniczego, chyba że są one regulowane prawodawstwem harmonizacyjnym lub sektorowym;

Poprawka 714

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 2 - litera a a (nowa)

Tekst proponowany przez Komisję Poprawka
aa) systemy sztucznej inteligencji przeznaczone do stosowania jako związane z bezpieczeństwem elementy procesów zarządzania i zaopatrzenia w wodę, gaz, ciepło, energię elektryczną i krytycznej infrastruktury cyfrowej;

Poprawka 715

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 3 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do stosowania w celu podejmowania decyzji o dostępie do instytucji edukacyjnych i instytucji szkolenia zawodowego lub nadawania osobom przydziału do tych instytucji; a) systemy sztucznej inteligencji przeznaczone do stosowania w celu podejmowania decyzji o dostępie lub w celu wywierania znaczącego wpływu na proces podejmowania decyzji o dostępie do instytucji edukacyjnych i instytucji szkolenia zawodowego lub nadawania osobom przydziału do tych instytucji;

Poprawka 716

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 3 - litera b

Tekst proponowany przez Komisję Poprawka
b) systemy sztucznej inteligencji przeznaczone do stosowania w celu oceny uczniów w instytucjach edukacyjnych i instytucji szkolenia zawodowego oraz do oceny uczestników egzaminów powszechnie wymaganych w celu przyjęcia do instytucji edukacyjnych; b) systemy sztucznej inteligencji przeznaczone do stosowania w celu oceny uczniów w instytucjach edukacyjnych i instytucji szkolenia zawodowego oraz do oceny uczestników egzaminów powszechnie wymaganych w celu przyjęcia do tych instytucji;

Poprawka 717

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 3 - litera b a (nowa)

Tekst proponowany przez Komisję Poprawka
ba) systemy sztucznej inteligencji przeznaczone do stosowania w celu oceny odpowiedniego poziomu wykształcenia w przypadku danej osoby i istotnego wpływania na poziom wykształcenia i szkolenia zawodowego, jaki dana osoba otrzyma lub do jakiego będzie mogła mieć dostęp;

Poprawka 718

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 3 - litera b b (nowa)

Tekst proponowany przez Komisję Poprawka
bb) systemy sztucznej inteligencji przeznaczone do monitorowania i wykrywania niedozwolonego zachowania uczniów podczas testów w kontekście / w ramach instytucji kształcenia i szkolenia zawodowego;

Poprawka 719

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 4 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu rekrutacji lub wyboru osób fizycznych, w szczególności w przypadku informowania o wakatach, selekcji lub filtrowania podań o pracę, oceny kandydatów w trakcie rozmów kwalifikacyjnych lub testów; a) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu rekrutacji lub wyboru osób fizycznych, w szczególności w przypadku umieszczania ukierunkowanych ogłoszeń o pracę, selekcji lub filtrowania podań o pracę, oceny kandydatów w trakcie rozmów kwalifikacyjnych lub testów;

Poprawka 720

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 4 - litera b

Tekst proponowany przez Komisję Poprawka
b) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu podejmowania decyzji o awansie i rozwiązaniu stosunku pracy, przydzielania zadań oraz monitorowania i oceny wydajności i zachowania osób pozostających w takich stosunkach; b) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu podejmowania decyzji lub istotnego wpływania na decyzje o nawiązaniu stosunku pracy, awansie i rozwiązaniu stosunku pracy, przydzielania zadań na podstawie indywidualnego zachowania lub cech osobistych lub cech charakterystycznych, oraz monitorowania i oceny wydajności i zachowania osób pozostających w takich stosunkach;

Poprawka 721

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 5 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy publiczne lub w imieniu organów publicznych w celu oceny kwalifikowalności osób fizycznych do świadczeń i usług publicznych, jak również w celu przyznawania, ograniczania, unieważniania lub żądania zwrotu takich świadczeń i usług; a) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy publiczne lub w imieniu organów publicznych w celu oceny kwalifikowalności osób fizycznych do świadczeń i usług publicznych, w tym usług opieki zdrowotnej i usług kluczowych, w tym m.in. mieszkalnictwa, ogrzewania/chłodzenia i internetu, jak również w celu przyznawania, ograniczania, unieważniania, zwiększania lub żądania zwrotu takich świadczeń i usług;

Poprawka 722

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 5 - litera b

Tekst proponowany przez Komisję Poprawka
b) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu oceny zdolności kredytowej osób fizycznych lub ustalenia ich punktowej oceny kredytowej, z wyjątkiem systemów sztucznej inteligencji oddawanych do użytku przez drobnych dostawców na ich własny użytek; b) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu oceny zdolności kredytowej osób fizycznych lub ustalenia ich punktowej oceny kredytowej, z wyjątkiem systemów sztucznej inteligencji wykorzystywanych w celu wykrywania oszustw finansowych;

Poprawka 723

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 5 - litera b a (nowa)

Tekst proponowany przez Komisję Poprawka
ba) systemy sztucznej inteligencji przeznaczone do stosowania w celu podejmowania decyzji lub istotnego wpływania na podejmowanie decyzji w zakresie kwalifikowania się osób fizycznych do ubezpieczenia zdrowotnego i ubezpieczenia na życie;

Poprawka 724

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 5 - litera c

Tekst proponowany przez Komisję Poprawka
c) systemy sztucznej inteligencji przeznaczone do wykorzystania w celu wysyłania lub ustalania priorytetów w wysyłaniu służb ratunkowych w sytuacjach kryzysowych, w tym straży pożarnej i pomocy medycznej; c) systemy sztucznej inteligencji przeznaczone do oceny i klasyfikacji zgłoszeń alarmowych dokonywanych przez osoby fizyczne lub do wykorzystania w celu wysyłania lub ustalania priorytetów w wysyłaniu służb ratunkowych w sytuacjach kryzysowych, w tym policji i organów ścigania, straży pożarnej i pomocy medycznej, a także systemów oceny stanu zdrowia pacjentów w nagłych wypadkach;

Poprawka 725

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 6 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania w celu przeprowadzania indywidualnych ocen ryzyka w odniesieniu do osób fizycznych, aby ocenić ryzyko popełnienia lub ponownego popełnienia przestępstwa przez osobę fizyczną lub ryzyko, na jakie narażone są potencjalne ofiary przestępstw; skreśla się

Poprawka 726

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 6 - litera b

Tekst proponowany przez Komisję Poprawka
b) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania jako poligrafy i podobne narzędzia lub w celu wykrywania stanu emocjonalnego osoby fizycznej; b) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania lub w ich imieniu, lub przez agencje, urzędy lub organy Unii wspierające organy ścigania jako poligrafy i podobne narzędzia, o ile ich wykorzystanie jest dozwolone na mocy odpowiednich przepisów prawa unijnego i krajowego;

Poprawka 727

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 6 - litera c

Tekst proponowany przez Komisję Poprawka
c) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania wykrywania treści stworzonych z wykorzystaniem technologii deepfake, o których mowa w art. 52 ust. 3; skreśla się

Poprawka 728

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 6 - litera d

Tekst proponowany przez Komisję Poprawka
d) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania w celu oceny wiarygodności dowodów w toku ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie; d) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania lub w ich imieniu, lub przez agencje, urzędy lub organy Unii wspierające organy ścigania w ocenie wiarygodności dowodów w toku ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie;

Poprawka 729

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 6 - litera e

Tekst proponowany przez Komisję Poprawka
e) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania w celu przewidywania wystąpienia lub ponownego wystąpienia rzeczywistego lub potencjalnego przestępstwa na podstawie profilowania osób fizycznych, o którym mowa w art. 3 pkt 4 dyrektywy (UE) 2016/680, lub w celu oceny cech osobowości i charakterystyki lub wcześniejszego zachowania przestępnego osób fizycznych lub grup; skreśla się

Poprawka 730

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 6 - litera f

Tekst proponowany przez Komisję Poprawka
f) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania w celu profilowania osób fizycznych, o którym mowa w art. 3 pkt 4 dyrektywy (UE) 2016/680, w toku wykrywania i ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie; f) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania lub w ich imieniu, lub przez agencje, urzędy lub organy Unii wspierające organy ścigania w celu profilowania osób fizycznych, o którym mowa w art. 3 pkt 4 dyrektywy (UE) 2016/680, w toku wykrywania i ścigania przestępstw lub prowadzenia dochodzeń w ich sprawie lub, w przypadku agencji, urzędów lub organów Unii, o którym mowa w art. 3 ust. 5 rozporządzenia (UE) 2018/1725;

Poprawka 731

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 6 - litera g

Tekst proponowany przez Komisję Poprawka
g) systemy sztucznej inteligencji przeznaczone do wykorzystania do analizy przestępczości osób fizycznych, umożliwiające organom ścigania przeszukiwanie złożonych, powiązanych i niepowiązanych dużych zbiorów danych dostępnych w różnych źródłach danych lub w różnych formatach danych w celu zidentyfikowania nieznanych wzorców lub odkrycia ukrytych zależności między danymi; g) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organy ścigania lub w ich imieniu, lub przez agencje, urzędy lub organy Unii wspierające organy ścigania do celów analizy przestępczości osób fizycznych, umożliwiające przeszukiwanie złożonych, powiązanych i niepowiązanych dużych zbiorów danych dostępnych w różnych źródłach danych lub w różnych formatach danych w celu zidentyfikowania nieznanych wzorców lub odkrycia ukrytych zależności między danymi;

Poprawka 732

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 7 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne jako poligrafy i podobne narzędzia lub w celu wykrywania stanu emocjonalnego osoby fizycznej; a) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne lub w ich imieniu, lub przez agencje, urzędy lub organy Unii jako poligrafy i podobne narzędzia, o ile ich wykorzystanie jest dozwolone na mocy odpowiednich przepisów prawa unijnego i krajowego;

Poprawka 733

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 7 - litera b

Tekst proponowany przez Komisję Poprawka
b) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne w celu oceny ryzyka, w tym zagrożenia dla bezpieczeństwa, ryzyka imigracji nieuregulowanej lub zagrożeń dla zdrowia, stwarzanych przez osobę fizyczną, która zamierza wjechać lub wjechała na terytorium państwa członkowskiego; b) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne lub w ich imieniu, lub przez agencje, urzędy lub organy Unii w celu oceny ryzyka, w tym zagrożenia dla bezpieczeństwa, ryzyka imigracji nieuregulowanej lub zagrożeń dla zdrowia, stwarzanych przez osobę fizyczną, która zamierza wjechać lub wjechała na terytorium państwa członkowskiego;

Poprawka 734

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 7 - litera c

Tekst proponowany przez Komisję Poprawka
c) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne w celu weryfikacji autentyczności dokumentów podróży i dokumentów uzupełniających osób fizycznych oraz wykrywania dokumentów nieautentycznych poprzez sprawdzanie ich zabezpieczeń; c) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne lub w ich imieniu, lub przez agencje, urzędy lub organy Unii w celu weryfikacji autentyczności dokumentów podróży i dokumentów uzupełniających osób fizycznych oraz wykrywania dokumentów nieautentycznych poprzez sprawdzanie ich zabezpieczeń;

Poprawka 735

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 7 - litera d

Tekst proponowany przez Komisję Poprawka
d) systemy sztucznej inteligencji, które mają służyć właściwym organom publicznym pomocą przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu; d) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne lub w ich imieniu, lub przez agencje, urzędy lub organy Unii, które mają służyć właściwym organom publicznym pomocą przy rozpatrywaniu i ocenianiu prawdziwości dowodów w odniesieniu do wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu;

Poprawka 736

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 7 - litera d a (nowa)

Tekst proponowany przez Komisję Poprawka
da) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne lub w ich imieniu, lub przez agencje, urzędy lub organy Unii w zarządzaniu migracją, azylem i kontrolą graniczną, do monitorowania, zabezpieczania lub przetwarzania danych w kontekście działań w zakresie zarządzania granicami w celu wykrywania, rozpoznawania lub identyfikowania osób fizycznych;

Poprawka 737

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 7 - litera d b (nowa)

Tekst proponowany przez Komisję Poprawka
db) systemy sztucznej inteligencji przeznaczone do wykorzystania przez właściwe organy publiczne lub w ich imieniu, lub przez agencje, urzędy lub organy Unii w zarządzaniu migracją, azylem i kontrolą graniczną w celu prognozowania lub przewidywania tendencji związanych z migracją, przemieszczaniem się i przekraczaniem granic;

Poprawka 738

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 8 - litera a

Tekst proponowany przez Komisję Poprawka
a) systemy sztucznej inteligencji, które mają służyć organowi sądowemu pomocą w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa do konkretnego stanu faktycznego. a) systemy sztucznej inteligencji przeznaczone do wykorzystania przez organ sądowy lub administracyjny lub w ich imieniu lub do wspomagania organu sądowego lub organu administracyjnego w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa do konkretnego stanu faktycznego lub wykorzystywane w podobny sposób w alternatywnych metodach rozwiązywania sporów.

Poprawka 739

Wniosek dotyczący rozporządzenia Załącznik III - akapit 1 - punkt 8 - litera a a (nowa)

Tekst proponowany przez Komisję Poprawka
aa) Systemy sztucznej inteligencji przeznaczone do wykorzystania w celu wywierania wpływu na wynik wyborów lub referendum lub na zachowanie osób fizycznych podczas głosowania w wyborach lub referendach. Nie obejmuje to systemów sztucznej inteligencji, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji i strukturyzowania kampanii politycznych z administracyjnego i logistycznego punktu widzenia.

Poprawka 740

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK III - akapit 1 - punkt 8 - litera a b (nowa)

Tekst proponowany przez Komisję Poprawka
ab) systemy sztucznej inteligencji przeznaczone do wykorzystania przez platformy mediów społecznościowych, które zostały wyznaczone jako bardzo duże platformy internetowe w rozumieniu art. 33 rozporządzenia (UE) 2022/2065, w ich systemach rekomendacji w celu zalecania odbiorcy treści stworzonych przez użytkownika usługi dostępnych na platformie.

Poprawka 741

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera a

Tekst proponowany przez Komisję Poprawka
a) jego przeznaczenie, dane osoby lub osób, które opracowały system, datę i wersję systemu; a) jego przeznaczenie, nazwę dostawcy i wersję systemu, odzwierciedlające jego związek z poprzednimi i, w stosownych przypadkach, nowszymi, kolejnymi wersjami;

Poprawka 742

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera a a (nowa)

Tekst proponowany przez Komisję Poprawka
aa) charakter danych, które mogą być lub mają być przetwarzane przez system, a w przypadku danych osobowych - kategorie osób fizycznych i grup, na które prawdopodobnie wpłynie stosowanie systemu;

Poprawka 743

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera b

Tekst proponowany przez Komisję Poprawka
b) sposób, w jaki system sztucznej inteligencji, w stosownych przypadkach, współdziała lub może być wykorzystany do współdziałania ze sprzętem lub oprogramowaniem, które nie są częścią samego systemu sztucznej inteligencji; b) sposób, w jaki system sztucznej inteligencji, w stosownych przypadkach, może współdziałać lub może być wykorzystany do współdziałania ze sprzętem lub oprogramowaniem, w tym z innymi systemami sztucznej inteligencji, które nie są częścią samego systemu sztucznej inteligencji;

Poprawka 744

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK IV - akapit 1 - punkt 1 - litera c

Tekst proponowany przez Komisję Poprawka
c) wersje odpowiedniego oprogramowania lub oprogramowania układowego oraz wszelkie wymogi związane z aktualizacją wersji; c) wersje odpowiedniego oprogramowania lub oprogramowania układowego oraz, w stosownych przypadkach, informacje dla operatora sztucznej inteligencji dotyczące wszelkich wymogów związanych z aktualizacją wersji;

Poprawka 745

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera d

Tekst proponowany przez Komisję Poprawka
d) opis wszystkich form, w jakich system sztucznej inteligencji wprowadza się do obrotu lub oddaje do użytku; d) opis różnych konfiguracji i wariantów systemu sztucznej inteligencji, które mają zostać wprowadzone do obrotu lub oddane do użytku;

Poprawka 746

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera f a (nowa)

Tekst proponowany przez Komisję Poprawka
fa) opis interfejsu operatora sztucznej inteligencji;

Poprawka 747

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera g

Tekst proponowany przez Komisję Poprawka
g) instrukcję obsługi dla użytkownika oraz, w stosownych przypadkach, instrukcję instalacji; g) instrukcję obsługi dla operatora sztucznej inteligencji zgodnie z art. 13 ust. 2 i 3, a także z art. 14 ust. 4 lit. e) oraz, w stosownych przypadkach, instrukcję instalacji;

Poprawka 748

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera g a (nowa)

Tekst proponowany przez Komisję Poprawka
ga) szczegółowy i zrozumiały opis głównego celu lub celów optymalizacji systemu;

Poprawka 749

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK IV - akapit 1 - punkt 1 - litera g b (nowa)

Tekst proponowany przez Komisję Poprawka
gb) szczegółowy i łatwo zrozumiały opis oczekiwanych wyników działania systemu sztucznej inteligencji oraz oczekiwanej jakości tych wyników;

Poprawka 750

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera g c (nowa)

Tekst proponowany przez Komisję Poprawka
gc) szczegółowe i zrozumiałe instrukcje dotyczące interpretacji danych wyjściowych systemu sztucznej inteligencji;

Poprawka 751

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 1 - litera g d (nowa)

Tekst proponowany przez Komisję Poprawka
gd) przykłady scenariuszy, w których system nie powinien być stosowany;

Poprawka 752

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 2 - litera b

Tekst proponowany przez Komisję Poprawka
b) specyfikacje projektowe systemu, a mianowicie ogólna logiki systemu sztucznej inteligencji i algorytmów; kluczowe decyzje projektowe wraz z uzasadnieniem i przyjętymi założeniami, również w odniesieniu do osób lub grup osób, wobec których system ma być wykorzystywany; główne wybory klasyfikacyjne; wskazanie, pod kątem czego system ma być optymalizowany, i znaczenie poszczególnych parametrów; decyzje dotyczące wszelkich możliwych kompromisów w zakresie rozwiązań technicznych przyjętych w celu spełnienia wymogów określonych w tytule III rozdział 2; b) opis budowy, specyfikacji projektowych, algorytmów i struktur danych wraz z rozkładem jego komponentów i interfejsów, ich wzajemnych powiązań oraz sposobu, w jaki zapewniają one ogólne przetwarzanie lub logikę systemu sztucznej inteligencji; kluczowe decyzje projektowe wraz z uzasadnieniem i przyjętymi założeniami, również w odniesieniu do osób lub grup osób, wobec których system ma być wykorzystywany; główne wybory klasyfikacyjne; wskazanie, pod kątem czego system ma być optymalizowany, i znaczenie poszczególnych parametrów; decyzje dotyczące wszelkich możliwych kompromisów w zakresie rozwiązań technicznych przyjętych w celu spełnienia wymogów określonych w tytule III rozdział 2;

Poprawka 753

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK IV - akapit 1 - punkt 2 - litera c

Tekst proponowany przez Komisję Poprawka
c) opis architektury systemu wyjaśniający, w jaki sposób elementy oprogramowania współgrają ze sobą lub wzajemnie się uzupełniają oraz włączają się w ogólne przetwarzanie; zasoby obliczeniowe wykorzystywane do opracowania, trenowania, testowania i walidacji systemu sztucznej inteligencji; c) skreśla się

Poprawka 754

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 2 - litera e

Tekst proponowany przez Komisję Poprawka
e) ocenę środków nadzoru ze strony człowieka wymaganych na podstawie art. 14, w tym ocenę środków technicznych potrzebnych do ułatwienia użytkownikom interpretacji wyników działania systemów sztucznej inteligencji, zgodnie z art. 13 ust. 3 lit. d); e) ocenę środków nadzoru ze strony człowieka wymaganych na podstawie art. 14, w tym ocenę środków technicznych potrzebnych do ułatwienia operatorom sztucznej inteligencji interpretacji wyników działania systemów sztucznej inteligencji, zgodnie z art. 13 ust. 3 lit. d);

Poprawka 755

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 2 - litera g

Tekst proponowany przez Komisję Poprawka
g) zastosowane procedury walidacji i testowania, w tym informacje o wykorzystanych danych walidacyjnych i danych testowych oraz ich głównych cechach; wskaźniki stosowane do pomiaru dokładności, solidności, cyberbezpieczeństwa i zgodności z innymi stosownymi wymogami określonymi w tytule III rozdział 2, jak również potencjalnie dyskryminujących skutków; rejestry zdarzeń generowane podczas testów i wszystkie sprawozdania z testów opatrzone datą i podpisane przez osoby odpowiedzialne, w tym w odniesieniu do z góry zaplanowanych zmian, o których mowa w lit. f); g) zastosowane procedury walidacji i testowania, w tym informacje o wykorzystanych danych walidacyjnych i danych testowych oraz ich głównych cechach; informacje stosowane do pomiaru dokładności, solidności i zgodności z innymi stosownymi wymogami określonymi w tytule III rozdział 2, jak również potencjalnie dyskryminujących skutków; rejestry zdarzeń generowane podczas testów i wszystkie sprawozdania z testów opatrzone datą i podpisane przez osoby odpowiedzialne, w tym w odniesieniu do z góry zaplanowanych zmian, o których mowa w lit. f);

Poprawka 756

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 2 - litera g a (nowa)

Tekst proponowany przez Komisję Poprawka
ga) wdrożone środki w zakresie cyberbezpieczeństwa.

Poprawka 757

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK IV - akapit 1 - punkt 3

Tekst proponowany przez Komisję Poprawka
3. szczegółowe informacje dotyczące monitorowania, funkcjonowania i kontroli systemu sztucznej inteligencji, w szczególności w odniesieniu do: jego możliwości i ograniczeń w zakresie skuteczności działania, w tym stopnie dokładności w przypadku określonych osób lub grup osób, wobec których system ma być wykorzystywany, oraz ogólny spodziewany poziom dokładności w stosunku do jego przeznaczenia; możliwych do przewidzenia niezamierzonych wyników działania i źródeł zagrożeń dla zdrowia i bezpieczeństwa, praw podstawowych i dyskryminacji w świetle przeznaczenia systemu sztucznej inteligencji; środków nadzoru ze strony człowieka wymaganych na podstawie art. 14, w tym środków technicznych wprowadzonych w celu ułatwienia użytkownikom interpretacji wyników działania systemów sztucznej inteligencji; w stosownych przypadkach specyfikacji dotyczących danych wejściowych; 3. szczegółowe informacje dotyczące monitorowania, funkcjonowania i kontroli systemu sztucznej inteligencji, w szczególności w odniesieniu do: jego możliwości i ograniczeń w zakresie skuteczności działania, w tym stopnie dokładności w przypadku określonych osób lub grup osób, wobec których system ma być wykorzystywany, oraz ogólny spodziewany poziom dokładności w stosunku do jego przeznaczenia; możliwych do przewidzenia niezamierzonych wyników działania i źródeł zagrożeń dla zdrowia i bezpieczeństwa, praw podstawowych i dyskryminacji w świetle przeznaczenia systemu sztucznej inteligencji; środków nadzoru ze strony człowieka wymaganych na podstawie art. 14, w tym środków technicznych wprowadzonych w celu ułatwienia operatorom sztucznej inteligencji interpretacji wyników działania systemów sztucznej inteligencji; w stosownych przypadkach specyfikacji dotyczących danych wejściowych;

Poprawka 758

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 3 a (nowy)

Tekst proponowany przez Komisję Poprawka
3a. opis adekwatności wskaźników wydajności w odniesieniu do konkretnego systemu sztucznej inteligencji;

Poprawka 759

Wniosek dotyczący rozporządzenia Załącznik IV - akapit 1 - punkt 3 b (nowy)

Tekst proponowany przez Komisję Poprawka
3b. informacje na temat zużycia energii przez system sztucznej inteligencji podczas opracowywania i przewidywanego zużycia podczas użytkowania, z uwzględnieniem, w stosownych przypadkach, odpowiednich przepisów unijnych i krajowych;

Poprawka 760

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK IV - akapit 1 - punkt 5

Tekst proponowany przez Komisję Poprawka
5. opis wszelkich zmian dokonanych w systemie w jego cyklu życia; 5. opis wszelkich istotnych zmian dokonanych przez dostawców w systemie w jego cyklu życia;

Poprawka 761

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK IV - akapit 1 - punkt 6

Tekst proponowany przez Komisję Poprawka
6. wykaz norm zharmonizowanych stosowanych w całości lub w części, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej; w przypadku gdy nie zastosowano takich norm zharmonizowanych, szczegółowy opis rozwiązań przyjętych w celu spełnienia wymogów określonych w tytule III rozdział 2, w tym wykaz innych odpowiednich zastosowanych norm i specyfikacji technicznych; 6. wykaz norm zharmonizowanych stosowanych w całości lub w części, do których odniesienia opublikowano w Dzienniku Urzędowym Unii Europejskiej; w przypadku gdy nie zastosowano takich norm zharmonizowanych, szczegółowy opis rozwiązań przyjętych w celu spełnienia wymogów określonych w tytule III rozdział 2, w tym wykaz innych odpowiednich zastosowanych norm lub wspólnych specyfikacji;

Poprawka 762

Wniosek dotyczący rozporządzenia Załącznik V - akapit 1 - punkt 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
4a. W przypadku gdy system sztucznej inteligencji wiąże się z przetwarzaniem danych osobowych, oświadczenie, że system sztucznej inteligencji jest zgodny z rozporządzeniami (UE) 2016/679 i (UE) 2018/1725 oraz dyrektywą (UE) 2016/680.

Poprawka 763

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK V - akapit 1 - punkt 7

Tekst proponowany przez Komisję Poprawka
7. miejsce i datę wystawienia deklaracji, imię i nazwisko oraz stanowisko osoby, która złożyła podpis pod dokumentem, oraz wskazanie, z czyjego upoważnienia i w czyim imieniu ta osoba podpisała dokument, oraz podpis. 7. miejsce i datę wystawienia deklaracji, podpis, imię i nazwisko oraz stanowisko osoby, która złożyła podpis pod dokumentem, oraz wskazanie, z czyjego upoważnienia i w czyim imieniu ta osoba podpisała dokument, oraz podpis.

Poprawka 764

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VII - punkt 4 - podpunkt 4.5

Tekst proponowany przez Komisję Poprawka
4.5. Jeżeli jest to konieczne do oceny zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami określonymi w tytule III rozdział 2 oraz na uzasadniony wniosek, jednostka notyfikowana uzyskuje również dostęp do kodu źródłowego systemu sztucznej inteligencji. 4.5. Jeżeli jest to konieczne do oceny zgodności systemu sztucznej inteligencji wysokiego ryzyka z wymogami określonymi w tytule III rozdział 2, po wyczerpaniu wszystkich innych racjonalnych sposobów weryfikacji zgodności, które okazały się niewystarczające, oraz na uzasadniony wniosek, jednostka notyfikowana uzyskuje również dostęp do modeli treningowych i trenowanych systemu sztucznej inteligencji, w tym do odpowiednich jego parametrów. Taki dostęp podlega obowiązującym przepisom unijnym dotyczącym własności intelektualnej i tajemnic przedsiębiorstwa. Podejmują one środki techniczne i organizacyjne w celu zapewnienia ochrony własności intelektualnej i tajemnic przedsiębiorstwa.

Poprawka 765

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - akapit 1

Tekst proponowany przez Komisję Poprawka
W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka, które podlegają rejestracji zgodnie z art. 51, przekazuje się, a następnie aktualizuje następujące informacje: Sekcja A - W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka, które podlegają rejestracji zgodnie z art. 51 ust. 1, przekazuje się, a następnie aktualizuje następujące informacje:

Poprawka 766

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - punkt 4 a (nowy)

Tekst proponowany przez Komisję Poprawka
4a. nazwę handlową modelu generatywnego oraz wszelkie dodatkowe jednoznaczne odniesienia umożliwiające identyfikację i identyfikowalność;

Poprawka 767

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - punkt 5

Tekst proponowany przez Komisję Poprawka
5. opis przeznaczenia systemu sztucznej inteligencji; 5. prosty i zrozumiały opis

a) przeznaczenia systemu sztucznej inteligencji;

b) elementów i funkcji wspieranych przez sztuczną inteligencję;

c) podstawowe wyjaśnienia dotyczące logiki systemu sztucznej inteligencji;

Poprawka 768

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - punkt 5 a (nowy)

Tekst proponowany przez Komisję Poprawka
5a. w stosownych przypadkach, kategorie i charakter danych, które mogą być lub mają być przetwarzane;

Poprawka 769

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - punkt 11

Tekst proponowany przez Komisję Poprawka
11. elektroniczną instrukcję obsługi; informacji tych nie podaje się w przypadku systemów sztucznej inteligencji wysokiego ryzyka w obszarach egzekwowania prawa oraz zarządzania migracją, azylem i kontrolą graniczną, o których mowa w załączniku III pkt 1, 6 i 7. skreśla się

Poprawka 770

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - SEKCJA B (nowa)

Tekst proponowany przez Komisję Poprawka
Sekcja B - W odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka, które podlegają rejestracji zgodnie z art. 51 ust. 1a lit. a) i ust. 1b, przekazuje się, a następnie aktualizuje następujące informacje:

1. nazwę, adres i dane kontaktowe operatora sztucznej inteligencji;

2. imię i nazwisko, adres i dane kontaktowe osoby przesyłającej informacje w imieniu operatora sztucznej inteligencji;

3. nazwę handlową systemu sztucznej inteligencji wysokiego ryzyka oraz wszelkie dodatkowe jednoznaczne odniesienia umożliwiające identyfikację i identyfikowalność używanego systemu sztucznej inteligencji;

4. a) prosty i zrozumiały opis zamierzonego zastosowania systemu sztucznej inteligencji, w tym konkretnych wyników, jakie mają być osiągnięte dzięki zastosowaniu systemu, geograficzny i czasowy zakres zastosowania;

b) w stosownych przypadkach, kategorie i charakter danych, które mają być przetwarzane;

c) ustalenia dotyczące nadzoru ze strony człowieka;

d) w stosownych przypadkach - organy lub osoby fizyczne odpowiedzialne za decyzje podejmowane lub wspierane przez system sztucznej inteligencji;

5. streszczenie ustaleń oceny skutków w zakresie praw podstawowych przeprowadzonej zgodnie z art. 29a;

6. adres URL wpisu systemu sztucznej inteligencji do unijnej bazy danych dokonanego przez jego dostawcę;

7. w stosownych przypadkach streszczenie oceny skutków dla ochrony danych przeprowadzonej zgodnie z art. 35 rozporządzenia (UE) 2016/679 lub art. 27 dyrektywy (UE) 2016/680, jak określono w art. 29 ust. 6 niniejszego rozporządzenia.

Poprawka 771

Wniosek dotyczący rozporządzenia

ZAŁĄCZNIK VIII - Sekcja C (nowa)

Tekst proponowany przez Komisję Poprawka
Sekcja C - W odniesieniu do modeli generatywnych, które podlegają rejestracji zgodnie z art. 28b lit. e), przekazuje się, a następnie aktualizuje następujące informacje:

1. nazwę/imię i nazwisko, adres i dane kontaktowe dostawcy;

2. w przypadku gdy w imieniu dostawcy informacje przekazuje inna osoba, nazwę/imię i nazwisko, adres i dane kontaktowe tej osoby;

3. w stosownych przypadkach nazwę/imię i nazwisko, adres i dane kontaktowe upoważnionego przedstawiciela;

4. nazwę handlową oraz wszelkie dodatkowe jednoznaczne odniesienia umożliwiające identyfikację modelu generatyw- nego;

5. opis źródeł danych wykorzystywanych przy opracowywaniu modelu generatywnego;

6. opis możliwości i ograniczeń modelu generatywnego, w tym racjonalnie przewidywalne ryzyko i środki podjęte w celu jego ograniczenia, a także pozostałe ryzyko, które nie zostało ograniczone, wraz z wyjaśnieniem, dlaczego nie można go ograniczyć;

7. opis zasobów treningowych wykorzystywanych przez model generatywny, w tym wymagana moc obliczeniowa, czas trenowania oraz inne istotne informacje dotyczące wielkości i mocy modelu; opis wyników modelu, w tym w odniesieniu do publicznych benchmarków lub najnowocześniejszych benchmarków branżowych;

8. opis wyników odpowiednich testów wewnętrznych i zewnętrznych oraz optymalizacji modelu;

9. państwa członkowskie, w których model generatywny wprowadza się lub wprowadzono do obrotu, oddaje się lub oddano do użytku bądź udostępnia się lub udostępniono w Unii;

10. adres URL odsyłający do dodatkowych informacji (opcjonalnie).

1 Sprawa została odesłana do komisji właściwej w celu przeprowadzenia negocjacji międzyinstytucjonalnych na podstawie art. 59 ust. 4 akapit czwarty Regulaminu (A9-0188/2023).

Zmiany w prawie

Data 30 kwietnia dla wnioskodawcy dodatku osłonowego może być pułapką

Choć ustawa o dodatku osłonowym wskazuje, że wnioski można składać do 30 kwietnia 2024 r., to dla wielu mieszkańców termin ten może okazać się pułapką. Datą złożenia wniosku jest bowiem data jego wpływu do organu. Rząd uznał jednak, że nie ma potrzeby doprecyzowania tej kwestii. A już podczas rozpoznawania poprzednich wniosków, właśnie z tego powodu wielu mieszkańców zostało pozbawionych świadczeń.

Robert Horbaczewski 30.04.2024
Rząd chce zmieniać obowiązujące regulacje dotyczące czynników rakotwórczych i mutagenów

Rząd przyjął we wtorek projekt zmian w Kodeksie pracy, którego celem jest nowelizacja art. 222, by dostosować polskie prawo do przepisów unijnych. Chodzi o dodanie czynników reprotoksycznych do obecnie obwiązujących regulacji dotyczących czynników rakotwórczych i mutagenów. Nowela upoważnienia ustawowego pozwoli na zmianę wydanego na jej podstawie rozporządzenia Ministra Zdrowia w sprawie substancji chemicznych, ich mieszanin, czynników lub procesów technologicznych o działaniu rakotwórczym lub mutagennym w środowisku pracy.

Grażyna J. Leśniak 16.04.2024
Bez kary za brak lekarza w karetce do końca tego roku

W ponad połowie specjalistycznych Zespołów Ratownictwa Medycznego brakuje lekarzy. Ministerstwo Zdrowia wydłuża więc po raz kolejny czas, kiedy Narodowy Fundusz Zdrowia nie będzie pobierał kar umownych w przypadku niezapewnienia lekarza w zespołach ratownictwa. Pierwotnie termin wyznaczony był na koniec czerwca tego roku.

Beata Dązbłaż 10.04.2024
Będzie zmiana ustawy o rzemiośle zgodna z oczekiwaniami środowiska

Rozszerzenie katalogu prawnie dopuszczalnej formy prowadzenia działalności gospodarczej w zakresie rzemiosła, zmiana definicji rzemiosła, dopuszczenie wykorzystywania przez przedsiębiorców, niezależnie od formy prowadzenia przez nich działalności, wszystkich kwalifikacji zawodowych w rzemiośle, wymienionych w ustawie - to tylko niektóre zmiany w ustawie o rzemiośle, jakie zamierza wprowadzić Ministerstwo Rozwoju i Technologii.

Grażyna J. Leśniak 08.04.2024
Tabletki "dzień po" bez recepty nie będzie. Jest weto prezydenta

Dostępność bez recepty jednego z hormonalnych środków antykoncepcyjnych (octan uliprystalu) - takie rozwiązanie zakładała zawetowana w piątek przez prezydenta Andrzeja Dudę nowelizacja prawa farmaceutycznego. Wiek, od którego tzw. tabletka "dzień po" byłaby dostępna bez recepty miał być określony w rozporządzeniu. Ministerstwo Zdrowia stało na stanowisku, że powinno to być 15 lat. Wątpliwości w tej kwestii miała Kancelaria Prezydenta.

Katarzyna Nocuń 29.03.2024
Małżonkowie zapłacą za 2023 rok niższy ryczałt od najmu

Najem prywatny za 2023 rok rozlicza się według nowych zasad. Jedyną formą opodatkowania jest ryczałt od przychodów ewidencjonowanych, według stawek 8,5 i 12,5 proc. Z kolei małżonkowie wynajmujący wspólną nieruchomość zapłacą stawkę 12,5 proc. dopiero po przekroczeniu progu 200 tys. zł, zamiast 100 tys. zł. Taka zmiana weszła w życie w połowie 2023 r., ale ma zastosowanie do przychodów uzyskanych za cały 2023 r.

Monika Pogroszewska 27.03.2024
Metryka aktu
Identyfikator:

Dz.U.UE.C.2024.506

Rodzaj: Informacja
Tytuł: Poprawki przyjęte przez Parlament Europejski w dniu 14 czerwca 2023 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD))
Data aktu: 14/06/2023
Data ogłoszenia: 23/01/2024