Rezolucja Parlamentu Europejskiego z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki (2018/2088(INI)).

Kompleksowa europejska polityka przemysłowa w dziedzinie sztucznej inteligencji i robotyki

P8_TA(2019)0081

Rezolucja Parlamentu Europejskiego z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki (2018/2088(INI))

(2020/C 449/06)

(Dz.U.UE C z dnia 23 grudnia 2020 r.)

Parlament Europejski,

uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki 1 ,
uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu 2 ,
uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia 3 ,
uwzględniając swoją rezolucję z dnia 11 września 2018 r. w sprawie równości językowej w erze cyfrowej 4 ,
uwzględniając wniosek Komisji ustanawiający program "Cyfrowa Europa" na lata 2021-2027, opublikowany dnia 6 czerwca 2018 r. (COM(2018)0434),
uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali 5 ,
uwzględniając art. 52 Regulaminu,
uwzględniając sprawozdanie Komisji Przemysłu, Badań Naukowych i Energii oraz opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów, Komisję Prawną, Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych oraz Komisję Ochrony Środowiska Naturalnego, Zdrowia Publicznego i Bezpieczeństwa Żywności (A8-0019/2019),
A.
mając na uwadze, że przejrzysta i oparta na założeniach etycznych sztuczna inteligencja i robotyka mogą wzbogacić nasze życie i poszerzyć nasze możliwości zarówno na poziomie jednostek, jak i dobra ogółu;
B.
mając na uwadze, że rozwój sztucznej inteligencji dokonuje się w szybkim tempie oraz że sztuczna inteligencja już od wielu lat jest obecna w naszym codziennym życiu; mając na uwadze, że sztuczna inteligencja i robotyka pobudzają innowacje oraz leżą u podstaw nowych modeli biznesowych i odgrywają kluczową rolę w transformacji społecznej i w cyfryzacji gospodarek w wielu sektorach, takich jak przemysł, opieka zdrowotna, budownictwo i transport;
C.
mając na uwadze, że coraz częstsze stosowanie robotyki w systemach ludzkich wymaga zdecydowanych wytycznych politycznych dotyczących sposobów maksymalizacji korzyści i minimalizacji ryzyka społecznego oraz zapewnienia bezpiecznego i sprawiedliwego rozwoju sztucznej inteligencji;
D.
mając na uwadze, że sztuczna inteligencja jest jedną ze strategicznych technologii XXI wieku, zarówno w Europie, jak i na świecie, która przynosi pozytywne zmiany gospodarce europejskiej, zwiększając innowacyjność, produktywność, konkurencyjność i dobrobyt;
E.
mając na uwadze, że około jednej czwartej wszystkich robotów przemysłowych oraz połowę wszystkich profesjonalnych robotów usługowych na świecie produkują przedsiębiorstwa europejskie, w związku z czym UE posiada już istotne atuty, na których powinna oprzeć europejską politykę przemysłową;
F.
mając na uwadze, że sztuczna inteligencja i robotyka mogą przekształcić liczne dziedziny przemysłu i zwiększyć wydajność produkcyjną, a ponadto sprawić, że europejski przemysł i MŚP staną się bardziej konkurencyjne na poziomie światowym; mając na uwadze, że dostępność dużych zbiorów danych oraz zaplecza testowego i doświadczalnego ma zasadnicze znaczenie dla rozwoju sztucznej inteligencji;
G.
mając na uwadze, że wspólne podejście ułatwi rozwój technologii sztucznej inteligencji z korzyścią dla obywateli, a jednocześnie przyczyni się do sprostania wyzwaniom związanym z tymi technologiami w dążeniu do wsparcia innowacji, poprawy jakości produktów i usług opartych na sztucznej inteligencji, zwiększenia zadowolenia konsumentów i ich zaufania do technologii sztucznej inteligencji i robotyki oraz do uniknięcia rozdrobnienia rynku wewnętrznego;
H.
mając na uwadze konieczność utrzymania unijnych zdolności obliczeniowych na najwyższym poziomie, które powinny zapewnić możliwości dla branży zaopatrzeniowej w UE, a także zwiększyć skuteczność działań, aby rozwój technologii stał się bardziej zorientowany na popyt i zastosowanie produktów i usług, w wyniku czego opracowywane technologie będą wdrażane w wielkoskalowych i powstających zastosowaniach opartych na sztucznej inteligencji;
I.
mając na uwadze pilną potrzebę przyjęcia skoordynowanego podejścia na szczeblu europejskim, aby móc konkurować z potężnymi inwestycjami państw trzecich, w szczególności USA i Chin;
J.
mając na uwadze, że w dniu 25 kwietnia 2018 r. 6  Komisja zobowiązała się do zaproponowania europejskiego podejścia do sztucznej inteligencji poprzez opracowanie projektu wytycznych dotyczących sztucznej inteligencji we współpracy z zainteresowanymi stronami w ramach sojuszu na rzecz sztucznej inteligencji oraz grupą ekspertów ds. sztucznej inteligencji, w celu rozwoju w Europie zastosowań i przedsiębiorstw opierających się na sztucznej inteligencji;
K.
mając na uwadze, że należy dokonać oceny i, w razie konieczności, zmiany istniejących przepisów i procesów w taki sposób, aby uwzględniały sztuczną inteligencję i robotykę;
L.
mając na uwadze, że należy rozwijać europejskie ramy dla sztucznej inteligencji przy pełnym poszanowaniu praw zapisanych w Karcie praw podstawowych Unii Europejskiej, a w szczególności zasad ochrony danych, prywatności i bezpieczeństwa;
M.
mając na uwadze, że rozwój sztucznej inteligencji można i należy ukształtować w taki sposób, aby zapewnić poszanowanie godności jednostki, jej niezależności i prawa do samostanowienia;
N.
mając na uwadze, że w rezolucji z dnia 16 lutego 2017 r. zawierającej zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki Parlament wezwał Komisję do zaproponowania spójnych ram prawnych dotyczących rozwoju robotyki, w tym autonomicznych systemów i inteligentnych robotów autonomicznych;
O.
mając na uwadze, że rozwój sztucznej inteligencji i robotyki musi obejmować wszystkich obywateli; mając jednak na uwadze, że w 2017 r. obszary wiejskie były w dużej mierze pozbawione możliwości korzystania z zalet sztucznej inteligencji, ponieważ 8 % gospodarstw domowych nie było objętych żadną siecią stacjonarną, a 53 % nie było objętych żadną technologią dostępu nowej generacji (VDSL, Cable Docsis 3.0 czy FTTP);
P.
mając na uwadze, że rozwój usług i produktów opartych na sztucznej inteligencji wymaga łączności, swobodnego przepływu danych i dostępności danych w obrębie UE; mając na uwadze, że stosowanie zaawansowanych technik eksploracji danych w usługach i produktach może przyczynić się do poprawy jakości procesu podejmowania decyzji, a tym samym zwiększyć możliwości wyboru dostępne konsumentom, oraz do poprawy wyników działalności gospodarczej;
Q.
mając na uwadze, że rozwój technologiczny w dziedzinie inteligentnych produktów i usług może przynieść korzyści gospodarce opartej na wiedzy - która zależy od ilości, jakości i dostępności zgromadzonych informacji - a tym samym może skutkować lepszym dostosowywaniem się do potrzeb konsumentów;
R.
mając na uwadze, że cyberbezpieczeństwo jest niezwykle istotne, by móc zagwarantować, że dane nie są złośliwie fałszowane ani wykorzystywane niezgodnie z przeznaczeniem w taki sposób, by sztuczna inteligencja działała na szkodę obywateli lub przedsiębiorstw, co podważyłoby zaufanie firm i konsumentów do sztucznej inteligencji; mając na uwadze, że rozwój sztucznej inteligencji zwiększa uzależnienie działań i decyzji od tych systemów, co z kolei rodzi potrzebę zapewnienia wysokich standardów cyberodporności w UE, aby chronić się przed naruszeniami i lukami w systemie cyberbezpieczeństwa;
S.
mając na uwadze, że tendencja do automatyzacji wymaga, aby osoby zaangażowane w rozwój i komercjalizację rozwiązań opartych na sztucznej inteligencji od samego początku kierowały się zasadami bezpieczeństwa i etyki, tak aby były świadome konieczności poniesienia odpowiedzialności prawnej za jakość technologii, którą tworzą;
T.
mając na uwadze, że budowa zaufanego ekosystemu dla rozwoju technologii sztucznej inteligencji powinna opierać się na strukturze polityki w zakresie danych; mając na uwadze, że oznacza to stworzenie płynnych i uproszczonych programów gromadzenia danych i zarządzania nimi do celów badań edukacyjnych, aby umożliwić rozwój sztucznej inteligencji w wielu dziedzinach, takich jak medycyna, finanse, biologia, energetyka, przemysł, chemia czy sektor publiczny; mając na uwadze, że ekosystem sztucznej inteligencji oparty na danych może obejmować ogólnoeuropejskie inicjatywy podejmowane w oparciu o otwarte standardy, wzajemne uznawanie certyfikatów i przejrzyste zasady interoperacyjności;
U.
mając na uwadze, że samo korzystanie ze sztucznej inteligencji nie jest gwarancją prawdy ani uczciwości, ponieważ błąd systematyczny może pojawiać się w sposobie gromadzenia danych i pisania algorytmów oraz może wynikać z tendencyjności występującej w społeczeństwie; mając na uwadze, że jakość danych, a także projektowanie algorytmiczne i ciągłe procesy ponownej oceny powinny uniemożliwiać błąd systematyczny;
V.
mając na uwadze, że sztuczna inteligencja i robotyka powinny być rozwijane i stosowane w sposób zorientowany na człowieka w celu wspierania go w pracy oraz w gospodarstwie domowym; mając na uwadze, że dzięki sztucznej inteligencji ludzie będą mogli także unikać wykonywania niebezpiecznych prac;
W.
mając na uwadze, że dalszy rozwój i rosnące wykorzystanie automatycznego podejmowania decyzji opartego na algorytmach niewątpliwie wywrze wpływ na wybory dokonywane zarówno przez osoby fizyczne (np. przedsiębiorców lub użytkowników internetu), jak i organy administracyjne, sądowe lub inne organy publiczne przy podejmowaniu ostatecznych decyzji dotyczących konsumentów, decyzji biznesowych lub decyzji o charakterze rozstrzygającym; mając na uwadze, że w procesie automatycznego podejmowania decyzji opartego na algorytmach konieczne jest zapewnienie zabezpieczeń oraz możliwości kontroli i weryfikacji przez człowieka;
X.
mając na uwadze, że uczenie się maszyn wiąże się również z wyzwaniami w postaci zapewnienia braku dyskryminacji, sprawiedliwości proceduralnej, przejrzystości i zrozumiałości w procesach podejmowania decyzji;
Y.
mając na uwadze, że sztuczna inteligencja stanowi istotne narzędzie umożliwiające stawienie czoła światowym wyzwaniom społecznym; mając na uwadze, że państwa członkowskie za pomocą prowadzonej polityki publicznej powinny wspierać inwestycje, udostępniać środki na prace badawczo-rozwojowe i eliminować bariery na drodze do rozwoju i wdrażania sztucznej inteligencji;
Z.
mając na uwadze, że komercyjne platformy wykorzystujące sztuczną inteligencję przeszły z etapu testów do prawdziwych zastosowań w opiece zdrowotnej, ochronie środowiska, energetyce i transporcie; mając na uwadze, że techniki uczenia się maszyn leżą u podstaw wszystkich głównych platform internetowych i rozwiązań wykorzystujących duże zbiory danych;
AA.
mając na uwadze, że naukowcy i przedsiębiorstwa w Europie pracują nad różnorodnymi zagadnieniami z zakresu łańcucha bloków, obejmującymi łańcuchy dostaw, usługi rządowe, finanse, internet rzeczy, opiekę zdrowotną, media, inteligentne miasta, energię i transport; mając na uwadze, że Europa zajmuje silną pozycję w istotnych dziedzinach związanych z łańcuchem bloków, takich jak sztuczna inteligencja; mając na uwadze, że łańcuch bloków może odgrywać ważną rolę w zwiększaniu innowacyjności w Europie;
AB.
mając na uwadze, że technologie z zakresu cyberbezpieczeństwa, takie jak tożsamości cyfrowe, kryptografia czy wykrywanie włamań, oraz ich zastosowanie w dziedzinach takich jak finanse, przemysł 4.0, energia, transport, opieka zdrowotna i administracja elektroniczna mają zasadnicze znaczenie dla zagwarantowania bezpieczeństwa i zaufania obywateli, administracji publicznych i przedsiębiorstw w związku z ich obecnością w internecie oraz realizowanymi przez nich transakcjami internetowymi;
AC.
mając na uwadze, że eksploracja tekstów i danych służy jako podstawa rozwiązań w zakresie sztucznej inteligencji i uczenia się maszyn oraz ma kluczowe znaczenie dla MŚP i przedsiębiorstw typu startup, jako że umożliwia im dostęp do dużych ilości danych w celu trenowania algorytmów sztucznej inteligencji;
AD.
mając na uwadze, że sztuczna inteligencja może okazać się bardzo energochłonna; mając na uwadze, że w związku z tym ważne jest, aby wykorzystywanie sztucznej inteligencji było zgodne z istniejącymi celami UE w zakresie efektywności energetycznej i gospodarki o obiegu zamkniętym;
AE.
mając na uwadze, że sztuczna inteligencja powinna w pełni obsługiwać wszystkie europejskie języki, aby zapewnić wszystkim Europejczykom równe szanse w zakresie czerpania korzyści z rozwoju nowoczesnej sztucznej inteligencji w ramach wielojęzycznego społeczeństwa informacyjnego Europy;
AF.
mając na uwadze, że w przemyśle i usługach związanych z zaawansowanymi technologiami sztuczna inteligencja odgrywa kluczową rolę w upowszechnianiu w Europie przedsiębiorstw typu startup przy wykorzystaniu najnowszych technologii do generowania wzrostu na tym kontynencie, w szczególności w dziedzinie technologii medycznej, usług i programów opieki zdrowotnej, opracowywania nowych leków, robotyki i chirurgicznej robotyki medycznej, leczenia chorób przewlekłych, obrazowania medycznego i dokumentacji medycznej, a także zapewnienia równowagi w środowisku i bezpiecznej produkcji żywności; mając na uwadze, że obecnie Europa pozostaje zdecydowanie w tyle za Ameryką Północną i Azją, jeśli chodzi o badania naukowe i patenty w dziedzinie sztucznej inteligencji;
AG.
mając na uwadze, że rozwój technologii sztucznej inteligencji może przyczynić się do poprawy jakości życia osób przewlekle chorych i niepełnosprawnych oraz stanowić odpowiedź na problemy społeczne, takie jak starzenie się społeczeństwa, dzięki temu, że pozwoli zwiększyć precyzję i skuteczność technologii medycznej wykorzystywanej w opiece zdrowotnej;
AH.
mając na uwadze, że sztuczna inteligencja i robotyka mogą znaleźć szerokie zastosowanie w opiece medycznej, np. do celów takich jak zarządzanie dokumentacją medyczną i danymi, wykonywanie powtarzalnych zadań (analiza badań, prześwietleń, tomografii komputerowej, wprowadzanie danych), planowanie leczenia, konsultacje cyfrowe (takie jak konsultacje medyczne oparte na osobistej historii medycznej i powszechnej wiedzy medycznej), wirtualne pielęgniarki, zarządzanie leczeniem farmakologicznym, tworzenie leków, medycyna precyzyjna (genetyka i genomika polegają bowiem na odkrywaniu mutacji i powiązań chorobowych na podstawie informacji zawartych w DNA), monitorowanie stanu zdrowia, analiza systemu opieki zdrowotnej;
AI.
mając na uwadze, że dostępność nie oznacza taki samych usług i urządzeń dla wszystkich; mając na uwadze, że dostępność sztucznej inteligencji i robotyki opiera się na planowaniu i projektowaniu sprzyjającym włączeniu społecznemu; mając na uwadze, że punktem wyjścia projektu powinny być potrzeby, życzenia i doświadczenia użytkowników;
AJ.
mając na uwadze, że autonomia robotów, ich oczywisty brak ludzkiej empatii oraz ich wpływ na stosunki między lekarzem a pacjentem budzą silne obawy o charakterze etycznym, psychologicznym i prawnym, które nie zostały jeszcze odpowiednio rozwiane na szczeblu Unii, w szczególności w odniesieniu do ochrony danych osobowych pacjentów, odpowiedzialności za działania oraz powstania nowych stosunków ekonomicznych i stosunków pracy; mając na uwadze, że autonomię jako taką można w pełni przypisać wyłącznie istotom ludzkim; mając na uwadze potrzebę stworzenia solidnych ram prawnych i etycznych dla sztucznej inteligencji;
AK.
mając na uwadze, że podstawą stosowania sztucznej inteligencji w obszarze zdrowia musi być zawsze zasada odpowiedzialności "człowiek obsługuje maszynę";
1.
Społeczeństwo wspierane przez sztuczną inteligencję i robotykę
1.1.
Praca w erze sztucznej inteligencji i robotyki
1.
podkreśla, że automatyzacja w połączeniu ze sztuczną inteligencją zwiększy produktywność, a tym samym produkcję; zauważa, że podobnie jak w przypadku poprzednich rewolucji technologicznych, niektóre miejsca pracy znikną, lecz zostaną stworzone także nowe, co doprowadzi do zmiany trybu życia i charakteru pracy; podkreśla, że zwiększone wykorzystanie robotyki i sztucznej inteligencji powinno również zmniejszyć narażenie człowieka na szkodliwe i niebezpieczne warunki, a także przyczynić się do tworzenia większej liczby dobrej jakości i godnych miejsc pracy oraz zwiększenia wydajności;
2.
zachęca państwa członkowskie do skupienia się na przekwalifikowaniu pracowników w branżach, których najbardziej dotyczy automatyzacja zadań; podkreśla, że nowe programy edukacyjne powinny skupiać się na rozwoju umiejętności pracowników w taki sposób, aby obejmowały nowe stanowiska stworzone przez sztuczną inteligencję; zachęca do rozwoju programów w zakresie nabywania umiejętności cyfrowych w szkołach oraz rozwoju praktyk zawodowych i priorytetów w zakresie kształcenia zawodowego, aby pomóc pracownikom w dostosowaniu się do zmian technologicznych;
3.
zaleca, aby państwa członkowskie wraz z podmiotami sektora prywatnego określiły zagrożenia i opracowały strategie zapewniające rozwój stosownych programów przeszkolenia i przekwalifikowania; podkreśla, że same przedsiębiorstwa muszą inwestować w szkolenia i przekwalifikowanie obecnej siły roboczej, aby zaspokoić swoje potrzeby;
4.
podkreśla, że rozwój robotyki w UE będzie miał silny wpływ na stosunki przemysłowe; uważa, że kwestią tego wpływu należy zająć się w wyważony sposób, aby wspierać reindustrializację, a także umożliwić pracownikom czerpanie korzyści z zysków osiąganych dzięki wzrostowi produktywności;
5.
zauważa, że w obecnym krajobrazie przemysłowym istnieje delikatna równowaga między właścicielami a pracownikami; uważa, że postępom we wdrażaniu sztucznej inteligencji w przemyśle powinny towarzyszyć szerokie konsultacje z partnerami społecznymi, jako że potencjalna zmiana liczby osób pracujących w przemyśle wymaga proaktywnej polityki, aby pomóc pracownikom w przystosowaniu się do nowych wymagań i zapewnić szeroki podział zysków; zauważa, że wymaga to ponownego przemyślenia i przeprojektowania strategii politycznych dotyczących rynku pracy, systemów zabezpieczenia społecznego i opodatkowania;
6.
wzywa państwa członkowskie do wyeliminowania barier uniemożliwiających integrację na rynku pracy, takich jak nadmierne kwalifikacje;
7.
uważa, że umiejętności cyfrowe są jednym z najważniejszych czynników rozwoju sztucznej inteligencji w przyszłości; wzywa Komisję i państwa członkowskie do opracowania i wdrożenia strategii mających na celu szkolenie i przekwalifikowanie w zakresie umiejętności cyfrowych; zauważa, że umiejętności cyfrowe mogą stanowić podstawę szerokiego i integracyjnego uczestnictwa w rozwiązaniach gospodarki opartej na danych oraz ułatwić komunikację i współpracę ze wszystkimi zainteresowanymi stronami;
8.
odnotowuje, że ponieważ chodzi o obywateli w każdym wieku, konieczne jest dostosowanie programów kształcenia, w tym przez wyznaczenie nowych ścieżek edukacyjnych i wykorzystywanie nowych technologii służących do zapewniania kształcenia; podkreśla konieczność zwrócenia należytej uwagi na aspekty edukacyjne; uważa w szczególności, że zapotrzebowanie na umiejętności cyfrowe, w tym kodowanie, należy uwzględnić we wszystkich rodzajach nauczania i szkolenia, począwszy od wczesnych lat szkolnych, a skończywszy na uczeniu się przez całe życie;
1.2.
Złośliwe zastosowanie sztucznej inteligencji a prawa podstawowe
9.
podkreśla, że złośliwe lub niedbałe wykorzystywanie sztucznej inteligencji może stanowić zagrożenie bezpieczeństwa cyfrowego i fizycznego, a także bezpieczeństwa publicznego, jako że sztuczna inteligencja może być wykorzystywana do prowadzenia zakrojonych na szeroką skalę, precyzyjnie wymierzonych i wysoce skutecznych ataków na usługi społeczeństwa informacyjnego i urządzenia połączone z siecią, a także do prowadzenia kampanii dezinformacyjnych i ogólnie do ograniczania prawa obywateli do samostanowienia; zwraca uwagę, że złośliwe lub niedbałe wykorzystywanie sztucznej inteligencji może również stanowić zagrożenie dla demokracji oraz praw podstawowych;
10.
wzywa Komisję do przedstawienia ram przewidujących kary za stosowanie praktyk manipulacji percepcją, jeżeli spersonalizowane treści lub przekazy informacyjne wywołują negatywne uczucia i prowadzą do zaburzeń postrzegania rzeczywistości mogących mieć negatywne konsekwencje (np. wyniki wyborów lub zaburzone postrzeganie kwestii społecznych, takich jak migracja);
11.
podkreśla znaczenie dostrzegania, rozpoznawania i monitorowania zaburzeń w rozwoju sztucznej inteligencji oraz zmian związanych z tym rozwojem; zachęca badaczy sztucznej inteligencji do skupienia się również na wykrywaniu przypadkowych lub złośliwych uszkodzeń sztucznej inteligencji i systemów robotycznych;
12.
wzywa Komisję do uwzględnienia wyzwań społecznych związanych z praktykami wynikającymi z rankingów obywateli; podkreśla, że obywatele nie powinni doświadczać dyskryminacji na podstawie ich pozycji w rankingu i powinni mieć możliwość otrzymania "drugiej szansy";
13.
wyraża głębokie zaniepokojenie z powodu wykorzystywania zastosowań sztucznej inteligencji, w tym rozpoznawania twarzy i głosu, w programach "monitorowania emocjonalnego", tj. monitorowania kondycji psychicznej pracowników i obywateli w celu zwiększenia produktywności i zachowania stabilności społecznej, czasem w połączeniu z systemami "kredytu społecznego", co ma już miejsce np. w Chinach; podkreśla, że takie programy z natury są sprzeczne z europejskimi wartościami i normami ochrony praw i swobód jednostki;
2.
Ścieżka technologiczna prowadząca ku sztucznej inteligencji i robotyce
2.1.
Badania i rozwój
14.
przypomina, że Europa dysponuje przodującą w świecie społecznością naukowców prowadzących badania nad sztuczną inteligencją, która reprezentuje 32 % światowych placówek badawczych zajmujących się sztuczną inteligencją;
15.
z zadowoleniem przyjmuje wniosek Komisji w sprawie programu "Cyfrowa Europa" i budżet w wysokości 2,5 mld EUR przeznaczony na cele związane ze sztuczną inteligencją, a także zwiększone finansowanie w ramach programu "Horyzont 2020"; podkreśla znaczenie finansowania UE jako uzupełnienia środków państw członkowskich i sektora przemysłu przeznaczonych na prace badawcze w zakresie sztucznej inteligencji oraz konieczność współpracy między publicznymi, prywatnymi i unijnymi programami badawczymi;
16.
popiera cele operacyjne programu "Cyfrowa Europa" dotyczące rozwoju i wzmocnienia podstawowych zdolności w zakresie sztucznej inteligencji w Unii, udostępnienia ich wszystkim przedsiębiorstwom i organom administracji publicznej oraz wzmocnienia obecnych placówek badawczych i doświadczalnych działających w obszarze sztucznej inteligencji w państwach członkowskich, a także łączenia ich w sieci;
17.
zachęca państwa członkowskie do rozwijania wielostronnych partnerstw między przemysłem i instytutami badawczymi oraz wspólnymi centrami doskonałości w dziedzinie sztucznej inteligencji;
18.
podkreśla, że badania nad sztuczną inteligencją powinny skupiać się nie tylko na rozwoju technologii i innowacji w tej dziedzinie, ale także na społecznych, etycznych i prawnych aspektach sztucznej inteligencji; uważa, że każdy zastosowany model powinien uwzględniać zasady etyczne już na etapie projektowania;
19.
podkreśla, że choć należy wspierać postęp na rzecz społeczeństwa i środowiska, badania naukowe nad sztuczną inteligencją oraz inne powiązane działania należy prowadzić zgodnie z zasadą ostrożności oraz przy poszanowaniu praw podstawowych; zwraca uwagę, że wszyscy zaangażowani w opracowywanie, wdrażanie, rozpowszechnianie sztucznej inteligencji i korzystanie z niej powinni brać pod uwagę i szanować godność ludzką, a także samostanowienie i dobrostan (zarówno fizyczny, jak i psychiczny) jednostek i całego społeczeństwa, przewidywać potencjalny wpływ na bezpieczeństwo, a także podejmować odpowiednie środki ostrożności proporcjonalne do poziomu ochrony, m.in. szybkie ujawnianie czynników, które mogłyby stanowić zagrożenie dla społeczeństwa lub środowiska;
20.
podkreśla, że konkurencyjne środowisko badawcze ma także kluczowe znaczenie dla rozwoju sztucznej inteligencji; zwraca uwagę na znaczenie wspierania doskonałych badań, w tym projektów w dziedzinie nauk podstawowych i obarczonych wysokim ryzykiem, które potencjalnie mogą przynieść duże korzyści, a także stymulowania europejskiego obszaru badawczego przez tworzenie atrakcyjnych warunków finansowania, mobilności i dostępu do infrastruktury i technologii w całej Unii w oparciu o zasadę otwartości na państwa trzecie i wiedzę fachową spoza Unii oraz w taki sposób, aby nie zagrażały one cyberbezpieczeństwu UE;
21.
podkreśla, że naukowcy z UE nadal zarabiają znacznie mniej niż ich koledzy w USA i w Chinach, co jest głównym powodem opuszczania przez nich Europy; wzywa Komisję i państwa członkowskie do skupienia się na przyciągnięciu najbardziej uzdolnionych osób do pracy w firmach europejskich, a państwa członkowskie do stworzenia im atrakcyjnych warunków;
22.
podkreśla, że wdrażane w Europie nowe wzorcowe inicjatywy w dziedzinie FET 7  muszą koncentrować się na sztucznej inteligencji, a także muszą zwracać szczególną uwagę na podejście ukierunkowane na człowieka oraz technologie językowe;
23.
uważa, że sztuczna inteligencja, uczenie się maszyn oraz olbrzymie postępy w odniesieniu do dostępności danych i przetwarzania w chmurze pomagają podejmować inicjatywy badawcze pozwalające zrozumieć biologię na poziomie molekularnym i komórkowym, udoskonalać metody leczenia i analizować strumienie danych w celu wykrywania zagrożeń dla zdrowia, przewidywania ognisk chorób i udzielania porad pacjentom; zauważa, że techniki eksploracji i nawigacji danych mogą być wykorzystywane do identyfikowania braków, zagrożeń, tendencji i wzorów w opiece;
24.
zwraca uwagę, że w przypadkach, gdy ryzyko stanowi nieunikniony i integralny element badań nad sztuczną inteligencją, należy opracować i stosować solidne protokoły oceny ryzyka i zarządzania nim, uwzględniając przy tym fakt, że ryzyko powstania szkody nie może być wyższe niż ryzyko mogące wystąpić w życiu codziennym (tj. ludzie nie mogą być narażeni na większe ryzyko lub ryzyko dodatkowe w stosunku do tego, na które są narażeni w życiu codziennym).
2.2.
Inwestycje
25.
zauważa znaczenie wzrostu inwestycji w tym obszarze w celu zachowania konkurencyjności; uznaje, że choć to przedsiębiorstwa sektora prywatnego dokonują w tym obszarze największej liczby inwestycji i innowacji, należy również zachęcać państwa członkowskie i Komisję do dalszego inwestowania w badania w tym sektorze oraz do ustalenia swoich priorytetów rozwojowych; z zadowoleniem przyjmuje wniosek dotyczący programu InvestEU oraz inne partnerstwa publiczno-prywatne wspierające finansowanie ze środków sektora prywatnego; uważa, że należy wspierać koordynację inwestycji sektora prywatnego i publicznego, tak aby zapewnić ukierunkowany rozwój;
26.
podkreśla, że inwestycje w dziedzinie sztucznej inteligencji, które może charakteryzować znaczny poziom niepewności, powinny być uzupełnione finansowaniem UE, na przykład z funduszy Europejskiego Banku Inwestycyjnego, Europejskiego Funduszu Inwestycyjnego lub za pośrednictwem programu InvestEU i Europejskiego Funduszu na rzecz Inwestycji Strategicznych, które to systemy mogą przyczynić się do podziału ryzyka;
27.
apeluje, by Komisja nie pozwoliła, aby środki UE były przeznaczane na potrzeby finansowania uzbrojonej sztucznej inteligencji; wzywa Komisję do wykluczenia z unijnego finansowania przedsiębiorstw prowadzących prace badawczo- rozwojowe nad świadomością sztucznej inteligencji;
28.
zaleca, aby Komisja dopilnowała, by UE i europejskie uniwersytety zachowały prawa własności intelektualnej do badań prowadzonych z wykorzystaniem funduszy unijnych;
2.3.
Innowacje, akceptacja społeczna i odpowiedzialność
29.
zauważa, że wszelkiego rodzaju znaczący postęp technologiczny zawsze wymagał okresu przejściowego, którego większość społeczeństwa potrzebowała, aby lepiej zrozumieć daną technologię i wdrożyć ją w codziennym życiu;
30.
zauważa, że przyszłość tej technologii uwarunkowana jest akceptacją społeczną oraz że należy kłaść większy nacisk na właściwe informowanie o płynących z niej korzyściach, aby zapewnić większe zrozumienie tej technologii i jej zastosowań; zauważa również, że brak informowania społeczeństwa o technologii sztucznej inteligencji obniży motywację do wprowadzania innowacji w tym sektorze;
31.
uważa, że publiczna akceptacja opiera się na sposobie informowania społeczeństwa o możliwościach i rozwoju sztucznej inteligencji oraz wyzwaniach z nią związanych; zaleca państwom członkowskim i Komisji zapewnienie łatwiejszego dostępu do wiarygodnych informacji uwzględniających główne obawy dotyczące sztucznej inteligencji i robotyki, w tym takie zagadnienia jak ochrona prywatności, bezpieczeństwo i przejrzystość podejmowanych decyzji;
32.
z zadowoleniem przyjmuje wykorzystywanie regulacyjnych środowisk testowych we wprowadzaniu innowacyjnych i nowych pomysłów wspólnie z organami regulacyjnymi, co od samego początku pozwoli na zintegrowanie technologii z zabezpieczeniami, co z kolei ułatwi i zachęci do wprowadzenia tych pomysłów na rynek; podkreśla potrzebę wprowadzenia środowisk testowych dla rozwiązań regulacyjnych w zakresie sztucznej inteligencji, aby testować bezpieczne i skuteczne wykorzystywanie technologii sztucznej inteligencji w środowisku rzeczywistym;
33.
zauważa, że aby zapewnić większą akceptację społeczną sztucznej inteligencji, konieczne jest zagwarantowanie, że wykorzystywane systemy są bezpieczne i pewne;
34.
zauważa, że sztuczna inteligencja i technologie językowe mogą zapewnić istotne rozwiązania sprzyjające jedności Europy w jej różnorodności: usługi zautomatyzowanych tłumaczeń, pośredników w rozmowach i osobistych asystentów, interfejsy robotów wykorzystujące język mówiony oraz internet rzeczy, inteligentne analizy, zautomatyzowane wykrywanie propagandy, nieprawdziwych wiadomości, mowy nienawiści w internecie;
2.4.
Sprzyjające warunki: łączność, dostępność danych i obliczenia wielkiej skali oraz infrastruktura przetwarzania w chmurze
35.
podkreśla, że integracja robotyki i technologii sztucznej inteligencji z gospodarką i społeczeństwem wymaga infrastruktury cyfrowej, która zapewni powszechny dostęp;
36.
podkreśla, że łączność stanowi warunek wstępny, który pozwoli Europie stać się częścią społeczeństwa gigabitowego, a sztuczna inteligencja jest wyraźnym przykładem gwałtownego wzrostu popytu na szybką, bezpieczną i powszechną łączność wysokiej jakości; uważa, że Unia i państwa członkowskie powinny w dalszym ciągu wspierać środki pobudzające inwestycje w sieci o bardzo dużej przepustowości oraz ich wdrażanie w Unii Europejskiej;
37.
podkreśla, że szybki, bezpieczny i pewny rozwój sieci 5G jest niezbędny dla zapewnienia pełnego wykorzystania korzyści płynących ze sztucznej inteligencji w Unii i ochrony przed zagrożeniami cybernetycznymi, aby móc odnawiać i rozwijać sektory i usługi stanowiące trzon europejskiej gospodarki, a także wspierać powstawanie nowych usług, produkcji i rynków, co jest niezbędne dla zabezpieczenia nowych miejsc pracy i wysokiego poziomu zatrudnienia;
38.
przypomina, że dostępność wysokiej jakości istotnych danych jest niezbędna do osiągnięcia faktycznej konkurencyjności w branży sztucznej inteligencji, i wzywa organy publiczne, by zagwarantowały sposoby wytwarzania danych, ich udostępniania i zarządzania nimi przez uczynienie danych publicznych dobrem wspólnym przy jednoczesnym zapewnieniu ochrony prywatności i danych wrażliwych;
39.
podkreśla znaczenie jakości danych wykorzystywanych do głębokiego uczenia maszynowego; zauważa, że stosowanie niskiej jakości, nieaktualnych, niekompletnych lub nieprawidłowych danych może prowadzić do niekorzystnych prognoz, a co za tym idzie dyskryminacji i stronniczości;
40.
uważa, że nowy zbiór przepisów regulujących swobodny przepływ danych nieosobowych w Unii pozwala na udostępnianie coraz większej ilości danych na potrzeby innowacji opartych na danych, ułatwiając MŚP i przedsiębiorstwom typu startup rozwijanie innowacyjnych usług opartych na sztucznej inteligencji i wchodzenie na nowe rynki, a jednocześnie umożliwiając obywatelom i przedsiębiorstwom korzystanie z lepszych produktów i usług;
41.
dostrzega potencjał sztucznej inteligencji w odniesieniu do zwiększenia wydajności, komfortu i dobrobytu w wielu sektorach, o ile zainteresowane podmioty branżowe o ugruntowanej pozycji podejmą współpracę z twórcami sztucznej inteligencji; zauważa ponadto, że obecnie zainteresowane podmioty dysponują znaczną ilością danych, innych niż dane osobowe, które mogą być wykorzystywane w drodze partnerstw do zwiększenia ich wydajności; uważa, że aby stało się to faktem, niezbędna jest współpraca użytkowników z twórcami sztucznej inteligencji;
42.
podkreśla znaczenie interoperacyjności i wiarygodności danych dla zapewnienia wysokiego poziomu niezawodności i standardów bezpieczeństwa nowych technologii;
43.
uważa, że powodzenie zastosowań sztucznej inteligencji, dostosowanych do potrzeb użytkowników w całej UE, często wymaga szerokiej znajomości lokalnych rynków oraz dostępu do odpowiednich lokalnych danych i ich wykorzystywania w celu trenowania zestawów danych, testowania i walidacji systemów, w szczególności w sektorach związanych z przetwarzaniem języka naturalnego; zwraca się do państw członkowskich o zachęcanie do udostępniania wysokiej jakości, interoperacyjnych i otwartych danych z sektora publicznego oraz prywatnego;
44.
podkreśla konieczność zapewnienia najwyższej zgodności z unijną polityką dotyczącą dużych zbiorów danych;
45.
z zadowoleniem przyjmuje środki na rzecz ułatwienia i wspierania transgranicznej wymiany i udostępniania danych;
46.
zauważa obecnie niewykorzystywany w pełni potencjał w zakresie wymiany danych oraz niedostateczne wykorzystywanie znacznych ilości danych;
47.
dostrzega niechęć do wymiany danych i podkreśla potrzebę podjęcia działań w celu zachęcenia do jej prowadzenia; zauważa, że brak wspólnych norm również ma istotne znaczenie w kontekście zdolności do wymiany danych;
48.
z zadowoleniem przyjmuje przepisy umożliwiające bardziej skuteczne i wydajne procesy, takie jak rozporządzenie w sprawie swobodnego przepływu danych, oraz jego wpływ na dziedziny takie jak sztuczna inteligencja;
49.
uznaje, że należy zapewnić większe zachęty rynkowe, aby zachęcić do dostępu do danych oraz ich wymiany; zauważa w pierwszej kolejności ryzyko stwarzane przez otwartość danych dla inwestowania w dane;
50.
wzywa do zwiększenia przejrzystości w zakresie zasad dotyczących własności danych i ustanowienia ram regulacyjnych; zauważa, że niepewność regulacyjna prowadzi do nadmiernie ostrożnych reakcji ze strony przemysłu;
51.
ponadto podkreśla znaczenie europejskich inicjatyw w zakresie przetwarzania w chmurze i obliczeń wielkiej skali, zapewniających dalsze wzmocnienie rozwoju algorytmów uczenia głębokiego i przetwarzania dużych zbiorów danych; zdecydowanie uważa, że pomyślność tych inicjatyw i ich znaczenie dla rozwoju sztucznej inteligencji wymaga otwartości infrastruktury zarówno wobec publicznych, jak i prywatnych podmiotów mających siedzibę w Unii lub poza nią, a także zarządzania tą infrastrukturą w oparciu o mniej restrykcyjne kryteria dostępu;
52.
z zadowoleniem przyjmuje ustanowienie Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali; podkreśla, że obliczenia superkomputerowe i infrastruktura danych mają istotne znaczenie dla zapewnienia konkurencyjnego ekosystemu innowacji w celu rozwoju technologii i zastosowań sztucznej inteligencji;
53.
podkreśla, że przetwarzanie w chmurze ma kluczowe znaczenie dla stymulowania wdrażania sztucznej inteligencji; zaznacza, że dostęp do usług przetwarzania w chmurze umożliwia przedsiębiorstwom prywatnym, instytucjom publicznym, badawczym i akademickim oraz użytkownikom opracowywanie i wykorzystywanie sztucznej inteligencji w efektywny i ekonomicznie uzasadniony sposób;
3.
Polityka przemysłowa
54.
przypomina, że chociaż sztuczna inteligencja i robotyka już od dawna mają zastosowania przemysłowe, w tej dziedzinie wciąż dokonuje się postęp, który umożliwia szerokie i różnorodne zastosowania we wszystkich sferach działalności człowieka; uważa, że wszelkie ramy regulacyjne muszą charakteryzować się elastycznością umożliwiającą innowacje i swobodny rozwój nowych technologii i zastosowań w odniesieniu do sztucznej inteligencji;
55.
podkreśla, że opracowanie zakresu i zastosowań sztucznej inteligencji powinno stanowić wynik procesu projektowania opartego na potrzebach i zasadach uwzględniających zamierzone efekty oraz najlepszą drogę do ich osiągnięcia z gospodarczego i społecznego punktu widzenia; uważa, że istnienie jasnych polityk na wszystkich etapach rozwoju zapewni wdrażanie odpowiednie do zamierzonego celu oraz uwzględnienie ryzyka i negatywnych następstw;
56.
zaleca wykorzystywanie i promowanie partnerstw publiczno-prywatnych w celu poszukiwania rozwiązań najważniejszych wyzwań, takich jak budowa ekosystemu opartego na danych, promowanie dostępu do danych, ich udostępniania i przepływu przy jednoczesnej ochronie praw obywateli do prywatności;
57.
podkreśla, że znaczącym wyzwaniem dla przyszłości systemów sztucznej inteligencji jest niespójna jakość technologii produkcji oprogramowania, co wymaga pilnej normalizacji budowy i wykorzystywania systemów sztucznej inteligencji;
58.
odnotowuje wysiłki podejmowane na całym świecie i uznaje potrzebę proaktywnego działania we współpracy z partnerami, zwłaszcza w ramach OECD i G20, w kształtowaniu kierunku, w jakim zmierza branża, tak aby utrzymać konkurencyjność UE i zagwarantować, by wszystkie narody miały równy dostęp do sztucznej inteligencji, a korzyści płynące z jej stosowania miały możliwie jak najszerszy zasięg;
59.
z zaniepokojeniem zauważa, że szereg przedsiębiorstw spoza Europy i podmiotów z państw trzecich coraz częściej stosuje modele predyktywne oparte na sztucznej inteligencji w celu świadczenia usług i odbierania wartości dodanej z rynków UE, zwłaszcza na szczeblu lokalnym, oraz monitorowania i, ewentualnie, wpływania na nastroje polityczne, co potencjalnie zagraża suwerenności technologicznej obywateli UE;
60.
podkreśla, że publiczne wsparcie sztucznej inteligencji powinno koncentrować się na sektorach strategicznych, w których przemysł UE ma największe szanse na odegranie czołowej roli na szczeblu ogólnoświatowym i które zapewniają wartość dodaną pod względem ogólnego interesu publicznego;
3.1.
Sektory priorytetowe
3.1.1.
Sektor publiczny
61.
podkreśla, że sztuczna inteligencja i robotyka niosą za sobą liczne korzyści dla sektora publicznego, i z zadowoleniem przyjmuje wzrost inwestycji w badania i rozwój celem zapewnienia sukcesu w tym zakresie;
62.
podkreśla, że państwa członkowskie powinny również inwestować w programy edukacyjne i szkoleniowe w dziedzinie sztucznej inteligencji, aby wesprzeć pracowników sektora publicznego we wdrażaniu sztucznej inteligencji i robotyki; zauważa, że należy również prowadzić kampanie informacyjne dla obywateli korzystających z usług sektora publicznego świadczonych przez systemy sztucznej inteligencji i robotyki, aby rozwiać ich obawy dotyczące utraty kontroli nad swoimi danymi osobowymi oraz by zyskać ich zaufanie;
63.
podkreśla, że informacje z sektora publicznego stanowią nadzwyczajne źródło danych, które może przyczynić się do osiągnięcia szybkich postępów i stworzenia nowej strategii na rzecz wdrażania nowych technologii cyfrowych, zwłaszcza sztucznej inteligencji;
64.
uważa, że godna zaufania sztuczna inteligencja może zdecydowanie wesprzeć reformę administracji publicznej w odniesieniu do procesu podejmowania decyzji oraz udoskonalić usługi publiczne, a także może przyczynić się do szerszego wdrażania sztucznej inteligencji w innych sektorach;
65.
dostrzega stosowanie zrobotyzowanej automatyzacji procesów oraz jej skutki dla poprawy procesów sektora publicznego; zauważa jej interoperacyność z dotychczasowymi systemami;
66.
zwraca się do państw członkowskich o przewodzenie tej cyfrowej transformacji z pozycji głównych odpowiedzialnych użytkowników i nabywców technologii sztucznej inteligencji; podkreśla, w tym kontekście, że państwa członkowskie muszą dostosować swoje strategie polityczne dotyczące między innymi publicznego zbierania danych, ich wykorzystywania, repozytoriów i wpisów, aby umożliwić zastosowanie sztucznej inteligencji we wszystkich sektorach publicznych;
67.
podkreśla potrzebę włączenia opinii publicznej w proces rozwoju sztucznej inteligencji; wzywa zatem Komisję do publikowania w ramach otwartego oprogramowania wszelkich algorytmów, narzędzi i technologii finansowanych lub współfinansowanych ze środków publicznych;
68.
uważa, że sztuczna inteligencja będzie wielkim atutem przy wdrażaniu zasady jednorazowości, gdyż umożliwia łączenie baz danych i informacji z różnych źródeł, a tym samym ułatwia obywatelom komunikowanie się z administracją publiczną;
69.
wzywa Komisję do zagwarantowania ochrony obywateli przed wszelkimi systemami podejmowania decyzji na podstawie rankingów tworzonych przez sztuczną inteligencję w organach administracji publicznej, podobnych do systemów, których wykorzystanie jest planowane w Chinach;
3.1.2.
Zdrowie
70.
podkreśla, że kontakt z drugim człowiekiem stanowi kluczowy aspekt sprawowania opieki nad ludźmi;
71.
zauważa, że z uwagi na rosnące średnie dalsze trwanie życia sztuczna inteligencja i robotyka niosą za sobą potencjalne korzyści dla sektora opieki, na przykład wspomagając lekarzy, a także pielęgniarzy i pielęgniarki przez zapewnienie im większej ilości czasu na działania o wysokiej wartości (takie jak komunikacja z pacjentem);
72.
odnotowuje obecny wpływ sztucznej inteligencji na dobrostan, profilaktykę, diagnostykę, badania, jak również wielki potencjał w zakresie kształtowania spersonalizowanej opieki; uważa, że ostatecznie prowadzi to do osiągnięcia bardziej zrównoważonego, wydajnego ekosystemu opieki zdrowotnej opartego na wynikach;
73.
odnotowuje, że w przypadku połączenia sztucznej inteligencji z diagnozą ludzką poziom błędu zwykle jest znacznie niższy niż w przypadku zastosowania wyłącznie diagnozy ludzkiej 8 ;
74.
podkreśla, że wykorzystywanie danych w sektorze zdrowia musi być uważnie i etycznie monitorowane oraz nie może w żaden sposób utrudniać dostępu do ochrony socjalnej ani ubezpieczenia;
75.
uważa, że kiedy sztuczna inteligencja jest stosowana we wszczepionych wyrobach medycznych, osoba, w której ciele znajduje się implant, powinna mieć prawo do sprawdzenia i zmodyfikowania kodu źródłowego zastosowanego w wyrobie;
76.
należy zwrócić szczególną uwagę na wykorzystanie w ochronie zdrowia dużych zbiorów danych w celu zmaksymalizowania możliwości, jakie może ono przynieść - takich jak poprawa zdrowia poszczególnych pacjentów, a także wyników publicznych systemów opieki zdrowotnej państw członkowskich - bez obniżania standardów etycznych i bez uszczerbku dla prywatności lub bezpieczeństwa obywateli;
77.
podkreśla jednak, że obowiązujący system zatwierdzania wyrobów medycznych może nie być odpowiednio dostosowany do technologii sztucznej inteligencji; wzywa Komisję, by uważnie śledziła postępy w dziedzinie tych technologii oraz, w razie konieczności, zaproponowała zmiany ram prawnych w trosce o zapewnienie jasnych przepisów dotyczących podziału odpowiedzialności cywilnej między użytkownika (lekarza / pracownika medycznego), producenta danego rozwiązania technologicznego i placówkę opieki zdrowotnej prowadzącą leczenie; zwraca uwagę na szczególne znaczenie kwestii odpowiedzialności prawnej za szkody w sektorze opieki zdrowotnej w związku z wykorzystaniem sztucznej inteligencji; podkreśla w związku z tym, że nie można dopuścić do sytuacji, w której użytkownik będzie się zawsze skłaniał ku rozwiązaniu diagnostycznemu czy leczeniu sugerowanemu przez narzędzie technologiczne z obawy, że zostanie pociągnięty do odpowiedzialności cywilnej, gdy po dokonaniu profesjonalnego i świadomego osądu sformułuje wnioski choć w części odmienne;
78.
wzywa państwa członkowskie i Komisję, by zwiększyły finansowanie technologii sztucznej inteligencji związanych z ochroną zdrowia w sektorze publicznym i prywatnym; z zadowoleniem przyjmuje w tym kontekście podpisanie przez 24 państwa członkowskie i Norwegię deklaracji współpracy mającej na celu zwiększenie wpływu inwestycji w sztuczną inteligencję na szczeblu europejskim; zwraca się do państw członkowskich i Komisji o zastanowienie się, czy programy szkoleń personelu medycznego nie powinny być aktualizowane i standaryzowane na szczeblu europejskim, aby zapewnić wysoki poziom kompetencji i równe szanse poszczególnych państw członkowskich, jeśli chodzi o znajomość i wykorzystanie najbardziej zaawansowanych narzędzi technologicznych z zakresu robotyki chirurgicznej i biomedycznej oraz obrazowania biomedycznego z użyciem sztucznej inteligencji;
79.
wzywa Komisję do opracowania strategii i polityk umożliwiających UE objęcie roli światowego lidera w zwiększającym się obszarze technologii opieki zdrowotnej przy jednoczesnym zapewnieniu dostępu pacjentów do sprawnej i skutecznej opieki medycznej;
80.
uznaje, że lepsza diagnostyka mogłaby służyć milionom istnień, ponieważ według Światowej Organizacji Zdrowia 89 % przedwczesnych zgonów w Europie spowodowanych jest chorobami niezakaźnymi;
81.
wspiera wkład sztucznej inteligencji i robotyki w innowacje w zakresie profilaktycznych, klinicznych i rehabilitacyjnych praktyk i technik w sektorze zdrowia, ze szczególnym uwzględnieniem korzyści dla pacjentów z niepełnosprawnością;
82.
uznaje, że wzrost wykorzystania czujników w obszarze robotyki zwiększył zakres opieki i umożliwia pacjentom otrzymywanie bardziej zindywidualizowanego leczenia i usług oraz zdalne otrzymywanie opieki w swoich domach, przy jednoczesnym tworzeniu bardziej istotnych danych;
83.
uznaje, że według badania Eurobarometr z maja 2017 r. 9  myśl o stosowaniu robotów w codziennej opiece zdrowotnej wciąż budzi niepokój europejskich obywateli; wzywa Komisję i państwa członkowskie do opracowania strategii i kampanii komunikacyjnych ukierunkowanych na zwiększenie wiedzy na temat korzyści płynących z wykorzystywania robotów w codziennym życiu; zauważa w szczególności ambicje japońskiej strategii na rzecz robotyki;
3.1.3.
Energia
84.
zauważa, że sztuczna inteligencja umożliwia dostawcom energii przejście z prewencyjnego do predykcyjnego zarządzania aktywami i osiągnięcie wydajniejszej produkcji energii poprzez zwiększenie niezawodności, zwłaszcza w odniesieniu do odnawialnych źródeł energii, oraz poprzez określenie najbardziej efektywnych lokalizacji dla nowych instalacji, a tym samym zapewnienie lepszego zarządzania reagowaniem na popyt;
85.
uznaje, że dokładniejsze dane generowane przez sztuczną inteligencję w zakresie potencjału produkcji energii ze źródeł odnawialnych zapewnią większą pewność inwestycyjną dla przedsiębiorstw i osób fizycznych, przyspieszając w ten sposób transformację energetyki w kierunku wykorzystania odnawialnych źródeł energii i przyczyniając się do realizacji długoterminowej strategii Unii na rzecz gospodarki neutralnej dla klimatu;
86.
zauważa, że rozwiązania obejmujące czujniki są już używane w zarządzaniu zużyciem energii oraz że prowadzi to do znacznych oszczędności energetycznych i finansowych;
87.
przyjmuje z zadowoleniem potencjał sztucznej inteligencji w zakresie modelowania, określania i łagodzenia wpływu działalności człowieka na klimat; zauważa, że choć zwiększona cyfryzacja niesie ze sobą również nowe zapotrzebowanie na energię, może zarazem przyczynić się do większej wydajności w energochłonnych sektorach i umożliwić lepsze zrozumienie procesów z myślą o ich poprawie;
88.
podkreśla, że na skutek większej cyfryzacji sektora energetycznego sieci energetyczne powiększają się i stają się bardziej narażone na zagrożenia cybernetyczne; wzywa państwa członkowskie i Komisję do uzupełnienia cyfrowej transformacji w sektorach energetycznych o środki poprawy cyberbezpieczeństwa, takie jak sztuczna inteligencja;
3.1.4.
Transport
89.
przyjmuje z zadowoleniem zdolność sztucznej inteligencji i robotyki do znacznej poprawy naszych systemów transportowych dzięki wprowadzeniu autonomicznych pociągów i pojazdów silnikowych; wzywa do większej liczby badań i inwestycji w tym obszarze w celu zapewnienia jego bezpiecznego i efektywnego rozwoju; podkreśla ogromne szanse zarówno dla większych przedsiębiorstw technologicznych, jak i dla MŚP;
90.
zauważa, że dzięki ograniczeniu czynnika błędu ludzkiego w sektorze transportu system potencjalnie może stać się wydajniejszy, jako że zmniejszy się liczba wypadków (dzięki jaśniejszym ocenom i predykcyjnemu charakterowi technologii), ograniczone zostaną opóźnienia (dzięki możliwości mapowania schematów ruchu i dostarczania usług zgodnie z planem) oraz wzrosną oszczędności (dzięki zmniejszeniu liczby błędów spowodowanych przez kierowców i optymalizacji procesów wewnętrznych);
91.
zauważa, że rozpowszechnienie pojazdów autonomicznych w przyszłości stwarza szereg zagrożeń pod względem ochrony danych i usterek technicznych oraz spowoduje przeniesienie odpowiedzialności z kierowcy na producenta, co zmusi ubezpieczycieli do zmiany sposobu, w jaki ujmują ryzyko w swoich polisach;
92.
zauważa, że komunikacja głosowa jest coraz częściej wykorzystywana w interakcji z pojazdami i systemami transportowymi, lecz funkcje te są dostępne jedynie dla wąskiej grupy europejskich języków, zatem należy zapewnić, aby wszyscy Europejczycy mogli korzystać z tych możliwości w swoim języku ojczystym;
3.1.5.
Rolnictwo i łańcuch żywnościowy
93.
zauważa, że sztuczna inteligencja ma potencjał przyspieszenia przełomowej transformacji obecnego systemu dostaw żywności w kierunku bardziej zróżnicowanego, odpornego, dostosowanego na szczeblu regionalnym i zdrowego modelu na przyszłość;
94.
zauważa rolę, jaką sztuczna inteligencja może odegrać w wysiłkach na rzecz rozwiązania problemów związanych z bezpieczeństwem żywnościowym, przewidywania epidemii głodu i chorób przenoszonych przez żywność, ograniczenia strat i marnotrawienia żywności, poprawy zrównoważonego gospodarowania gruntami, zasobami wodnymi i innymi zasobami mającymi kluczowe znaczenie dla właściwej kondycji ekosystemów;
95.
podkreśla, że sztuczna inteligencja może być wykorzystywana w najważniejszych punktach łańcucha wartości systemu żywnościowego od produkcji do konsumpcji, a także może zwiększyć zdolność UE do dokonania zasadniczej zmiany sposobów produkcji, przetwarzania i zakupu żywności poprzez bardziej świadome zagospodarowanie przestrzenne;
96.
zauważa, że sztuczna inteligencja może prowadzić do poprawy zarządzania zasobami i wydajności czynników produkcji, przyczyniać się do ograniczenia odpadów po zbiorach i wywierać wpływ na decyzje dotyczące konsumpcji;
97.
zauważa, że sztuczna inteligencja w formie rolnictwa precyzyjnego ma potencjał dokonania przełomowej transformacji produkcji rolnej, a także szerszego gospodarowania gruntami, przez poprawę zagospodarowania przestrzennego, prognozowanie zmian w użytkowaniu gruntów i monitorowanie kondycji upraw, a jednocześnie może potencjalnie przekształcić sposób przewidywania ekstremalnych zjawisk pogodowych;
98.
zauważa, że sztuczna inteligencja może zasadniczo zmienić sposób dostarczania czynników produkcji, zwalczania szkodników i zarządzania gospodarstwami, wywrzeć wpływ na praktyki rolnicze, zmienić sposób dostarczania produktów ubezpieczeniowych oraz przyczynić się do prognozowania epidemii głodu i poważnego ostrego niedożywienia oraz zapobiegania ich występowaniu w przyszłości;
99.
zauważa, że sztuczna inteligencja może prowadzić do lepszych decyzji w zakresie sposobów zarządzania systemami rolniczymi i pobudzić rozwój systemów wspierania decyzji oraz zaleceń przez poprawę wydajności i zdrowia w gospodarstwie;
3.1.6.
Cyberbezpieczeństwo
100.
zauważa, że cyberbezpieczeństwo stanowi istotny aspekt sztucznej inteligencji, zwłaszcza ze względu na wyzwania dotyczące przejrzystości sztucznej inteligencji wysokiego poziomu; uważa, że perspektywa technologiczna, w tym audyty kodów źródłowych i wymogów dotyczących przejrzystości i odpowiedzialności, powinna być uzupełniona podejściem instytucjonalnym przez podjęcie wyzwań związanych z wprowadzeniem sztucznej inteligencji opracowanej w innych krajach na jednolity rynek UE;
101.
apeluje o szybkiego wdrożenie aktu prawnego dotyczącego cyberbezpieczeństwa; zauważa, że opracowanie unijnych systemów certyfikacji powinno zapewnić większą elastyczność w zakresie rozwoju i stosowania bezpiecznych systemów sztucznej inteligencji i robotyki;
102.
uważa, że sztuczna inteligencja może być jednocześnie zagrożeniem dla cyberbezpieczeństwa i narzędziem walki z cyberatakami; uważa, że Agencja Unii Europejskiej ds. Bezpieczeństwa Sieci i Informacji (ENISA) powinna opracować plan działania na rzecz cyberbezpieczeństwa w dziedzinie sztucznej inteligencji, w ramach którego należy ocenić zagrożenia i słabe punkty specyficzne dla sztucznej inteligencji oraz im zaradzić;
103.
podkreśla znaczenie wzmocnienia bazy przemysłowej jako strategicznego komponentu bezpiecznego rozwoju sztucznej inteligencji; podkreśla, że aby zapewnić ambitny poziom cyberbezpieczeństwa, ochrony danych i zaufanych usług ICT, Europa musi inwestować w swoją niezależność technologiczną; podkreśla pilną potrzebę rozwoju unijnej infrastruktury, ośrodków danych, systemów chmur obliczeniowych i komponentów, takich jak procesory graficzne i układy scalone;
104.
zauważa, że sztuczna inteligencja ewoluuje, a hakerzy podejmują coraz bardziej wyrafinowane działania, dlatego niezwykle istotne jest zapewnienie solidnych rozwiązań w dziedzinie cyberbezpieczeństwa;
105.
uznaje, że wdrożenie sztucznej inteligencji w dziedzinie cyberbezpieczeństwa umożliwi przewidywanie zagrożeń, zapobieganie im i łagodzenie ich skutków;
106.
podkreśla, że podczas gdy sztuczna inteligencja zapewni większe możliwości wykrywania zagrożeń, konieczna jest interpretacja tych zagrożeń przez człowieka w celu określenia, czy są one rzeczywiste;
107.
wzywa Komisję do zbadania wykorzystania rozwiązań z zakresu cyberbezpieczeństwa opartych na łańcuchach bloków, które poprawiają odporność i niezawodność infrastruktur sztucznej inteligencji, a także zwiększają zaufanie do nich, dzięki bezpośrednim modelom szyfrowania danych; wzywa Komisję do zbadania możliwości wynagradzania obywateli za ich dane za pomocą tokenów;
108.
wzywa Komisję do wzmocnienia zdolności UE w zakresie cyberbezpieczeństwa przez dalsze łączenie i koordynowanie wysiłków w całej Europie;
3.1.7.
Małe i średnie przedsiębiorstwa
109.
uznaje znaczenie MŚP dla powodzenia sztucznej inteligencji; przyjmuje z zadowoleniem inicjatywę Komisji dotyczącą stworzenia platformy sztucznej inteligencji na żądanie, która pobudzi transfer technologii i przyspieszy wzrost przedsiębiorstw typu startup oraz MŚP; wzywa Komisję do promowania ośrodków innowacji cyfrowych ds. sztucznej inteligencji, których działalność nie skutkuje tworzeniem dodatkowych szczebli administracyjnych, ale jest za to ukierunkowana na przyspieszanie inwestycji w projekty, które okazały się skuteczne;
110.
zauważa, że koszty inwestycji w sztuczną inteligencję prowadzą do poważnych barier w dostępie dla MŚP; uznaje, że powszechne wdrażanie sztucznej inteligencji przez konsumentów obniżyłoby ryzyko dla MŚP w zakresie tych inwestycji;
111.
podkreśla potrzebę promowania zarówno wdrażania sztucznej inteligencji przez MŚP, jak i jej wykorzystania wśród konsumentów;
112.
podkreśla, jak ważne są środki ukierunkowane na zapewnienie MŚP oraz przedsiębiorstwom typu startup możliwości przyswajania technologii sztucznej inteligencji i czerpania z nich korzyści; uważa, że oceny skutków nowych przepisów UE dotyczących rozwoju technologicznego sztucznej inteligencji powinny być obowiązkowe oraz że należy rozważyć takie oceny skutków również na poziomie krajowym;
113.
podkreśla, że sztuczna inteligencja może stanowić czynnik umożliwiający rozwój MŚP, lecz jednocześnie zwiększa efektywność dużych podmiotów, które wdrożą tę technologię na wczesnym etapie, oraz twórców; zwraca zatem uwagę, że z perspektywy konkurencyjności należy zapewnić, aby odpowiednio oceniano nowe zakłócenia i reagowano na nie;
4.
Ujęcie sztucznej inteligencji i robotyki w ramy prawne
114.
wzywa Komisję, aby z myślą o otoczeniu regulacyjnym sprzyjającym rozwojowi sztucznej inteligencji i zgodnie z zasadą lepszego stanowienia prawa regularnie poddawała ocenie obowiązujące przepisy, aby zadbać o to, by były one adekwatne do celów względem sztucznej inteligencji, przy jednoczesnym poszanowaniu podstawowych wartości UE, oraz dążyła do zmiany przepisów lub zastąpienia ich nowymi w przypadkach, w których zostanie wykazane, że tak nie jest;
115.
z zadowoleniem przyjmuje ustanowienie platform partycypacyjnych opartych na sztucznej inteligencji, umożliwiających faktyczne wysłuchanie obywateli i pozwalających im na interakcję z rządami przez zgłaszanie wniosków, w tym za pomocą budżetów partycypacyjnych i innych instrumentów demokracji bezpośredniej; podkreśla, że oddolne projekty mogą sprzyjać uczestnictwu obywateli i pomóc w podejmowaniu świadomych decyzji w skuteczniejszy i bardziej demokratyczny sposób;
116.
zauważa, że pojęcie sztucznej inteligencji obejmuje szeroką gamę produktów i zastosowań, od automatyki, algorytmów i wąskiej sztucznej inteligencji po ogólną sztuczną inteligencję; uważa, że należy zachować ostrożność przy opracowywaniu kompleksowych przepisów i uregulowań w dziedzinie sztucznej inteligencji, ponieważ uregulowania sektorowe mogą zapewniać polityki o wystarczająco ogólnym charakterze, ale także stopniu szczegółowości, który zapewnia istotne oddziaływanie na sektor przemysłu;
117.
podkreśla, że ramy tej polityki muszą być opracowane w taki sposób, aby zachęcać do rozwoju wszelkiego rodzaju sztucznej inteligencji, a nie tylko systemów uczenia głębokiego, które wymagają ogromnej ilości danych;
4.1.
Wewnętrzny rynek dla sztucznej inteligencji
118.
podkreśla znaczenie zasady wzajemnego uznawania w transgranicznym stosowaniu inteligentnych towarów, w tym robotów i systemów robotycznych; przypomina, że w razie potrzeby testy, certyfikaty i bezpieczeństwo produktów powinny gwarantować, że pewne towary są bezpieczne, gdyż tak je domyślnie zaprojektowano; w tym kontekście zwraca uwagę na znaczenie, jakie mają również prace nad aspektami etycznymi sztucznej inteligencji;
119.
podkreśla, że prawodawstwo UE związane z wdrażaniem strategii jednolitego rynku cyfrowego winno znieść bariery dla stosowania sztucznej inteligencji; zwraca się do Komisji o dokonanie oceny aspektów wymagających aktualizacji polityki i ram regulacyjnych w celu budowy jednolitego europejskiego rynku sztucznej inteligencji;
120.
jest świadom, że technologie robotyczne i technologie sztucznej inteligencji są coraz szerzej stosowane w pojazdach autonomicznych, takich jak samochody autonomiczne czy drony; zauważa, że niektóre państwa członkowskie już uchwalają przepisy dotyczące konkretnie tej dziedziny lub prowadzą prace nad uchwaleniem takich przepisów, co może doprowadzić do fragmentacji przepisów krajowych utrudniającej rozwój pojazdów autonomicznych; wzywa w związku z tym do ustanowienia jednolitego zbioru przepisów unijnych, w którym zachowana zostanie właściwa równowaga między interesami użytkowników, przedsiębiorstw i innych zainteresowanych stron a potencjalnymi zagrożeniami, lecz bez nadmiernej regulacji w odniesieniu do systemów robotycznych i systemów sztucznej inteligencji;
121.
wzywa państwa członkowskie do unowocześnienia ich systemów szkolenia zawodowego i kształcenia w celu uwzględnienia postępu naukowego i rozwoju w dziedzinie sztucznej inteligencji zgodnie z dyrektywą w sprawie analizy proporcjonalności 10  i z dyrektywą w sprawie uznawania kwalifikacji zawodowych 11 , a także do sprawienia, by unijne usługi świadczone w ramach zawodów regulowanych stały się w nadchodzących dziesięcioleciach konkurencyjne w skali światowej;
122.
podkreśla, że sztuczna inteligencja jest wykorzystywana w różnych sektorach, w których duże znaczenie ma normalizacja, takich jak inteligentna produkcja, robotyka, pojazdy autonomiczne, wirtualna rzeczywistość, opieka zdrowotna i analiza danych, oraz uważa, że ogólnounijne normy w dziedzinie sztucznej inteligencji będą sprzyjać innowacjom i gwarantować wysoki poziom ochrony konsumentów; przyznaje, że choć istnieje już wiele norm związanych z ochroną, niezawodnością, interoperacyjnością i bezpieczeństwem, potrzebne są dalsze starania o nie i opracowanie wspólnych norm w dziedzinie robotyki i sztucznej inteligencji oraz że powinny one być jednym z priorytetów Unii; wzywa Komisję, by we współpracy z unijnymi organami normalizacyjnymi nadal aktywnie angażowała się wraz z międzynarodowymi organami normalizacyjnymi w udoskonalenie norm w tej dziedzinie;
123.
przypomina, że wiele aspektów politycznych istotnych z punktu widzenia usług opartych na sztucznej inteligencji, w tym przepisy dotyczące ochrony konsumentów oraz zasady etyki i odpowiedzialności, wchodzi w zakres obowiązujących ram regulacyjnych dotyczących usług, a mianowicie dyrektywy usługowej 12 , dyrektywy w sprawie uznawania kwalifikacji zawodowych i dyrektywy w sprawie handlu elektronicznego 13 ; podkreśla w tym kontekście, że za podjęcie decyzji musi zawsze ostatecznie odpowiadać człowiek, zwłaszcza w przypadku usług świadczonych w ramach wolnych zawodów, takich jak zawody medyczne, prawnicze i księgowe; uważa, że należy zastanowić się, czy w trosce o ochronę uzasadnionych celów leżących w interesie publicznym i o świadczenie wysokiej jakości usług nie byłby konieczny nadzór ze strony wykwalifikowanego specjalisty;
124.
uznaje znaczenie zaawansowanych usług cyfrowych, takich jak wirtualni asystenci, wirtualni doradcy i wirtualne osoby, przysparzających niespotykanych dotąd korzyści operacyjnych, jednocześnie zwracając uwagę na potrzebę rozwoju sztucznej inteligencji zorientowanej na człowieka i opartej na zasadach rynkowych w celu uzyskania lepszych i bardziej wiarygodnych decyzji w obliczu ograniczonej autonomii sztucznej inteligencji i systemów robotycznych;
4.2.
Dane osobowe i prywatność
125.
podkreśla, że należy zapewnić wysoki poziom bezpieczeństwa, ochrony i prywatności w odniesieniu do danych wykorzystywanych w komunikacji między ludźmi a robotami i sztuczną inteligencją; w związku z tym wzywa Komisję i państwa członkowskie do włączenia zasad uwzględniania bezpieczeństwa i ochrony prywatności na etapie projektowania do ich polityk w zakresie robotyki i sztucznej inteligencji;
126.
przypomina, że zapisane w art. 7 i 8 Karty praw podstawowych Unii Europejskiej oraz w art. 16 Traktatu o funkcjonowaniu Unii Europejskiej prawo do ochrony życia prywatnego i prawo do ochrony danych osobowych ma zastosowanie do wszystkich obszarów robotyki i sztucznej inteligencji oraz należy w pełni przestrzegać unijnych ram prawnych dotyczących ochrony danych; podkreśla odpowiedzialność podmiotów projektujących systemy robotyczne i sztuczną inteligencję za opracowywanie nowych produktów w taki sposób, aby były bezpieczne, pewne i dostosowane do celu, a także zgodne z procedurami dotyczącymi przetwarzania danych, podlegającymi obowiązującym przepisom, zasadzie poufności, anonimowości, sprawiedliwego traktowania i rzetelnego procesu;
127.
wzywa Komisję do zapewnienia, aby wszelkie przepisy Unii dotyczące sztucznej inteligencji obejmowały środki i zasady uwzględniające szybki rozwój technologiczny w tej dziedzinie w celu zapewnienia, że prawodawstwo Unii nie pozostanie w tyle za rozwojem i stosowaniem technologii; podkreśla, że te przepisy muszą być zgodne z przepisami o ochronie prywatności i danych; wzywa do przeglądu przepisów, zasad i kryteriów dotyczących korzystania z kamer i czujników, robotyki i odnoszących się do sztucznej inteligencji w zgodzie z unijnymi ramami prawnymi dotyczącymi ochrony danych;
128.
wzywa Komisję do zadbania o to, aby wszelkie unijne ramy prawne dotyczące sztucznej inteligencji wprowadzane w przyszłości gwarantowały prywatność i poufność komunikacji, ochronę danych osobowych, a także przestrzeganie zasad: zgodności z prawem, rzetelności i przejrzystości, ochrony danych już w fazie projektowania oraz domyślnej ochrony danych, celowości, ograniczenia przechowywania danych, ich dokładności i minimalizacji przy pełnym poszanowaniu unijnego prawa ochrony danych, a także by gwarantowały bezpieczeństwo, ochronę indywidualną oraz inne prawa podstawowe, takie jak prawo do wolności wypowiedzi i swobodnego dostępu do informacji;
129.
podkreśla, że prawo do prywatności musi być zawsze szanowane, a osoby fizyczne nie mogą być rozpoznawalne jako takie; podkreśla, że projektant sztucznej inteligencji powinien zawsze mieć wyraźne, jednoznaczne i świadome przyzwolenie oraz że projektanci sztucznej inteligencji są odpowiedzialni za rozwijanie i przestrzeganie procedur w zakresie ważnej zgody, poufności, anonimowości, sprawiedliwego traktowania i należytego postępowania; podkreśla, że projektanci muszą stosować się do każdego wniosku o zniszczenie lub usunięcie jakichkolwiek powiązanych danych z wszelkich zestawów danych;
130.
przypomina, że rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/1807 z dnia 14 listopada 2018 r. w sprawie swobodnego przepływu danych nieosobowych 14  stanowi, że jeżeli rozwój technologiczny umożliwia przekształcanie zanonimizowanych danych w dane osobowe, takie dane należy traktować jako dane osobowe i stosować ogólne rozporządzenie o ochronie danych (RODO) 15 ;
4.3.
Odpowiedzialność
131.
z zadowoleniem przyjmuje inicjatywę Komisji dotyczącą utworzenia grupy ekspertów ds. odpowiedzialności i nowych technologii w celu zapewnienia UE wiedzy fachowej na temat stosowania dyrektywy w sprawie odpowiedzialności za produkty 16  w odniesieniu do produktów tradycyjnych, nowych technologii i nowych wyzwań społecznych (tworzenie dyrektywy w sprawie odpowiedzialności za produkty) oraz wspierania UE w opracowywaniu zasad, które mogą służyć jako wytyczne dotyczące ewentualnego dostosowania obowiązujących przepisów na szczeblu unijnym i krajowym w odniesieniu do nowych technologii (tworzenie nowych technologii);
132.
ubolewa jednak, że w trakcie obecnej kadencji nie przedstawiono żadnego wniosku ustawodawczego, co opóźnia aktualizację przepisów dotyczących odpowiedzialności na szczeblu UE i zagraża pewności prawa w tej dziedzinie w całej UE zarówno dla przedsiębiorców, jak i konsumentów;
133.
dostrzega konieczność zapewnienia dalszej odpowiedzialności inżynierów zajmujących się sztuczną inteligencją lub zatrudniających ich przedsiębiorstw w odniesieniu do skutków społecznych, środowiskowych i konsekwencji dla zdrowia ludzkiego, jakie systemy sztucznej inteligencji lub robotyka mogą przynieść dla obecnych i przyszłych pokoleń;
4.4.
Ochrona i upodmiotowienie konsumentów
134.
podkreśla, że zaufanie konsumentów ma zasadnicze znaczenie dla rozwoju sztucznej inteligencji oraz że systemy oparte na sztucznej inteligencji przetwarzają coraz większą ilość danych konsumentów, co sprawia, że systemy te są głównym celem cyberataków; podkreśla również fakt, że sztuczna inteligencja musi funkcjonować tak, by nie działać na szkodę obywateli i konsumentów, oraz uważa, że należy w związku z tym zapewnić integralność danych i algorytmów, na których opiera się sztuczna inteligencja;
135.
uważa, że technologie sztucznej inteligencji - zarówno te opracowywane do celów produkcyjnych, jak i te przeznaczone dla użytkowników indywidualnych - powinny podlegać kontrolom bezpieczeństwa produktów przeprowadzanym przez organy nadzoru rynku, a przepisy dotyczące ochrony konsumentów powinny w stosownych przypadkach gwarantować minimalne normy bezpieczeństwa oraz przeciwdziałać ryzyku wypadków, które mogą się wydarzyć w wyniku interakcji z ludźmi lub działania w pobliżu ludzi; jest zdania, że we wszelkich strategiach politycznych dotyczących sztucznej inteligencji należy uwzględnić kwestie etyczne i zagadnienia z zakresu ochrony danych, w tym danych pozyskanych od osób trzecich i danych osobowych, odpowiedzialności cywilnej oraz cyberbezpieczeństwa;
4.5.
Prawa własności intelektualnej
136.
przypomina wspomnianą wyżej rezolucję z 16 lutego 2017 r., w której Parlament stwierdził, że nie istnieją żadne przepisy prawne, które mają zastosowanie konkretnie do robotyki, ale że istniejące systemy prawne i doktryny mogą być z łatwością zastosowane do robotyki, chociaż niektóre aspekty wydają się wymagać szczególnego rozważenia; ponawia zawarty w rezolucji apel do Komisji, aby wspierała przekrojowe i neutralne pod względem technicznym podejście do własności intelektualnej mające zastosowanie do poszczególnych sektorów, w których możliwe jest zastosowanie robotyki;
137.
pod tym względem z zadowoleniem przyjmuje komunikat Komisji skierowany do pozostałych instytucji w sprawie wytycznych dotyczących niektórych aspektów dyrektywy 2004/48/WE Parlamentu Europejskiego i Rady w sprawie egzekwowania praw własności intelektualnej 17  (COM(2017)0708), ale podkreśla potrzebę monitorowania adekwatności i skuteczności przepisów dotyczących praw własności intelektualnej w celu zarządzania rozwojem sztucznej inteligencji; podkreśla w tym kontekście znaczenie ocen adekwatności;
5.
Aspekty etyczne
138.
uważa, że działania i zastosowania sztucznej inteligencji powinny być zgodne z zasadami etycznymi i stosownym prawem krajowym, unijnym i międzynarodowym;
139.
wzywa do utworzenia karty etycznej najlepszych praktyk w zakresie sztucznej inteligencji i robotyki, która obowiązywałaby przedsiębiorstwa i ekspertów;
140.
wzywa Komisję i państwa członkowskie do wspierania ścisłej i przejrzystej współpracy między sektorem publicznym, sektorem prywatnym i środowiskami akademickimi, która wzmocniłaby wymianę wiedzy, a także do wspierania edukacji i szkoleń dla projektantów na temat uwarunkowań etycznych, bezpieczeństwa i poszanowania praw podstawowych, jak również dla konsumentów na temat wykorzystywania robotyki i sztucznej inteligencji, ze szczególnym uwzględnieniem bezpieczeństwa i prywatności danych;
141.
wzywa Komisję do zapewnienia, aby zastosowania oparte na sztucznej inteligencji nie wykorzystywały danych zgromadzonych z wielu źródeł bez uzyskania najpierw zgody osoby, której dane dotyczą; wzywa Komisję do stworzenia ram zapewniających, aby zgoda udzielona przez osobę, której dane dotyczą, umożliwiała generowanie danych tylko w zamierzonych celach;
142.
wzywa Komisję do poszanowania prawa obywateli do życia poza internetem oraz zapewnienia braku dyskryminacji tych obywateli, co do których nie zapisano żadnych danych;
5.1.
Technologia ukierunkowana na człowieka
143.
podkreśla, że należy wprowadzić zasady etyczne w celu zapewnienia rozwoju sztucznej inteligencji ukierunkowanego na człowieka, odpowiedzialności i przejrzystości algorytmicznych systemów podejmowania decyzji, jasnych zasad odpowiedzialności oraz uczciwości;
144.
przyjmuje z zadowoleniem inicjatywę Komisji dotyczącą ustanowienia grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji oraz unijnej sieci partnerów ds. sztucznej inteligencji, aby wydać wskazówki etyczne w odniesieniu do sztucznej inteligencji; zwraca się do Komisji o zapewnienie możliwie najszerszego wdrożenia tych wskazówek etycznych przez przemysł, środowisko akademickie i organy władzy publicznej; zaleca, aby państwa członkowskie włączyły swoje wskazówki do krajowych strategii w zakresie sztucznej inteligencji i opracowały rzeczywiste struktury odpowiedzialności dla przemysłu i rządów podczas projektowania i stosowania sztucznej inteligencji;
145.
uważa za konieczne stałe monitorowanie wdrażania wskazówek etycznych w dziedzinie sztucznej inteligencji oraz ich wpływu na rozwój sztucznej inteligencji ukierunkowanej na człowieka; zwraca się do Komisji o przeanalizowanie, czy dobrowolne wskazówki etyczne są wystarczające dla zapewnienia, że integracyjne wdrażanie sztucznej inteligencji z uwzględnieniem zasad etycznych nie doprowadzi do podziałów ekonomicznych i społecznych w społeczeństwie UE, oraz sugeruje przyjęcie - w razie konieczności - środków regulacyjnych i politycznych;
146.
dostrzega najnowsze zmiany w monitorowaniu i przystosowywaniu się do analiz zachowania; wzywa Komisję do opracowania ram etycznych ograniczających stosowanie tego rodzaju analiz; wzywa Komisję do szerzenia wiedzy i zainicjowania kampanii informacyjnej na temat sztucznej inteligencji i jej stosowania w analizie zachowania;
5.2.
Wartości związane z technologią - "etyczny z założenia"
147.
wskazuje, że pełniące rolę wytycznych ramy etyczne powinny opierać się na zasadzie przynoszenia korzyści, nieszkodliwości, autonomii i sprawiedliwości oraz na zasadach i wartościach zapisanych w art. 2 Traktatu o Unii Europejskiej oraz w Karcie praw podstawowych Unii Europejskiej, takich jak godność ludzka, równość, sprawiedliwość i równouprawnienie, brak dyskryminacji, świadoma zgoda, ochrona życia prywatnego i rodzinnego oraz ochrona danych, a także na innych zasadach i wartościach stanowiących podstawę prawa UE, takich jak brak stygmatyzacji, przejrzystość, autonomia, odpowiedzialność jednostki, jak również na obowiązujących kodeksach etycznych i praktykach stosowanych w tej dziedzinie;
148.
uważa, że Europa powinna odgrywać wiodącą rolę na świecie i stosować wyłącznie sztuczną inteligencję uwzględniającą zasady etyczne; podkreśla, że aby to osiągnąć, należy zapewnić na różnych poziomach zarządzanie kwestiami etycznymi w ramach sztucznej inteligencji; zaleca, aby państwa członkowskie powołały organy ds. monitorowania i nadzoru sztucznej inteligencji oraz zachęcały przedsiębiorstwa opracowujące rozwiązania z zakresu sztucznej inteligencji do ustanowienia rad ds. etyki i stworzenia przewodników etycznych dla twórców sztucznej inteligencji;
149.
podkreśla, że europejskie normy dotyczące sztucznej inteligencji muszą opierać się na zasadach etyki cyfrowej, godności ludzkiej, poszanowania praw podstawowych, ochrony danych i bezpieczeństwa, przyczyniając się tym samym do budowania zaufania wśród użytkowników; podkreśla, jak ważne jest wykorzystanie potencjału UE do stworzenia z myślą o systemach sztucznej inteligencji silnej infrastruktury opartej na wysokich standardach ochrony danych i na szacunku dla ludzi; zauważa, że w rozwoju sztucznej inteligencji należy uwzględnić przejrzystość i wytłumaczalność;
150.
zauważa, że w kontekście zautomatyzowanych systemów uzbrojenia należy w dalszym ciągu stosować podejście do sztucznej inteligencji zakładające weryfikację przez człowieka;
5.3.
Podejmowanie decyzji - ograniczenia autonomii sztucznej inteligencji i robotyki
151.
podkreśla trudny i złożony charakter przewidywania przyszłego zachowania wielu złożonych systemów sztucznej inteligencji i nowych zachowań systemów sztucznej inteligencji wzajemnie na siebie oddziałujących; zwraca się do Komisji o dokonanie, czy konieczne jest wprowadzenie szczególnych uregulowań w odniesieniu do procesów podejmowania decyzji wykorzystujących sztuczną inteligencję;
152.
zauważa, że sztuczna inteligencja pozostanie przydatnym narzędziem wspierającym działania człowieka w celu ich usprawnienia i ograniczenia błędów;
153.
apeluje, aby ludzie mieli prawo do wiedzy, do odwołania się i do dochodzenia roszczeń w przypadku, gdy sztuczną inteligencję wykorzystuje się do podejmowania decyzji wpływających na daną osobę, które stwarzają istotne ryzyko pod względem praw lub swobód jednostki i mogą wyrządzić jej szkodę;
154.
podkreśla, że algorytmy stosowane w systemach podejmowania decyzji nie powinny być wdrażane bez uprzedniej oceny skutków algorytmu, chyba że ewidentnie nie mają one istotnego wpływu na życie osób;
155.
uważa, że sztuczna inteligencja, zwłaszcza systemy z wbudowaną autonomią, włączając w to zdolność do niezależnego wyodrębniania, zbierania i udostępniania danych podlegających szczególnej ochronie rozmaitym zainteresowanym stronom, a także możliwość samodzielnego uczenia się lub nawet ewoluowania do umiejętności samodzielnej modyfikacji, powinna podlegać solidnym zasadom; podkreśla, że systemy sztucznej inteligencji nie mogą przechowywać ani ujawniać poufnych danych osobowych bez wyraźnej zgody ze strony źródła tych danych;
5.4.
Przejrzystość, błąd systematyczny i wytłumaczalność algorytmów
156.
wskazuje, że pomimo ogromnych korzyści dla automatyzacji i procesu podejmowania decyzji, sztuczna inteligencja niesie za sobą nieodłączne ryzyko związane ze statycznymi i nieprzejrzystymi algorytmami; w tym kontekście podkreśla potrzebę zapewnienia większej przejrzystości odnośnie do algorytmów;
157.
wzywa Komisję, państwa członkowskie i organy ochrony danych do określenia i podjęcia wszelkich możliwych środków, aby zapobiec dyskryminacji i tendencyjności algorytmicznej lub ograniczyć je do minimum, a także do opracowania solidnych wspólnych ram etycznych na potrzeby przejrzystego przetwarzania danych osobowych i zautomatyzowanego podejmowania decyzji, aby ramy te mogły być pomocą w korzystaniu z danych i egzekwowaniu prawa Unii;
158.
podkreśla, że wszelkie systemy sztucznej inteligencji muszą być opracowywane przy poszanowaniu zasad przejrzystości i odpowiedzialności za algorytm, które umożliwiają zrozumienie działań tych systemów przez człowieka; zauważa, że aby zbudować zaufanie do sztucznej inteligencji i umożliwić jej rozwój, użytkownicy muszą być świadomi tego, w jaki sposób wykorzystuje się ich dane, inne dane oraz dane zaczerpnięte z ich danych, gdy komunikują się lub nawiązują kontakt z systemem sztucznej inteligencji lub z osobami wspieranymi przez taki system; uważa, że przyczyni się to do lepszego zrozumienia i większego zaufania ze strony użytkowników; podkreśla, że zasada zrozumiałości decyzji musi być normą unijną zgodnie z art. 13, 14 i 15 RODO; przypomina, że w RODO przewidziano już prawo do informacji o zasadach rządzących przetwarzaniem danych; zwraca uwagę, że zgodnie z art. 22 ogólnego rozporządzenia o ochronie danych osoby fizyczne mają prawo do interwencji ze strony człowieka w przypadkach, gdy na ich sytuację w znacznym stopniu wpływa decyzja oparta na zautomatyzowanym przetwarzaniu;
159.
podkreśla, że Komisja, Europejska Rada Ochrony Danych, krajowe organy ochrony danych i inne niezależne organy nadzorcze powinny odtąd odgrywać kluczową rolę w promowaniu przejrzystości, sprawiedliwości proceduralnej oraz pewności prawa w ogóle, a w szczególności konkretnych standardów ochrony praw podstawowych i gwarancji związanych z wykorzystywaniem przetwarzania i analizy danych; wzywa do ściślejszej współpracy między organami odpowiedzialnymi za nadzór lub regulację zachowania w środowisku cyfrowym; wzywa do zapewnienia tym organom odpowiednich środków finansowych i zasobów kadrowych;
160.
uznaje, że algorytmy uczenia maszynowego są trenowane do samodzielnego uczenia się, co przynosi korzyści dla automatyzacji i procesu podejmowania decyzji; apeluje, aby we wskazówkach etycznych dotyczących sztucznej inteligencji uwzględniono kwestie związane z przejrzystością, wytłumaczalnością, odpowiedzialnością i uczciwością algorytmów;
161.
podkreśla znaczenie wytłumaczalności wyników, procesów i wartości systemów sztucznej inteligencji, aby były one zrozumiałe dla odbiorców nieposiadających wykształcenia technicznego i dostarczały im istotnych informacji, co jest konieczne do oceny uczciwości i zdobycia zaufania;
162.
wskazuje, że brak przejrzystości pod względem tych technologii i ich zastosowań powoduje wzrost liczby problemów etycznych;
163.
zauważa, że systemy sztucznej inteligencji powinny być wytłumaczalne dla ludzi i powinny zapewniać istotne informacje, aby umożliwić przekazywanie informacji zwrotnych; uznaje, że solidność modeli sztucznej inteligencji zależy od przekazywania informacji zwrotnych i ponownej oceny, oraz zachęca do tego procesu;
164.
zauważa, że obywatele są zaniepokojeni brakiem wiedzy na temat sytuacji, w których wykorzystywana jest sztuczna inteligencja oraz danych podlegających przetwarzaniu; zaleca wyraźne informowanie obywateli, ilekroć korzystają oni ze sztucznej inteligencji; podkreśla, że utrzymanie zaufania konsumentów wymaga zachowania bezpieczeństwa przekazywanych danych;
165.
uważa, że odpowiedzialność algorytmiczna powinna być regulowana przez decydentów przez ocenę skutków opartą na ustalonych parametrach;
166.
zauważa, że samo ujawnienie kodu komputerowego nie rozwiąże problemu przejrzystości sztucznej inteligencji, ponieważ nie wykazywałoby nieodłącznych błędów systematycznych i nie tłumaczyłoby procesu uczenia się maszynowego; podkreśla, że przejrzystość oznacza nie tylko przejrzystość kodu, ale także danych i automatycznego podejmowania decyzji;
167.
uznaje, że ujawnienie kodu źródłowego mogłoby prowadzić do niewłaściwego wykorzystywania algorytmów i prób wyszukiwania w nich luk;
168.
zwraca uwagę na znaczenie zajęcia się kwestią tendencyjności podejścia programistów w programowaniu, a tym samym na zapotrzebowanie na zróżnicowaną siłę roboczą we wszystkich dziedzinach sektora informatyki, a także na mechanizmy ochronne, które umożliwiłyby uniknięcie wbudowywania w systemy sztucznej inteligencji uprzedzeń dotyczących płci i wieku;
169.
uznaje, że ujawnienie kodu lub tajemnic handlowych zniechęcałoby firmy do badań nad nowymi kodami i ich rozwoju z uwagi na ryzyko związane z własnością intelektualną; zauważa, że rozwój sztucznej inteligencji powinien zamiast tego zachęcać do interoperacyjności modeli i ich interakcji z danymi wejściowymi i treningowymi;
170.
uznaje, że chociaż przejrzystość i wytłumaczalność może ujawnić braki, nie gwarantuje to wiarygodności, bezpieczeństwa i uczciwości; uważa zatem, że odpowiedzialność jest integralną częścią tworzenia wiarygodnej sztucznej inteligencji, co można osiągnąć za pomocą różnych środków, takich jak oceny skutków algorytmów, audyt i certyfikacja;
171.
podkreśla potrzebę rozwoju protokołów stałego monitorowania i wykrywania algorytmicznych błędów systematycznych;
172.
wskazuje, że projektanci algorytmów powinni zapewnić, że spełnione są zasadnicze wymogi, takie jak uczciwość i wytłumaczalność, od początku etapu projektowania i na przestrzeni całego cyklu rozwoju;
173.
zauważa potrzebę wytycznych opisujących praktyki dobrego rozwoju;
174.
podkreśla znaczenie wskazywania pochodzenia w celu zapewnienia możliwości śledzenia historii modelu sztucznej inteligencji; uważa, że poprawi to zrozumienie modeli i pomoże w budowaniu zaufania opartego na ich historii;
175.
podkreśla, że stosowanie systemów sztucznej inteligencji musi być jasno określone w interakcjach z użytkownikami;
176.
podkreśla, że rozpowszechnianie sztucznej inteligencji i robotyki musi odbywać się z pełnym poszanowaniem praw człowieka oraz że w maszynach i robotach nie należy powielać stereotypów dotyczących kobiet ani żadnej innej formy dyskryminacji;
177.
zauważa, że nawet wysokiej jakości dane do trenowania algorytmów, wykorzystywane w sposób nieostrożny i nieświadomy, mogą prowadzić do utrwalania dotychczasowej dyskryminacji i niesprawiedliwości; zauważa, że wykorzystywanie złej jakości, przestarzałych, niepełnych lub nieprawidłowych danych na różnych etapach przetwarzania może skutkować nietrafnymi prognozami i ocenami, a co za tym idzie, tendencyjnością, co w efekcie może prowadzić do naruszania praw podstawowych osób fizycznych lub całkowicie nieprawidłowych wniosków lub fałszywych wyników; dlatego też uważa, że w epoce dużych zbiorów danych należy dołożyć starań, aby algorytmy były trenowane w oparciu o reprezentatywne próby wysokiej jakości danych w celu osiągnięcia równowagi statystycznej; podkreśla, że nawet przy wykorzystaniu dokładnych danych wysokiej jakości analiza predykcyjna oparta na sztucznej inteligencji może dać jedynie prawdopodobieństwo statystyczne; przypomina, że na mocy RODO dalsze przetwarzanie danych osobowych do celów statystycznych, w tym do trenowania sztucznej inteligencji, może prowadzić jedynie do powstania danych zagregowanych, których nie można ponownie zastosować do osób fizycznych;
178.
wzywa Komisję do zapewnienia, aby każdy, kto wytwarza materiały typu "deepfake", wygenerowane nagrania wideo lub inne realistyczne wygenerowane nagrania wideo, wyraźnie stwierdzał, że nie są one prawdziwe;
179.
zauważa, że sztuczna inteligencja jest nieodzownie zależna od gromadzenia dużych ilości danych, a często od tworzenia nowych baz danych wykorzystywanych do przyjmowania określonych założeń wobec ludzi; uważa, że należy położyć nacisk na określenie i stworzenie mechanizmów reagowania na potencjalne zagrożenia, aby zapewnić łagodzenie negatywnych skutków;
180.
ponownie podkreśla, że systemy sztucznej inteligencji nie powinny prowadzić do tendencyjności lub jej wzmocnienia; podkreśla, że podczas opracowywania i stosowania algorytmów należy na wszystkich etapach uwzględnić kwestie tendencyjności i uczciwości, od projektowania do wdrażania; podkreśla, że zestaw danych i algorytm muszą być poddane ocenie i regularnie sprawdzane, aby zapewnić rzetelne podejmowanie decyzji;
6.
Zarządzanie
6.1.
Koordynacja na szczeblu Unii
181.
wzywa Komisję do podjęcia działań w celu wypracowania solidnego przywództwa UE, aby zapobiec powieleniu i rozdrobnieniu wysiłków oraz zapewnić spójne strategie polityczne na szczeblu krajowym oraz wymianę najlepszych praktyk w celu szerszego wykorzystywania sztucznej inteligencji;
182.
przyjmuje z zadowoleniem różne strategie krajowe opracowywane przez państwa członkowskie; przyjmuje z zadowoleniem skoordynowany plan dotyczący sztucznej inteligencji, opublikowany przez Komisję w dniu 7 grudnia 2018 r.; wzywa do lepszej współpracy w tej dziedzinie między państwami członkowskimi i Komisją;
183.
zauważa, że niektóre państwa członkowskie posiadają już własne strategie w dziedzinie sztucznej inteligencji, i z zadowoleniem przyjmuje fakt, że wszystkie państwa członkowskie podpisały w kwietniu 2018 r. deklarację w sprawie współpracy w dziedzinie sztucznej inteligencji; przyjmuje z zadowoleniem przyszły skoordynowany plan w sprawie sztucznej inteligencji opracowany przez Komisję wraz z państwami członkowskimi, lecz wzywa wszystkie zaangażowane strony, aby dążyły do jak najściślejszej współpracy;
184.
uważa, że konieczna jest aktywniejsza współpraca między państwami członkowskimi a Komisją, aby zagwarantować w Unii spójne zasady transgraniczne zachęcające europejskie gałęzie przemysłu do współpracy, a także umożliwiające rozmieszczanie w całej Unii sztucznej inteligencji, która będzie spójna, jeżeli chodzi o wymagany poziom bezpieczeństwa i ochrony, a także zasady etyczne zapisane w prawie Unii;
185.
podkreśla, że zharmonizowane, postępowe i oparte na ryzyku ramy polityczne UE dotyczące danych umożliwiłyby zwiększenie zaufania i wsparcia dla projektu sztucznej inteligencji w Europie, a w ten sposób zapewniłyby ukończenie jednolitego rynku cyfrowego i zwiększyły wydajność przedsiębiorstw mających siedzibę w Europie;
186.
zaleca, aby obecne i przyszłe inicjatywy i projekty pilotażowe dotyczące sztucznej inteligencji prowadzone przez Komisję były ściśle koordynowane, ewentualnie pod kierunkiem proponowanego mechanizmu nadzoru, aby zapewnić efekty synergii i tworzenie prawdziwej wartości dodanej, zapobiegając powstawaniu kosztownych podwójnych struktur;
187.
wzywa Komisję i państwa członkowskie do rozważenia utworzenia europejskiej agencji regulacyjnej ds. sztucznej inteligencji i podejmowania decyzji opartego na algorytmach, mającej następujące zadania:
stworzenie matrycy oceny ryzyka w celu klasyfikacji typów i obszarów zastosowania algorytmów pod względem ich możliwości wywarcia znaczącego negatywnego wpływu na obywateli;
badanie wykorzystywania systemów algorytmicznych w przypadku podejrzenia naruszenia praw człowieka (np. w świetle dowodów przedstawionych przez sygnalistę);
doradztwo na rzecz innych agencji regulacyjnych w odniesieniu do systemów algorytmicznych, które wchodzą w zakres ich kompetencji;
zwiększanie skuteczności mechanizmu odpowiedzialności deliktowej jako środka umożliwiającego regulację odpowiedzialności systemów algorytmicznych przez zapewnienie punktu kontaktowego dla obywateli, którzy nie są zaznajomieni z procedurami prawnymi;
audyty ocen skutków algorytmów dotyczących systemów o wysokim poziomie oddziaływania w celu akceptacji lub odrzucania proponowanych sposobów wykorzystywania algorytmicznego podejmowania decyzji w obszarach wysoce newralgicznych lub mających kluczowe znaczenie pod względem bezpieczeństwa (np. prywatna opieka zdrowotna); ocena skutków algorytmów dla zastosowań w sektorze prywatnym mogłaby przebiegać w analogiczny sposób do oceny zaproponowanej dla sektora publicznego, przy czym ewentualna różnica mogłaby polegać na tym, że poszczególne etapy podawania informacji do wiadomości publicznej mogłyby być realizowane na zasadach poufnego powiadamiania agencji regulacyjnej (na podstawie umowy o zachowaniu poufności) w celu zabezpieczenia najważniejszych tajemnic handlowych;
badanie przypadków podejrzewanych naruszeń praw przez algorytmiczne systemy podejmowania decyzji zarówno pod względem indywidualnych decyzji (np. pojedyncze anormalne wyniki), jak i statystycznych wzorców decyzyjnych (np. dyskryminacyjny błąd systematyczny); badania mogłyby być inicjowane w następstwie złożenia skargi lub na podstawie dowodów przedstawionych przez sygnalistów, dziennikarzy śledczych lub niezależnych badaczy (w tym organizacji pozarządowych i naukowców);
188.
odnotowuje bieżące prace Międzynarodowej Organizacji Normalizacyjnej (ISO) nad sztuczną inteligencją i wzywa państwa członkowskie do koordynowania działań swoich członków ISO, aby zapewnić, że europejskie interesy będą odpowiednio reprezentowane przy opracowywaniu norm w tej dziedzinie;
6.2.
Zarządzanie międzynarodowe
189.
przyjmuje z zadowoleniem utworzenie Obserwatorium Polityki w zakresie Sztucznej Inteligencji OECD i wzywa do zwiększenia ambicji dotyczących opracowania planu dalszej współpracy;
190.
podkreśla, że w państwach trzecich, szczególnie w Stanach Zjednoczonych, Chinach, Rosji i Izraelu, opracowywane są już różne modele, oraz zwraca uwagę na podejście oparte na wartościach stosowane w Europie; zauważa również potrzebę współpracy z partnerami międzynarodowymi w kontekstach dwustronnych i wielostronnych w celu etycznego rozwoju i wdrażania sztucznej inteligencji; uznaje, że technologia ta jest pozbawiona granic i wymaga współpracy wykraczającej poza państwa członkowskie UE;
191.
wzywa Komisję do działania na szczeblu międzynarodowym w celu zapewnienia jak największej zgodności pomiędzy międzynarodowymi graczami i propagowania zasad etycznych UE na całym świecie;
192.
podkreśla, że sztuczna inteligencja jest technologią wywierającą wpływ na całym świecie, niosącą wspólne korzyści i stwarzającą podobne wyzwania; zaznacza, że potrzebne jest globalne podejście, podobnie jak w przypadku systemu gospodarczego, a zwłaszcza w przypadku technologii mających znaczący wpływ na rynki; podkreśla, że kwestię sztucznej inteligencji należy ująć w programach istniejących instytucji i organizacji, oraz wzywa do dokonania oceny dodatkowych forów, które należy w razie konieczności powołać;

o

o o

193.
zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji Radzie i Komisji.
1 Dz.U. C 252 z 18.7.2018, s. 239.
2 Dz.U. C 307 z 30.8.2018, s. 163.
3 Teksty przyjęte, P8_TA(2018)0341.
4 Teksty przyjęte, P8_TA(2018)0332.
5 Dz.U. L 252 z 8.10.2018, s. 1.
6 COM(2018)0237.
7 Przyszłe i powstające technologie.
8 OECD "Digital Economy Outlook 2017" ["Przyszłość gospodarki cyfrowej 2017"].
9 Specjalne badanie Eurobarometr nr 460.
10 Dyrektywa Parlamentu Europejskiego i Rady (UE) 2018/958 z dnia 28 czerwca 2018 r. w sprawie analizy proporcjonalności przed przyjęciem nowych regulacji dotyczących zawodów, Dz.U. L 173 z 9.7.2018, s. 25.
11 Dyrektywa Parlamentu Europejskiego i Rady 2013/55/UE z dnia 20 listopada 2013 r. zmieniająca dyrektywę 2005/36/WE w sprawie uznawania kwalifikacji zawodowych i rozporządzenie (UE) nr 1024/2012 w sprawie współpracy administracyjnej za pośrednictwem systemu wymiany informacji na rynku wewnętrznym ("rozporządzenie w sprawie IMI"), Dz.U. L 354 z 28.12.2013, s. 132.
12 Dyrektywa 2006/123/WE Parlamentu Europejskiego i Rady z dnia 12 grudnia 2006 r. dotycząca usług na rynku wewnętrznym, Dz.U. L 376 z 27.12.2006, s. 36.
13 Dyrektywa 2000/31/WE Parlamentu Europejskiego i Rady z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego ("dyrektywa o handlu elektronicznym"), Dz.U. L 178 z 17.7.2000, s. 1.
14 Dz.U. L 303 z 28.11.2018, s. 59.
15 Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE, Dz.U. L 119 z 4.5.2016, s. 1.
16 Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe, Dz.U. L 210 z 7.8.1985, s. 29.
17 Dz.U. L 195 z 2.6.2004, s. 16.

Zmiany w prawie

Rząd chce zmieniać obowiązujące regulacje dotyczące czynników rakotwórczych i mutagenów

Rząd przyjął we wtorek projekt zmian w Kodeksie pracy, którego celem jest nowelizacja art. 222, by dostosować polskie prawo do przepisów unijnych. Chodzi o dodanie czynników reprotoksycznych do obecnie obwiązujących regulacji dotyczących czynników rakotwórczych i mutagenów. Nowela upoważnienia ustawowego pozwoli na zmianę wydanego na jej podstawie rozporządzenia Ministra Zdrowia w sprawie substancji chemicznych, ich mieszanin, czynników lub procesów technologicznych o działaniu rakotwórczym lub mutagennym w środowisku pracy.

Grażyna J. Leśniak 16.04.2024
Bez kary za brak lekarza w karetce do końca tego roku

W ponad połowie specjalistycznych Zespołów Ratownictwa Medycznego brakuje lekarzy. Ministerstwo Zdrowia wydłuża więc po raz kolejny czas, kiedy Narodowy Fundusz Zdrowia nie będzie pobierał kar umownych w przypadku niezapewnienia lekarza w zespołach ratownictwa. Pierwotnie termin wyznaczony był na koniec czerwca tego roku.

Beata Dązbłaż 10.04.2024
Będzie zmiana ustawy o rzemiośle zgodna z oczekiwaniami środowiska

Rozszerzenie katalogu prawnie dopuszczalnej formy prowadzenia działalności gospodarczej w zakresie rzemiosła, zmiana definicji rzemiosła, dopuszczenie wykorzystywania przez przedsiębiorców, niezależnie od formy prowadzenia przez nich działalności, wszystkich kwalifikacji zawodowych w rzemiośle, wymienionych w ustawie - to tylko niektóre zmiany w ustawie o rzemiośle, jakie zamierza wprowadzić Ministerstwo Rozwoju i Technologii.

Grażyna J. Leśniak 08.04.2024
Tabletki "dzień po" bez recepty nie będzie. Jest weto prezydenta

Dostępność bez recepty jednego z hormonalnych środków antykoncepcyjnych (octan uliprystalu) - takie rozwiązanie zakładała zawetowana w piątek przez prezydenta Andrzeja Dudę nowelizacja prawa farmaceutycznego. Wiek, od którego tzw. tabletka "dzień po" byłaby dostępna bez recepty miał być określony w rozporządzeniu. Ministerstwo Zdrowia stało na stanowisku, że powinno to być 15 lat. Wątpliwości w tej kwestii miała Kancelaria Prezydenta.

Katarzyna Nocuń 29.03.2024
Małżonkowie zapłacą za 2023 rok niższy ryczałt od najmu

Najem prywatny za 2023 rok rozlicza się według nowych zasad. Jedyną formą opodatkowania jest ryczałt od przychodów ewidencjonowanych, według stawek 8,5 i 12,5 proc. Z kolei małżonkowie wynajmujący wspólną nieruchomość zapłacą stawkę 12,5 proc. dopiero po przekroczeniu progu 200 tys. zł, zamiast 100 tys. zł. Taka zmiana weszła w życie w połowie 2023 r., ale ma zastosowanie do przychodów uzyskanych za cały 2023 r.

Monika Pogroszewska 27.03.2024
Ratownik medyczny wykona USG i zrobi test na COVID

Mimo krytycznych uwag Naczelnej Rady Lekarskiej, Ministerstwo Zdrowia zmieniło rozporządzenie regulujące uprawnienia ratowników medycznych. Już wkrótce, po ukończeniu odpowiedniego kursu będą mogli wykonywać USG, przywrócono im też możliwość wykonywania testów na obecność wirusów, którą mieli w pandemii, a do listy leków, które mogą zaordynować, dodano trzy nowe preparaty. Większość zmian wejdzie w życie pod koniec marca.

Agnieszka Matłacz 12.03.2024