Opinia Europejskiego Komitetu Ekonomiczno-Społecznego Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo (Opinia z inicjatywy własnej).

Opinia Europejskiego Komitetu Ekonomiczno-Społecznego "Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo"
(Opinia z inicjatywy własnej)

(2017/C 288/01)

(Dz.U.UE C z dnia 31 sierpnia 2017 r.)

Sprawozdawca: Catelijne MULLER

Decyzja Zgromadzenia Plenarnego 22.9.2016
Podstawa prawna Art. 29 ust. 2 regulaminu wewnętrznego
Opinia z inicjatywy własnej
Sekcja odpowiedzialna Sekcja Jednolitego Rynku, Produkcji i Konsumpcji
Data przyjęcia przez sekcję 4.5.2017
Data przyjęcia na sesji plenarnej 31.5.2017
Sesja plenarna nr 526
Wynik głosowania 159/3/14
(za/przeciw/wstrzymało się)
1.
Wnioski i zalecenia
1.1.
Sztuczna inteligencja przechodzi obecnie wiele istotnych zmian i w szybkim tempie znajduje zastosowania w życiu społeczeństwa. Wielkość rynku sztucznej inteligencji wynosi około 664 mln USD i oczekuje się jego wzrostu do 38,8 mld USD do 2025 r. Jako że sztuczna inteligencja może nieść zarówno pozytywne, jak i negatywne skutki dla społeczeństwa, EKES wyraźnie zobowiązał się do uważnego śledzenia rozwoju sytuacji w dziedzinie sztucznej inteligencji nie tylko z technicznego, lecz również etycznego i społecznego punktu widzenia, a także pod kątem bezpieczeństwa.
1.2.
EKES, jako przedstawiciel zorganizowanego społeczeństwa obywatelskiego UE, będzie w najbliższym czasie nadawać kształt społecznej debacie na temat sztucznej inteligencji, centralizować ją i stymulować, angażując wszystkie zainteresowane strony: decydentów politycznych, przedstawicieli przemysłu, partnerów społecznych, konsumentów, organizacje pozarządowe, placówki oświatowe i zakłady opieki zdrowotnej, ekspertów i nauczycieli akademickich z różnych dziedzin (w tym takich, jak sztuczna inteligencja, bezpieczeństwo, etyka, ekonomia, nauki o pracy, nauki prawne, nauki behawioralne, psychologia, filozofia).
1.3.
O ile dyskusja na temat superinteligencji jest ważna, to jednak obecnie dominuje i przyćmiewa debatę nad skutkami dzisiejszych zastosowań sztucznej inteligencji. Zadaniem i celem tego procesu będzie zatem m.in. pogłębienie i poszerzenie wiedzy o sztucznej inteligencji, a tym samym przyczynienie się do opartej na faktach, wyważonej debaty, w której będzie można uniknąć zarówno uprawiania czarnowidztwa, jak i skrajnej relatywizacji. EKES tym samym wniesie wkład w promowanie rozwoju sztucznej inteligencji służącej ludzkości. Niemniej jednak ważnym zadaniem i celem tego procesu będzie również rozpoznawanie, nazywanie i śledzenie przełomowych zmian w rozwoju sztucznej inteligencji i związanych z tym rozwojem, tak by móc się nimi zająć w odpowiedni sposób i w odpowiednim czasie. Powinno to doprowadzić do zwiększenia społecznego zaangażowania, zaufania i wsparcia na rzecz dalszego zrównoważonego rozwoju i wdrażania sztucznej inteligencji.
1.4.
Wpływ sztucznej inteligencji ma charakter transgraniczny, zatem należy też ustalić ramy polityczne wykraczające poza poziom krajowy. EKES zaleca, by UE przyjęła rolę światowego lidera w ustalaniu jednolitych, globalnych ram polityki w odniesieniu do sztucznej inteligencji, zgodnych z europejskimi wartościami i prawami podstawowymi. EKES może i chce wnieść wkład w ten proces.
1.5.
EKES wskazuje na 11 dziedzin, w których sztuczna inteligencja stwarza obecnie wyzwania społeczne: etyka; bezpieczeństwo; prywatność; przejrzystość i możliwość wyjaśnienia; praca; kształcenie i umiejętności; (nie)równość i włączenie społeczne; ramy prawne i regulacyjne; sprawowanie rządów i demokracja; prowadzenie wojen; superinteligencja. EKES przedstawia następujące zalecenia.
1.6.
EKES zaleca przyjęcie podejścia do sztucznej inteligencji opartego na ludzkiej kontroli (human-in-command), obejmującego zwłaszcza odpowiedzialne, bezpieczne i pożyteczne rozwijanie sztucznej inteligencji oraz zakładającego, że maszyny pozostają maszynami, a człowiek jest cały czas w stanie zachować nad nimi kontrolę.
1.7.
EKES wzywa do opracowania kodeksu etycznego w zakresie rozwoju, wdrażania i stosowania sztucznej inteligencji, tak by systemy sztucznej inteligencji w całym procesie operacyjnym były zgodne z zasadami godności człowieka, integralności, wolności, prywatności, różnorodności kulturowej i płciowej oraz podstawowych praw człowieka.
1.8.
EKES wzywa do opracowania procedur standaryzacji w celu weryfikacji, walidacji i kontroli systemów sztucznej inteligencji w oparciu o szeroki wachlarz norm dotyczących bezpieczeństwa, przejrzystości, zrozumiałości i możliwości wyjaśnienia funkcjonowania, a także wartości etycznych.
1.9.
EKES opowiada się za europejską infrastrukturą sztucznej inteligencji, składającą się z opartych na otwartym oprogramowaniu i zapewniających poszanowanie prywatności środowisk uczenia się, środowisk testowych w rzeczywistych warunkach i zbiorów wysokiej jakości danych do tworzenia i treningu systemów sztucznej inteligencji. EKES wskazuje na przewagę (konkurencyjną) na rynku globalnym, jaką UE mogłaby uzyskać dzięki opracowaniu i promowaniu europejskich odpowiedzialnych systemów sztucznej inteligencji, wyposażonych w europejskie certyfikaty i znakowanie odnoszące się do sztucznej inteligencji.
1.10.
UE, rządy krajowe i partnerzy społeczni powinni wspólnie określić, na jakie sektory rynku pracy, w jakim stopniu i w jakim terminie wywrze wpływ sztuczna inteligencja, oraz poszukiwać rozwiązań mających na celu złagodzenie skutków w zakresie zatrudnienia, charakteru pracy, systemów socjalnych i (nie)równości. Przy tym należy inwestować w te sektory rynku pracy, na które sztuczna inteligencja ma niewielki wpływ lub nie ma żadnego wpływu.
1.11.
EKES zaleca, by te zainteresowane podmioty wspólnie zaangażowały się na rzecz komplementarnych systemów sztucznej inteligencji i ich współtworzenia w miejscu pracy, np. zespołów człowiek-maszyna, w ramach których sztuczna inteligencja uzupełnia i ulepsza pracę człowieka. Zainteresowane podmioty muszą też inwestować w uczenie się, kształcenie i szkolenie formalne i nieformalne, aby każdy mógł pracować ze sztuczną inteligencją, a także rozwijać umiejętności, których sztuczna inteligencja nie przejmie lub nie będzie w stanie przejąć.
1.12.
Już teraz konieczna jest konkretna ocena ustawodawstwa i uregulowań UE w sześciu dziedzinach wskazanych przez STOA (Grupa Weryfikacji Rozwiązań Naukowych i Technologicznych), które mogą wymagać przeglądu lub dostosowania. EKES może i pragnie odgrywać pewną rolę w tym procesie oceny. EKES jest przeciwny wprowadzeniu formy osobowości prawnej dla robotów lub sztucznej inteligencji. Podkopano by w ten sposób zapobiegawcze, korygujące działanie prawa odpowiedzialności cywilnej; istniałaby też pokusa nadużycia, zarówno przy opracowywaniu sztucznej inteligencji, jak i korzystaniu z niej, a zarazem stworzono by możliwości nadużyć.
1.13.
Należy aktywnie promować i wspierać, zarówno ze środków publicznych, jak i prywatnych, rozwój zastosowań sztucznej inteligencji, które służą społeczeństwu, promują integrację społeczną i polepszają jakość życia ludzi. Komisja Europejska powinna w ramach swoich programów finansować badania nad skutkami społecznymi sztucznej inteligencji, jak również finansowanych przez UE innowacji w zakresie sztucznej inteligencji.
1.14.
EKES popiera apel Human Rights Watch i innych organizacji o wprowadzenie zakazu stosowania autonomicznych systemów broni. Z zadowoleniem przyjmuje zapowiadane konsultacje na ten temat na forum ONZ, aczkolwiek uważa, że ich przedmiotem powinny stać się także zastosowania sztucznej inteligencji w wojnach cybernetycznych.
2.
Sztuczna inteligencja
2.1.
Nie istnieje powszechnie przyjęta, precyzyjna definicja sztucznej inteligencji. Pojęcie to obejmuje cały szereg (pod) dziedzin, takich jak: "ucząca się" architektura systemów obliczeniowych (cognitive computing - algorytmy rozumujące i rozumiejące na wyższym, tzn. bardziej ludzkim, poziomie), uczenie maszynowe (algorytmy, które same uczą się wykonywać zadania), rozszerzona inteligencja (augmented intelligence - współpraca między człowiekiem i maszyną), robotyka oparta na sztucznej inteligencji (sztuczna inteligencja wbudowana w roboty). Głównym celem badań i rozwoju w zakresie sztucznej inteligencji jest jednak automatyzacja inteligentnych zachowań, takich jak rozumowanie, gromadzenie informacji, planowanie, uczenie się, komunikacja, manipulowanie, sygnalizowanie, a nawet tworzenie, marzenie i postrzeganie.
2.2.
Zasadniczo rozróżnia się dwa rodzaje sztucznej inteligencji: wąską sztuczną inteligencję (narrow AI) i ogólną sztuczną inteligencję (general AI). Wąska sztuczna inteligencja jest w stanie wykonywać konkretne zadania. Ogólna sztuczna inteligencja jest zdolna wykonać każde zadanie umysłowe, jakie może wykonać człowiek.
2.3.
W ostatnim czasie poczyniono znaczne postępy na polu wąskiej sztucznej inteligencji, w szczególności dzięki wzrostowi mocy obliczeniowej komputerów, dzięki dostępności wielkich zbiorów danych i rozwojowi uczenia maszynowego (machine learning). Uczenie maszynowe obejmuje algorytmy, które same mogą uczyć się wykonywania konkretnych zadań, a przy tym nie muszą zostać do tego celu zaprogramowane. Metoda ta polega na przetwarzaniu danych treningowych, na podstawie których algorytm uczy się rozpoznawać wzorce i określać zasady. Uczenie głębokie, rodzaj uczenia maszynowego, wykorzystuje struktury (neural networks - sieci neuronowe), których działanie jest zbliżone do działania ludzkiego mózgu i które uczą się dzięki ćwiczeniu i informacjom zwrotnym. Dzięki tej ewolucji systemy sztucznej inteligencji (za pośrednictwem algorytmów) mogą stać się autonomiczne i zdolne do samodzielnego uczenia się i dostosowywania się.
2.4.
Od pewnego czasu badania naukowe i rozwój w dziedzinie sztucznej inteligencji koncentrują się przede wszystkim na takich procesach, jak rozumowanie, gromadzenie wiedzy, planowanie, komunikacja i percepcja (wzrokowa, słuchowa i sensoryczna). Doprowadziło to do opracowania bardzo licznych zastosowań sztucznej inteligencji, jak np. wirtualni asystenci, samochody autonomiczne, automatyczna agregacja wiadomości, rozpoznawanie mowy, oprogramowanie tłumaczeniowe, oprogramowanie do syntezy mowy (text-to-speak), zautomatyzowane transakcje finansowe, przedproce-sowe przedstawienie dowodów elektronicznych w sądownictwie (e-discovery) itd.
2.5.
EKES zwraca uwagę, że w ostatnim czasie liczba zastosowań i inwestycji w dziedzinie sztucznej inteligencji rośnie w tempie wykładniczym. Wielkość rynku sztucznej inteligencji wynosi obecnie około 664 mln USD i oczekuje się jego wzrostu do 38,8 mld USD w 2025 r.
3.
Szanse i zagrożenia związane ze sztuczną inteligencją
3.1.
Niemal nikt nie wątpi, że sztuczna inteligencja może przynieść społeczeństwu znaczne korzyści. Wystarczy pomyśleć o zastosowaniach, które pozwolą osiągnąć zrównoważone rolnictwo, bezpieczniejszy ruch drogowy, bezpieczniejszy system finansowy, bardziej przyjazne środowisku procesy produkcyjne, postępy w medycynie, większe bezpieczeństwo w miejscu pracy, bardziej zindywidualizowane kształcenie, lepsze sądownictwo czy bezpieczniejsze społeczeństwo. Sztuczna inteligencja przyczyni się nawet może do wykorzenienia chorób i ubóstwa. Może także istotnie przyczynić się do rozwoju przemysłu i poprawy konkurencyjności UE.
3.2.
Podobnie jak każda technologia przełomowa, sztuczna inteligencja niesie jednak z sobą także zagrożenia i złożone wyzwania polityczne w kontekście takich zagadnień, jak bezpieczeństwo i możność zachowania kontroli, aspekty społecznoekonomiczne, etyka i prywatność, niezawodność itp.
3.3.
Znaleźliśmy się w kluczowym momencie, w którym trzeba określić warunki (konieczne) obecnego i przyszłego rozwoju i wdrażania sztucznej inteligencji. Te korzyści mogą być trwałe tylko pod warunkiem, że należycie stawi się czoła związanym ze sztuczną inteligencją wyzwaniom. W tym celu należy dokonać wyborów politycznych.
a)
Etyka
3.4.
Rozwój sztucznej inteligencji pociąga za sobą cały szereg kwestii etycznych. W jaki sposób autonomiczna (samoucząca się) sztuczna inteligencja wpływa na naszą osobistą integralność, autonomię, godność, niezależność, równość, bezpieczeństwo, wolność wyboru? Jak zadbać o to, by nasze podstawowe normy, wartości i prawa człowieka były nadal respektowane i gwarantowane?
3.5.
Należy dodać, że obecnie sztuczna inteligencja jest rozwijana w jednorodnym środowisku złożonym przeważnie z młodych, białych mężczyzn, przez co wpisuje się w nią (świadomie czy nie) różnice kulturowe i związane z płcią społecznokulturową, między innymi dlatego, że systemy sztucznej inteligencji uczą się na podstawie danych treningowych. Dane te muszą być prawidłowe, a także cechować się wysoką jakością i bezstronnością oraz być zróżnicowane i wystarczająco gruntowne. Powszechnie sądzi się, że dane są z definicji obiektywne, jest to jednak mylne wyobrażenie. Łatwo jest nimi manipulować, mogą być tendencyjne, odzwierciedlać uprzedzenia i preferencje kulturowe, płciowe i inne oraz zawierać błędy.
3.6.
Opracowywane dziś systemy sztucznej inteligencji nie mają w sobie wartości etycznych. To my, ludzie, musimy wprowadzić je do tych systemów i do środowiska, w którym są wykorzystywane. Rozwój, wdrażanie i stosowanie systemów sztucznej inteligencji (tak publicznych, jak komercyjnych) powinny mieć miejsce w granicach naszych podstawowych norm, wartości, swobód i praw człowieka. W związku z tym EKES wzywa do opracowania i ustanowienia jednolitego globalnego kodeksu etycznego w zakresie rozwoju, wdrażania i stosowania sztucznej inteligencji.
b)
Bezpieczeństwo
3.7.
Wykorzystywanie sztucznej inteligencji w świecie realnym pociąga za sobą bez wątpienia kwestie bezpieczeństwa. Można dokonać rozróżnienia między bezpieczeństwem wewnętrznym i zewnętrznym.
-
Bezpieczeństwo wewnętrzne: Czy dany system sztucznej inteligencji jest wystarczająco odporny, aby mógł (dalej) prawidłowo funkcjonować? Czy algorytm jest odpowiednio zaprogramowany? Czy się nie zawiesza? Czy jest odporny na ataki hakerów? Czy jest skuteczny? Czy jest niezawodny?
-
Bezpieczeństwo zewnętrzne: Czy system sztucznej inteligencji jest bezpieczny w użytkowaniu w społeczeństwie? Czy funkcjonuje bezpiecznie nie tylko w normalnych warunkach, lecz także w sytuacjach nieznanych, krytycznych czy nieprzewidywalnych? Jaki wpływ na bezpieczeństwo ma zdolność samouczenia się, także jeśli system dalej się uczy po jego wprowadzeniu do użytku?
3.8.
EKES uważa, że systemy sztucznej inteligencji mogą być wprowadzane do użytku tylko wtedy, gdy spełniają szczegółowe wymogi dotyczące bezpieczeństwa wewnętrznego i zewnętrznego. Te wymagania powinny zostać wspólnie określone przez decydentów politycznych, specjalistów od sztucznej inteligencji i bezpieczeństwa, przedsiębiorstwa i organizacje społeczeństwa obywatelskiego.
c)
Przejrzystość, zrozumiałość, kontrolowalność i możliwość wyjaśnienia funkcjonowania systemów sztucznej inteligencji
3.9.
Akceptacja oraz trwały rozwój i stosowanie sztucznej inteligencji zależą od możliwości rozumienia, kontrolowania i wyjaśnienia funkcjonowania, działań i decyzji systemów sztucznej inteligencji, również po fakcie.
3.10.
Działania i decyzje systemów sztucznej inteligencji (w oparciu o inteligentne algorytmy) w coraz większym stopniu wpływają na życie ludzi. Przykładem jest wykorzystanie sztucznej inteligencji w działaniach policji w oparciu o dane wywiadowcze, w ocenie wniosków o pożyczki hipoteczne lub w procesie udzielania zgody na objęcie ubezpieczeniem. Kluczowe znaczenie mają tutaj zrozumiałość, kontrolowalność i możliwość wyjaśnienia procesu decyzyjnego funkcjonowania systemu sztucznej inteligencji.
3.11.
Już teraz wiele systemów sztucznej inteligencji jest bardzo trudnych do zrozumienia dla użytkowników. Coraz częściej jednak w tej samej sytuacji znajdują się także twórcy systemów. W szczególności sieci neuronowe często stanowią swoiste czarne skrzynki, gdzie zachodzą procesy (decyzyjne), których nie da się już zrozumieć i dla których nie istnieją mechanizmy wyjaśniające.
3.12.
EKES opowiada się za przejrzystymi, zrozumiałymi i kontrolowalnymi systemami sztucznej inteligencji, których funkcjonowanie można także wyjaśnić po fakcie. Ponadto należy ustalić, jakie procesy decyzyjne można powierzyć sztucznej inteligencji, a jakie nie, oraz kiedy powinna być pożądana lub wymagana interwencja człowieka.
d)
Prywatność
3.13.
Ochrona prywatności w przypadku systemów sztucznej inteligencji dostarcza powodów do niepokoju. Wiele produktów (konsumpcyjnych) posiada już wbudowaną sztuczną inteligencję: urządzenia gospodarstwa domowego, zabawki, samochody, monitory zdrowia, smartfony. Wszystkie te produkty przekazują dane (często dane osobowe) do opartej na chmurze obliczeniowej platformy producenta. Biorąc zwłaszcza pod uwagę, że handel danymi dzisiaj kwitnie, co oznacza, że generowane dane nie pozostają u producenta, lecz są sprzedawane osobom trzecim, rodzi się problem, czy prywatność podlega dostatecznej ochronie.
3.14.
Sztuczna inteligencja może również dzięki analizie ogromnej ilości danych (często) osobowych wpływać na decyzje ludzi w wielu dziedzinach (od decyzji zakupowych po decyzje wyborcze i referenda). Szczególnie podatną grupą są dzieci. EKES jest szczególnie zaniepokojony zastosowaniami sztucznej inteligencji, które wyraźnie nakierowane są na wpływanie na zachowanie i pragnienia dzieci.
3.15.
Należy zapobiec sytuacji, w której zastosowanie sztucznej inteligencji w odniesieniu do danych osobowych ograniczyłoby rzeczywistą lub postrzeganą swobodę jednostek. Ogólne rozporządzenie UE o ochronie danych przewiduje znaczący poziom ochrony prywatności danych osobowych dostarczanych drogą elektroniczną. Należy jednak uważnie monitorować, czy wobec rozwoju sztucznej inteligencji dostatecznie zagwarantowane jest w praktyce prawo zainteresowanych osób do świadomej zgody i swobody wyboru w przypadku przekazywania danych, a także prawo dostępu do przekazanych danych, ich modyfikacji i weryfikacji.
e)
Normy, standardy i infrastruktura
3.16.
W oparciu o szeroki wachlarz standardów należy opracować nowe procedury standaryzacji w celu weryfikacji i walidacji systemów sztucznej inteligencji, aby można było oceniać i kontrolować bezpieczeństwo, przejrzystość i zrozumiałość systemów sztucznej inteligencji, możliwość wyjaśnienia ich funkcjonowania oraz ich odpowiedzialność etyczną.
3.17.
EKES opowiada się za tym, by UE opracowała własną infrastrukturę sztucznej inteligencji, składającą się z opartych na otwartym oprogramowaniu i zapewniających poszanowanie prywatności środowisk uczenia się i zbiorów wysokiej jakości danych do tworzenia i treningu systemów sztucznej inteligencji. Dzięki promowaniu europejskich odpowiedzialnych systemów sztucznej inteligencji UE mogłaby również uzyskać przewagę (konkurencyjną) na rynku globalnym. Komitet zaleca, by zbadać przy okazji możliwość utworzenia europejskiego systemu certyfikacji i znakowania sztucznej inteligencji.
f)
Wpływ na pracę, zatrudnienie, warunki pracy i systemy zabezpieczenia społecznego
3.18.
Opinie są podzielone w kwestii tego, jak szybko i w jakim zakresie wpływ ten się zaznaczy, jednak jest rzeczą oczywistą, że sztuczna inteligencja wpłynie na wielkość zatrudnienia oraz na rodzaj i charakter wielu miejsc pracy, a tym samym również na systemy zabezpieczenia społecznego.
3.19.
Erik Brynjolfsson i Andrew McAfee z MIT nazywają współczesne przemiany technologiczne (obejmujące też sztuczną inteligencję) drugim wiekiem maszyny. Są jednak dwie istotne różnice: (i) "dawne" maszyny zastępowały przede wszystkim siłę mięśni, tymczasem nowe zastępują potencjał umysłowy i umiejętności poznawcze, zatem dotknięte zostaną nie tylko osoby nisko wykwalifikowane ("niebieskie kołnierzyki"), średnio i wysoko wykwalifikowane ("białe kołnierzyki"); (ii)sztuczna inteligencja to technologia o ogólnym przeznaczeniu, która oddziałuje na prawie wszystkie sektory równocześnie.
3.20.
Sztuczna inteligencja może przynosić znaczne korzyści, kiedy będzie wykorzystywana do wykonywania niebezpiecznej, ciężkiej, wyczerpującej, brudnej, nieprzyjemnej, powtarzalnej lub nudnej pracy. Ale systemy sztucznej inteligencji mogą też w coraz większym stopniu wykonywać pracę, która może podlec rutynizacji, pracę polegającą na przetwarzaniu i analizie danych lub pracę, w której dużą rolę odgrywa planowanie lub przewidywanie - tzn. prace, które często wykonywane są przez ludzi wysoko wykwalifikowanych.
3.21.
Większość miejsc pracy obejmuje jednak działania różnego typu. Prawdopodobieństwo, że sztuczna inteligencja lub roboty mogłyby przejąć wszystkie zadania jakiejś osoby, wydaje się niewielkie. Wszelako praktycznie każdy zostanie skonfrontowany z automatyzacją niektórych części swojej funkcji. Czas, jaki się w ten sposób zyska, można przeznaczyć na inne zadania, pod warunkiem że władze publiczne i partnerzy społeczni podejmą niezbędne wysiłki w tym kierunku. Należy przy tym mieć na uwadze wpływ, jaki te zmiany mogą wywrzeć na menedżerów i specjalistów, i zwiększać ich zaangażowanie, tak by nie padali ofiarą zmian, lecz w dalszym ciągu nad nimi panowali.
3.22.
Ponadto pojawią się też nowe miejsca pracy. Nikt nie jest jednak w stanie przewidzieć, jakie to będą stanowiska, ile ich będzie ani jak szybko to nastąpi. Spółkom takim jak Google i Facebook udaje się tworzyć gigantyczną wartość z pomocą stosunkowo małej liczby pracowników. Poza tym nowe miejsca pracy nie zawsze cechują się wysoką jakością. Można się obawiać, że wraz z dalszym rozwojem sztucznej inteligencji wkrótce pozostaną już tylko nisko płatne minizadania dla coraz liczniejszej grupy elastycznych pracowników (flex workers).
3.23.
Sztuczna inteligencja będzie miała wpływ nie tylko na ilość dostępnej pracy, lecz także na rodzaj istniejącej pracy. Systemy sztucznej inteligencji oferują coraz więcej możliwości w zakresie śledzenia i monitorowania pracowników, co stawia pod znakiem zapytania autonomię i prywatność. Praca już teraz często jest określana i rozdzielana za pomocą algorytmów, bez interwencji człowieka, co wpływa na charakter i warunki pracy. Przy korzystaniu ze sztucznej inteligencji istnieje także ryzyko zubożenia wykonywanych czynności i utraty kluczowych umiejętności.
3.24.
Faktem pozostaje jednak, że technika nie przejmuje nad nami kontroli. Rządy i partnerzy społeczni mają możliwość określania sposobu, w jaki sztuczna inteligencja będzie dalej rozwijana i stosowana w procesie pracy, powinni więc w pełni wykorzystywać tę możliwość. Zarazem trzeba skupiać się nie tylko na tym, co może sztuczna inteligencja, lecz także właśnie na tym, co potrafią ludzie (kreatywność, empatia, współpraca) i jakie zadania sami chcemy dalej wykonywać, oraz należy poszukiwać możliwości ulepszania współpracy między człowiekiem i maszyną (komplementarność).
3.25.
Inteligencja rozszerzona (augmented intelligence - komplementarność), w ramach której człowiek i maszyna współpracują ze sobą i wzajemnie się wzmacniają, jest najciekawszym zastosowaniem sztucznej inteligencji, ponieważ chodzi tutaj o człowieka wraz z maszyną, w przeciwieństwie do człowieka zamiast maszyny. Bardzo ważne jest jednak współtworzenie: w rozwój takich komplementarnych systemów sztucznej inteligencji należy włączyć pracowników, aby były one użyteczne i aby pracownik zachował wystarczającą autonomię i kontrolę (human-in-command) oraz odczuwał dostateczne spełnienie i przyjemność w pracy.
g)
Kształcenie i umiejętności
3.26.
Aby umożliwić ludziom dostosowywanie się do szybkich przemian zachodzących na polu sztucznej inteligencji, niezbędne jest utrzymanie lub zdobycie umiejętności cyfrowych. Komisja Europejska zdecydowanie zaangażowała się na rzecz rozwoju kompetencji cyfrowych, inicjując Koalicję na rzecz umiejętności cyfrowych i zatrudnienia. Jednak nie każdy będzie w stanie programować bądź zostać programistą lub też nie każdego będzie to interesowało. Dlatego powinna istnieć możliwość ukierunkowania polityki i środków finansowych także na kształcenie i rozwój umiejętności w dziedzinach, które nie będą zagrożone przez systemy sztucznej inteligencji (np. zadania, w przypadku których kluczowe znaczenie ma ludzka interakcja bądź człowiek i maszyna współpracują ze sobą lub w przypadku których chcielibyśmy, aby nadal wykonywał je człowiek).
3.27.
W przypadku gdy stawia się na komplementarność człowieka i sztucznej inteligencji (rozszerzona inteligencja), należy zapewnić każdemu, i to od najmłodszych lat, kształcenie w zakresie obchodzenia się i współpracy ze sztuczną inteligencją, tak aby człowiek mógł zachować w swojej pracy autonomię i kontrolę (human-in-command). Szczególnie ważna jest przy tym edukacja w dziedzinie etyki i prywatności, dlatego że sztuczna inteligencja ma znaczny wpływ w tych obszarach.
h)
Dostępność, (nie)równość społeczna, włączenie społeczne, dystrybucja
3.28.
Lwia część procesów rozwoju sztucznej inteligencji i wszystkie powiązane z tym elementy (platformy rozwoju, dane, wiedza, know how) znajdują się w rękach pięciu wielkich firm technologicznych (Amazon, Apple, Facebook, Google, Microsoft). Choć spółki te opowiadają się za otwartym rozwojem sztucznej inteligencji, a niektóre z nich udostępniają swoje platformy rozwoju sztucznej inteligencji jako otwarte oprogramowanie, nie gwarantuje to pełnej dostępności systemów sztucznej inteligencji. UE, decydenci międzynarodowi i organizacje społeczeństwa obywatelskiego mają tutaj do odegrania ważną rolę polegającą na dopilnowaniu, by systemy sztucznej inteligencji były dostępne dla wszystkich i by ich rozwój odbywał się w otwartym środowisku.
3.29.
Uprzywilejowujące kapitał przemiany technologiczne, w ramach których innowacje oferują korzyści przede wszystkim właścicielom innowacji, pogarszają pozycję siły roboczej względem kapitału. Zmiana technologiczna może również prowadzić do nierówności (w zakresie dochodów) między ludźmi (zarówno na poziomie lokalnym, jak i regionalnym i ogólnoświatowym). Sztuczna inteligencja może jeszcze te trendy wzmocnić.
3.30.
Ważne jest, by uważnie śledzić te trendy i odpowiednio na nie reagować. Postuluje się już opodatkowanie sztucznej inteligencji, dywidendę od sztucznej inteligencji lub podział własności systemów sztucznej inteligencji między pracowników i pracodawców. Coraz częściej mówi się też o potrzebie bezwarunkowego dochodu podstawowego.
3.31.
EKES we wcześniejszej opinii 1  wspominał już o możliwości wprowadzenia dywidendy cyfrowej i jej równego podziału w celu osiągnięcia pozytywnych skutków dla wzrostu gospodarczego. EKES przywiązuje dużą wagę do badań naukowych nad wszystkimi tymi rozwiązaniami, w których trzeba znaleźć równowagę miedzy rozwojem sztucznej inteligencji służącym człowiekowi a ewentualnymi utrudnieniami będącymi skutkiem tych rozwiązań. Trzeba też wyeliminować pokusę nadużycia polegającą na tym, że odpowiedzialność za systemy sztucznej inteligencji byłaby przesuwana na podmiot, którego nie można by skutecznie pociągnąć do odpowiedzialności.
i)
Ramy prawne i regulacyjne
3.32.
Sztuczna inteligencja ma poważne implikacje dla istniejących ram prawnych i regulacyjnych. Grupa Weryfikacji Rozwiązań Naukowych i Technologicznych (STOA) Parlamentu Europejskiego opublikowała w czerwcu 2016 r. zestawienie aktów ustawodawczych i regulacji, na które wywrą wpływ przemiany zachodzące w sferze robotyki, systemów cyberfizycznych i sztucznej inteligencji. STOA wskazuje sześć obszarów - transport, systemy podwójnego zastosowania, swobody obywatelskie, bezpieczeństwo, zdrowie, energia - w odniesieniu do których być może trzeba będzie zmienić lub dostosować łącznie aż 39 unijnych rozporządzeń, dyrektyw, deklaracji i komunikatów, obok Karty praw podstawowych Unii Europejskiej. Należy szybko i zdecydowanie zająć się tym przeglądem, a EKES może i pragnie odgrywać istotną rolę w tym procesie.
3.33.
Wiele dyskutuje się o tym, kogo można pociągnąć do odpowiedzialności w sytuacji, gdy system sztucznej inteligencji spowoduje szkodę; zwłaszcza w wypadku, gdy chodzi o system samouczący się, który po wprowadzeniu do użytku dalej się uczy. Parlament Europejski przedstawił zalecenia dotyczące przepisów prawa cywilnego w zakresie robotyki, proponując m.in. zbadanie możliwości wprowadzenia tzw. e-osobowość dla robotów, w związku z czym mogłyby one ponosić odpowiedzialność cywilną za szkody przez siebie spowodowane. EKES sprzeciwia się wszelkim formom osobowości prawnej dla robotów i (systemów) sztucznej inteligencji, jako że niesie to ze sobą niedopuszczalną pokusę nadużycia. Prawo odpowiedzialności cywilnej ma korygujące, zapobiegawcze działanie, które jednak może zniknąć z chwilą, gdy producent przestanie ponosić ryzyko odpowiedzialności cywilnej, ponieważ to zostanie przeniesione na robota (czy na system sztucznej inteligencji). Istnieje ponadto ryzyko niewłaściwego stosowania i nadużywania takiej formy prawnej. Porównanie z ograniczoną odpowiedzialnością spółek jest nieuzasadnione, ponieważ w tym wypadku odpowiedzialna jest ostatecznie zawsze osoba fizyczna. Należy w związku z tym przeanalizować, w jakim stopniu obowiązujące krajowe i unijne prawodawstwo, regulacje i orzecznictwo w dziedzinie odpowiedzialności (za produkt i na zasadzie ryzyka) i własnej winy adekwatnie odpowiadają na to pytanie, a jeśli konkluzje będą negatywne, to jakie rozwiązania prawne byłyby tutaj pożądane.
3.34.
Aby można było przyjąć właściwe podejście do prawodawstwa i regulacji w zakresie sztucznej inteligencji, trzeba ponadto uzyskać jasne wyobrażenie tego, co sztuczna inteligencja potrafi już dziś robić, czego nie potrafi oraz do czego prawdopodobnie będzie zdolna w krótkim, średnim i długim okresie.
3.35.
Sztuczna inteligencja wykracza poza granice. Ważne jest zatem, aby zbadać konieczność wprowadzania ogólnoświatowych regulacji, jako że przepisy regionalne nie wystarczą, a nawet prowadziłyby do niepożądanych skutków. Zważywszy na sprawdzony unijny system norm dotyczących bezpieczeństwa i produktów, protekcjonistyczne zakusy na innych kontynentach, wysoki poziom wiedzy w Europie, system europejskich praw podstawowych i wartości społecznych oraz dialog społeczny, EKES zaleca, by UE przejęła wiodącą rolę w ustanawianiu światowych, jednolitych ram politycznych w dziedzinie sztucznej inteligencji oraz by przyspieszała ten proces.
j)
Sposób sprawowania rządów i demokracja
3.36.
Zastosowania sztucznej inteligencji mogą przyczynić się do większego zaangażowania obywateli w politykę władz publicznych i do większej przejrzystości procesu podejmowania decyzji. EKES wzywa UE i rządy krajowe do wykorzystywania sztucznej inteligencji w tym celu.
3.37.
EKES wyraża zaniepokojenie z powodu ukierunkowanego korzystania z systemów sztucznej inteligencji (w postaci inteligentnych algorytmów) do agregacji wiadomości, np. w mediach społecznościowych, co, jak się wydaje, doprowadziło do ograniczenia przepływu informacji i pogłębienia podziału społeczeństwa (przykładem bańki filtrujące - filter bubbles - i fałszywe wiadomości na Twitterze i Facebooku w czasie wyborów prezydenckich w Stanach Zjednoczonych).
3.38.
EKES jest również zaniepokojony sygnałami, że systemy sztucznej inteligencji mogły zostać wykorzystane do wywierania wpływu na zachowania (wyborcze) ludzi. Za pomocą inteligentnych algorytmów można przewidywać preferencje i zachowania ludzi i na nie w ukierunkowany sposób wpływać. Stanowi to zagrożenie dla sprawiedliwej i otwartej demokracji. W dzisiejszych czasach polaryzacji oraz demontażu instytucji międzynarodowych precyzja i moc tego rodzaju technologii na usługach propagandy może w szybkim tempie pogłębić dezorganizację społeczeństwa. Jest to jeden z powodów, dlaczego konieczne są normy przejrzystości i kontrolowalności (inteligentnych) algorytmów.
k)
Prowadzenie wojen
3.39.
Strony konwencji Narodów Zjednoczonych o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych postanowiły zwrócić się do ekspertów, by w 2017 r. omówili między sobą konsekwencje związane z istnieniem broni autonomicznej. EKES przyjmuje ten fakt z zadowoleniem i popiera apel Human Rights Watch i innych organizacji o wprowadzenie zakazu stosowania systemów broni autonomicznej. EKES jest zdania, że należy poważnie przeanalizować i rozważyć taki zakaz. Jednak nie wystarczy odpowiednio zająć się problemem, jaki przedstawia możliwość stosowania sztucznej inteligencji w sytuacjach wojen lub konfliktów. Przedmiotem tych konsultacji na forum ONZ powinny być także zastosowania sztucznej inteligencji w wojnach cybernetycznych.
3.40.
Ponadto nie wolno dopuścić, by sztuczna inteligencja dostała się w ręce osób lub reżimów, których celem jest użycie jej do działań terrorystycznych.
l)
Superinteligencja
3.41.
Pojawia się wreszcie pytanie, jakie możliwości i zagrożenia wiążą się z rozwojem superinteligencji. Zdaniem Stephena Hawkinga, stworzenie ogólnej sztucznej inteligencji będzie oznaczało koniec ludzkości. Od tego momentu sztuczna inteligencja będzie się rozwijać w tempie, za którym ludzie nie będą już w stanie nadążyć. Dlatego też niektórzy eksperci opowiadają się za tym, by przewidzieć wyłącznik awaryjny (kill switch) lub przycisk ponownego uruchomienia (reset button), za pomocą których moglibyśmy zdezaktywować lub ponownie uruchomić pozbawiony kontroli lub superinteligentny system sztucznej inteligencji.
3.42.
EKES zaleca przyjęcie podejścia opartego na ludzkiej kontroli (human-in-command), obejmującego zwłaszcza odpowiedzialne i bezpieczne rozwijanie i wdrażanie sztucznej inteligencji oraz zakładającego, że maszyny pozostają maszynami, a człowiek jest cały czas w stanie zachować nad nimi kontrolę. Dyskusja na temat superinteligencji jest w tym kontekście ważna, jednak obecnie przyćmiewa debatę nad skutkami dzisiejszych zastosowań sztucznej inteligencji.
4.
Sztuczna inteligencja w służbie ludzkości
4.1.
Duże podmioty gospodarcze podjęły już różne inicjatywy na rzecz otwartego, bezpiecznego i społecznie odpowiedzialnego rozwoju sztucznej inteligencji (takie jak OpenAI). Jednakże decydenci polityczni nie mogą pozostawiać tego zadania przedsiębiorstwom i mają w tym zakresie swoją rolę do odegrania. Konieczne są celowe środki działania i wsparcie na rzecz badań naukowych nad wyzwaniami społecznymi związanymi ze sztuczną inteligencją oraz na rzecz rozwoju bezpiecznych i odpornych systemów sztucznej inteligencji.
4.2.
Do stawienia czoła temu wyzwaniu doskonale nadają się programy UE, m.in. "Horyzont 2020". EKES doszedł do wniosku, że finansowanie w ramach zwłaszcza filaru "Wyzwania społeczne" programu "Horyzont 2020" pozostaje na niższym poziomie niż finansowanie z pozostałych dwóch filarów "Doskonała baza naukowa" i "Wiodąca pozycja w przemyśle" i jest stopniowo zmniejszane. EKES apeluje, aby w ramach filaru "Wyzwania społeczne" przyznano istotne miejsce badaniom naukowym nad poważnymi wyzwaniami społecznymi związanymi ze sztuczną inteligencją i nad jej społecznymi zastosowaniami.
4.3.
Ponadto trzeba zająć się potencjalnymi horyzontalnymi skutkami sztucznej inteligencji. Równolegle z finansowaniem prac nad przełomowymi innowacjami w dziedzinie sztucznej inteligencji należy finansować łagodzenie społecznych skutków tych innowacji i badania nad nimi.
4.4.
Badania i rozwój w dziedzinie sztucznej inteligencji służącej człowiekowi wymagają też całego wachlarza publicznie dostępnych, wysokiej jakości danych treningowych i testowych oraz środowisk testowych w rzeczywistych warunkach. Jak dotąd infrastruktura sztucznej inteligencji i liczne konkretne dane są dostępne tylko w obrębie ograniczonej liczby prywatnych podmiotów i dla nich i istnieją przeszkody uniemożliwiające testowanie sztucznej inteligencji w sferze publicznej, co utrudnia stosowanie sztucznej inteligencji w innych dziedzinach. Opracowywanie wysokiej jakości, publicznie dostępnych danych i europejska infrastruktura sztucznej inteligencji mają zasadnicze znaczenie dla stworzenia bezpiecznej, odpornej i pożytecznej sztucznej inteligencji.
5.
Monitorowanie i reagowanie
5.1.
Nie da się jeszcze w pełni ocenić ogólnego wpływu społecznego sztucznej inteligencji. Niewątpliwie jednak będzie znaczny. Obecnie przemiany na polu sztucznej inteligencji następują szybko po sobie, co wymaga krytycznego monitorowania z szerokiej perspektywy, tak aby można było odpowiednio i w porę reagować na ważne i przełomowe zmiany (game-changers), zarówno technologiczne, jak i społeczne, w dziedzinie sztucznej inteligencji i w sferach z nią powiązanych.
5.2.
Do technologicznych czynników przełomowych można zaliczyć uderzające lub znaczące skoki w rozwoju umiejętności sztucznej inteligencji, które mogą zwiastować bliskie urzeczywistnienie ogólnej sztucznej inteligencji. Wśród społecznych czynników przełomowych można wymienić np. znaczną redukcję miejsc pracy bez perspektyw na nowe miejsca pracy, które by je zastąpiły, niebezpieczne sytuacje, awarie systemu, niespodziewane okoliczności na scenie międzynarodowej itp.
5.3.
Decydenci polityczni, przedstawiciele przemysłu, partnerzy społeczni, konsumenci, organizacje pozarządowe, placówki oświatowe i zakłady opieki zdrowotnej oraz nauczyciele akademiccy i specjaliści z różnych dziedzin - w tym takich, jak (stosowana) sztuczna inteligencja, etyka, bezpieczeństwo, ekonomia, nauki o pracy, nauki prawne, nauki behawioralne, psychologia, filozofia itd. - powinni wspólnymi siłami uważnie śledzić przemiany związane ze sztuczną inteligencją i sukcesywnie identyfikować te czynniki przełomowe, aby mogli w stosownym momencie przedsięwziąć właściwe środki działania, w formie strategii politycznych, ustawodawstwa, uregulowań, samoregulacji i dialogu społecznego.
5.4.
EKES, jako przedstawiciel zorganizowanego społeczeństwa obywatelskiego UE, będzie w najbliższym czasie nadawać kształt tej debacie na temat sztucznej inteligencji z udziałem wielu zainteresowanych stron, centralizować ją i stymulować.

Bruksela, dnia 31 maja 2017 r.

Georges DASSIS
Przewodniczący
Europejskiego Komitetu Ekonomiczno-Społecznego

Zmiany w prawie

Rząd chce zmieniać obowiązujące regulacje dotyczące czynników rakotwórczych i mutagenów

Rząd przyjął we wtorek projekt zmian w Kodeksie pracy, którego celem jest nowelizacja art. 222, by dostosować polskie prawo do przepisów unijnych. Chodzi o dodanie czynników reprotoksycznych do obecnie obwiązujących regulacji dotyczących czynników rakotwórczych i mutagenów. Nowela upoważnienia ustawowego pozwoli na zmianę wydanego na jej podstawie rozporządzenia Ministra Zdrowia w sprawie substancji chemicznych, ich mieszanin, czynników lub procesów technologicznych o działaniu rakotwórczym lub mutagennym w środowisku pracy.

Grażyna J. Leśniak 16.04.2024
Bez kary za brak lekarza w karetce do końca tego roku

W ponad połowie specjalistycznych Zespołów Ratownictwa Medycznego brakuje lekarzy. Ministerstwo Zdrowia wydłuża więc po raz kolejny czas, kiedy Narodowy Fundusz Zdrowia nie będzie pobierał kar umownych w przypadku niezapewnienia lekarza w zespołach ratownictwa. Pierwotnie termin wyznaczony był na koniec czerwca tego roku.

Beata Dązbłaż 10.04.2024
Będzie zmiana ustawy o rzemiośle zgodna z oczekiwaniami środowiska

Rozszerzenie katalogu prawnie dopuszczalnej formy prowadzenia działalności gospodarczej w zakresie rzemiosła, zmiana definicji rzemiosła, dopuszczenie wykorzystywania przez przedsiębiorców, niezależnie od formy prowadzenia przez nich działalności, wszystkich kwalifikacji zawodowych w rzemiośle, wymienionych w ustawie - to tylko niektóre zmiany w ustawie o rzemiośle, jakie zamierza wprowadzić Ministerstwo Rozwoju i Technologii.

Grażyna J. Leśniak 08.04.2024
Tabletki "dzień po" bez recepty nie będzie. Jest weto prezydenta

Dostępność bez recepty jednego z hormonalnych środków antykoncepcyjnych (octan uliprystalu) - takie rozwiązanie zakładała zawetowana w piątek przez prezydenta Andrzeja Dudę nowelizacja prawa farmaceutycznego. Wiek, od którego tzw. tabletka "dzień po" byłaby dostępna bez recepty miał być określony w rozporządzeniu. Ministerstwo Zdrowia stało na stanowisku, że powinno to być 15 lat. Wątpliwości w tej kwestii miała Kancelaria Prezydenta.

Katarzyna Nocuń 29.03.2024
Małżonkowie zapłacą za 2023 rok niższy ryczałt od najmu

Najem prywatny za 2023 rok rozlicza się według nowych zasad. Jedyną formą opodatkowania jest ryczałt od przychodów ewidencjonowanych, według stawek 8,5 i 12,5 proc. Z kolei małżonkowie wynajmujący wspólną nieruchomość zapłacą stawkę 12,5 proc. dopiero po przekroczeniu progu 200 tys. zł, zamiast 100 tys. zł. Taka zmiana weszła w życie w połowie 2023 r., ale ma zastosowanie do przychodów uzyskanych za cały 2023 r.

Monika Pogroszewska 27.03.2024
Ratownik medyczny wykona USG i zrobi test na COVID

Mimo krytycznych uwag Naczelnej Rady Lekarskiej, Ministerstwo Zdrowia zmieniło rozporządzenie regulujące uprawnienia ratowników medycznych. Już wkrótce, po ukończeniu odpowiedniego kursu będą mogli wykonywać USG, przywrócono im też możliwość wykonywania testów na obecność wirusów, którą mieli w pandemii, a do listy leków, które mogą zaordynować, dodano trzy nowe preparaty. Większość zmian wejdzie w życie pod koniec marca.

Agnieszka Matłacz 12.03.2024
Metryka aktu
Identyfikator:

Dz.U.UE.C.2017.288.1

Rodzaj: Opinia
Tytuł: Opinia Europejskiego Komitetu Ekonomiczno-Społecznego Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo (Opinia z inicjatywy własnej).
Data aktu: 31/05/2017
Data ogłoszenia: 31/08/2017