Decyzja 2022/2269 wspierająca realizację projektu "Promowanie odpowiedzialnych innowacji w dziedzinie sztucznej inteligencji na rzecz pokoju i bezpieczeństwa"
DECYZJA RADY (WPZiB) 2022/2269z dnia 18 listopada 2022 r.wspierająca realizację projektu "Promowanie odpowiedzialnych innowacji w dziedzinie sztucznej inteligencji na rzecz pokoju i bezpieczeństwa"
uwzględniając Traktat o Unii Europejskiej, w szczególności jego art. 28 ust. 1 i art. 31 ust. 1,
uwzględniając wniosek Wysokiego Przedstawiciela Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa,
(1) "W globalnej strategii na rzecz polityki zagranicznej i bezpieczeństwa Unii Europejskiej" z 2016 r. podkreślono, że Unia zwiększy swój wkład w bezpieczeństwo zbiorowe.
(2) W strategii Unii z 2018 r. na rzecz zwalczania nielegalnej broni palnej, broni strzeleckiej i lekkiej (BSiL) oraz amunicji do tych rodzajów broni, zatytułowanej "Zabezpieczenie broni, ochrona obywateli", stwierdzono, że Unia wykorzysta odpowiednie instrumenty, aby wesprzeć badania i rozwój w dziedzinie rzetelnej i niedrogiej technologii w celu zabezpieczenia BSiL i amunicji do tych rodzajów broni oraz ograniczenia ryzyka ich przenikania. Ponadto Rada, w konkluzjach opracowanych przy przyjęciu tej strategii, odnotowała zmianę warunków bezpieczeństwa, w tym zagrożenie terroryzmem wewnątrz Unii, a także rozwój sytuacji w zakresie projektowania BSiL i odnośnych technologii mający wpływ na zdolność rządów do stawienia czoła takiemu zagrożeniu.
(3) W komunikacie Komisji z 2018 r. zatytułowanym "Sztuczna inteligencja dla Europy" stwierdza się, że zasadą przewodnią wszelkiego wsparcia dla badań związanych ze sztuczną inteligencją będzie rozwój "odpowiedzialnej sztucznej inteligencji". Ponadto w strategii tej stwierdza się, że ponieważ sztuczna inteligencja jest łatwa do przenoszenia przez granice, tylko globalne rozwiązania będą wykonalne w tej dziedzinie, oraz że Unia będzie propagować stosowanie sztucznej inteligencji i technologii ogółem do rozwiązywania globalnych problemów, do wspierania realizacji porozumienia klimatycznego z Paryża i do urzeczywistnienia celów ONZ w zakresie zrównoważonego rozwoju.
(4) Na światowym szczycie poświęconym sztucznej inteligencji dla dobra ogólnego (AI for Good), zorganizowanym w 2019 r., sekretarz generalny ONZ stwierdził, że jeżeli mamy odnosić korzyści ze sztucznej inteligencji i stawić czoła zagrożeniom z jej strony, musimy wszyscy - rządy, przemysł, środowiska akademickie i społeczeństwo obywatelskie - współpracować, by stworzyć ramy i systemy umożliwiające stosowanie odpowiedzialnych innowacji.
(5) Unia pragnie mieć udział w rozwijaniu "odpowiedzialnej sztucznej inteligencji", w bezpieczeństwie zbiorowym oraz w potencjalnych korzyściach z oferowanych przez sztuczną inteligencję możliwości w zakresie realizacji celów zrównoważonego rozwoju ONZ i rozwiązania problemów, jakie sztuczna inteligencja stwarza dla pokoju i bezpieczeństwa.
(6) Unia powinna wspierać realizację projektu "Promowanie odpowiedzialnych innowacji w dziedzinie sztucznej inteligencji na rzecz pokoju i bezpieczeństwa",
PRZYJMUJE NINIEJSZĄ DECYZJĘ:
Niniejsza decyzja wchodzi w życie z dniem przyjęcia.
Niniejsza decyzja wygasa 39 miesięcy po zawarciu umowy o przyznanie wkładu, o której mowa w art. 3 ust. 3. Niniejsza decyzja wygasa jednak sześć miesięcy po dniu jej wejścia w życie, jeśli nie zostanie zawarta w tym okresie żadna taka umowa.
Sporządzono w Brukseli dnia 18 listopada 2022 r.
ZAŁĄCZNIKDOKUMENT PROJEKTOWY
DOKUMENT PROJEKTOWY
Ostatnie postępy w dziedzinie sztucznej inteligencji otworzyły nowe możliwości w zakresie wspierania i podtrzymywania pokoju i bezpieczeństwa - na przykład poprzez udoskonalenie technologii w dziedzinach takich jak wczesne ostrzeganie o konfliktach oraz weryfikacja kontroli zbrojeń i kontroli wywozu. Z drugiej strony, postępy te umożliwiły nowe sposoby tworzenia, lub zaostrzania, napięć, konfliktów i braku bezpieczeństwa pomiędzy państwami i wewnątrz nich. Zagrożenia, jakie stanowią niektóre sposoby stosowania sztucznej inteligencji - takie jak systemy śmiercionośnej broni autonomicznej - okazały się poważną kwestią budzącą niepokój społeczności zajmującej się kontrolą zbrojeń. Jednym z aspektów tego zagrożenia - który zasługuje na większą uwagę, a który bieżące starania z zakresu kontroli zbrojeń i wysiłki dyplomatyczne mogą niedostatecznie uwzględniać - jest przekierowywanie i niewłaściwe stosowanie cywilnych badań i innowacji dotyczących sztucznej inteligencji przez nieodpowiedzialne podmioty, w tym podmioty niepaństwowe działające w złym zamiarze; obejmuje to niewłaściwe stosowanie generatywnych sieci przeciwstawnych do wytwarzania materiałów typu "deepfake" przeznaczonych do kampanii dezinformacyjnych.
Sztuczna inteligencja jest technologią prorozwojową o wielkim potencjale stosowania ogólnego. Badania i innowacje dotyczące sztucznej inteligencji opracowywane do zastosowań cywilnych mogą być (stosunkowo łatwo) pozyskiwane i wykorzystywane przez niektóre podmioty do szkodliwych lub wywrotowych celów, które mogą mieć skutki dla międzynarodowego pokoju i bezpieczeństwa. Przekierowywanie i niewłaściwe stosowanie technologii cywilnych nie są zjawiskiem nowym ani nie dotyczą wyłącznie sztucznej inteligencji. W pokrewnej dziedzinie robotyki zostało to niedawno uwidocznione przez uzbrojenie i zastosowanie rekreacyjnych dronów przez Daisz/ISIS w Syrii. Jednak w przypadku sztucznej inteligencji problem ten komplikuje wiele czynników: niematerialny i szybko zmieniający się charakter jej algorytmów i danych, co utrudnia kontrolę ich przenoszenia/rozprzestrzeniania; wiodąca rola sektora prywatnego w badaniach, rozwoju i ekosystemie innowacji, oraz wynikająca z tego potrzeba ochrony algorytmów własnościowych; oraz ogólnoświatowa dostępność wiedzy fachowej ludzi oraz zasobów materialnych zdolnych do zmiany celów technologii sztucznej inteligencji. Tymczasem osoby pracujące przy sztucznej inteligencji w sektorze cywilnym zbyt często pozostają nieświadome potencjalnych skutków, jakie dla międzynarodowego pokoju i bezpieczeństwa może mieć przekierowywanie i niewłaściwe stosowanie wyników ich pracy, względnie nie są one chętne do wzięcia udziału w bieżących dyskusjach na temat zagrożeń związanych ze sztuczną inteligencją, prowadzonych w środowiskach kontroli zbrojeń i nieproliferacji.
Istnieje potrzeba wspierania większego udziału cywilnej społeczności zajmującej się sztuczną inteligencją w pojmowaniu i łagodzeniu zagrożeń dla pokoju i bezpieczeństwa związanych z przekierowywaniem i niewłaściwym stosowaniem cywilnej technologii sztucznej inteligencji przez nieodpowiedzialne podmioty. W odniesieniu do Sztokholmskiego Międzynarodowego Instytutu Badań nad Pokojem (SIPRI) i Biura ONZ ds. Rozbrojenia (UNODA) może to zostać osiągnięte poprzez szersze propagowanie odpowiedzialnych innowacji w globalnej cywilnej społeczności zajmującej się sztuczną inteligencją. Poprzednie prace SIPRI i UNODA wykazały, że odpowiedzialne innowacje jako mechanizm samokontroli mogłyby zapewnić globalnej cywilnej społeczności zajmującej się sztuczną inteligencją praktyczne narzędzia i metody służące rozpoznaniu oraz pomocy w łagodzeniu zagrożeń, jakie przekierowywanie i niewłaściwe stosowanie cywilnych badań i innowacji dotyczących sztucznej inteligencji mogłoby stanowić dla pokoju i bezpieczeństwa, a także zapobieganiu tym zagrożeniom. W trakcie prac prowadzonych przez SIPRI i UNODA określono także metodologie i kilka bieżących ukierunkowanych na sferę cywilną inicjatyw dotyczących odpowiedzialnej sztucznej inteligencji, które można by wykorzystać do uwrażliwienia cywilnej społeczności zajmującej się sztuczną inteligencją na kwestie kontroli zbrojeń oraz nieproliferacji, a także na debaty ekspertów i stanowiska państw na temat odpowiedzialnego rozwijania, rozpowszechniania i stosowania sztucznej inteligencji, oraz doświadczenia, jakie można uzyskać z prac nad odpowiedzialnością w sektorze obrony (1). Co istotne, w trakcie tych poprzednich prac wyraźnie stwierdzono, że współdziałanie ze studentami nauk przyrodniczych, technologii, inżynierii i matematyki (STEM) - którzy jeszcze mają kontakt ze sztuczną inteligencją w środowisku edukacyjnym - jest bardzo istotne dla wszelkich skutecznych starań w zakresie odpowiedzialnych innowacji.
Projekty te mają na celu wspieranie większego udziału cywilnej społeczności zajmującej się sztuczną inteligencją w łagodzeniu zagrożeń, jakie przekierowywanie i niewłaściwe stosowanie cywilnych badań i innowacji dotyczących sztucznej inteligencji przez nieodpowiedzialne podmioty może stanowić dla międzynarodowego pokoju i bezpieczeństwa. Dokonuje się tego przez, po pierwsze, stworzenie lepszego pojmowania sposobu, w jaki rozwój i rozpowszechnianie badań i innowacji dotyczących sztucznej inteligencji może wpływać na zagrożenia wynikające z ich przekierowywania i niewłaściwego stosowania, oraz, po drugie, przez propagowanie odpowiedzialnych procesów, metod i narzędzi innowacji, co może pomóc
(1) Metodyka obejmuje na przykład zalecane przez Instytut Inżynierów Elektryki i Elektroniki (IEEE) praktyki dotyczące oceny wpływu autonomicznych i inteligentnych systemów na ludzki dobrostan (norma IEEE 7010-220), czy opracowaną przez grupę ekspertów wysokiego szczebla ds. AI listę kontrolną oceny godnej zaufania sztucznej inteligencji. Inicjatywy obejmują: opracowaną przez IEEE globalną inicjatywę dotyczącą etyki dla autonomicznych i inteligentnych systemów; partnerstwo na rzecz sztucznej inteligencji; globalne partnerstwo na rzecz sztucznej inteligencji.
w zapewnianiu pokojowego stosowania cywilnych innowacji i odpowiedzialnego rozpowszechniania wiedzy o sztucznej inteligencji. W tym celu w ramach tych projektów wspiera się działania z zakresu budowania zdolności, badań i zaangażowania, które i) zwiększą, za pośrednictwem procesów odpowiedzialnych innowacji, zdolności w ramach globalnej cywilnej społeczności zajmującej się sztuczną inteligencją do ujęcia i uwzględnienia zagrożeń dla pokoju i bezpieczeństwa, jakie stanowią przekierowywanie i niewłaściwe stosowanie cywilnej sztucznej inteligencji przez nieodpowiedzialne podmioty; oraz ii) wzmocnią powiązanie między staraniami na rzecz łagodzenia zagrożeń prowadzonymi w odniesieniu do odpowiedzialnej sztucznej inteligencji w sferze cywilnej a będącymi już w toku staraniami w ramach społeczności zajmującej się rozbrojeniem, kontrolą zbrojeń i nieproliferacją na szczeblu międzyrządowym. Co istotne, nie dążą one do stworzenia jakichkolwiek nowych standardów, zasad ani regulacji, ani do wkroczenia w dziedziny znajdujące się w kompetencji państw. Intencją tych projektów jest rozwijanie cywilnych starań w zakresie odpowiedzialnych innowacji, by objęły one zagrożenia dla pokoju i bezpieczeństwa wynikające z przekierowywania i niewłaściwego stosowania cywilnej sztucznej inteligencji przez nieodpowiedzialne podmioty, oraz zapewnianie informacji o istniejących staraniach międzyrządowych.
W celu skutecznego dotarcia do cywilnej społeczności zajmującej się sztuczną inteligencją i wywarcia wpływu na tę społeczność, w projektach stosuje się podejście trójtorowe, by:
oraz
Takie podejście sprawia, że projekty dotrą na wszystkie poziomy społeczności zajmującej się sztuczną inteligencją, nie tylko do obecnych praktyków, lecz także do przyszłych pokoleń. Umożliwia ono także udział ze strony wszystkich sfer akademickich, branżowych i innych oraz wspiera trwałość przyszłych starań poprzez utworzenie sieci przekraczających granice tych sfer.
W projektach dąży się także do wykorzystywania możliwości i doświadczenia SIPRI i UNODA, by można było wywrzeć wpływ na społeczność zajmującą się sztuczną inteligencją na całym świecie, nie tylko na zainteresowane strony w UE. SIPRI i UNODA mają niepowtarzalne możliwości dotarcia do podmiotów zajmujących się sztuczną inteligencją w Afryce, w regionie Azji i Pacyfiku, w Europie oraz w Ameryce Północnej i Południowej oraz do umożliwiania kontaktów między tymi podmiotami. Obie instytucje mają także doświadczenie w pracy w innych dziedzinach nauki i technologii stojących w obliczu podobnych wyzwań z zakresu podwójnego zastosowania i rozprzestrzeniania, także w zakresie biotechnologii. W ramach projektów dąży się także do wykorzystania warunków występujących w Unii Europejskiej, takich jak a) istnienie zaawansowanych, obejmujących wiele podmiotów procesów dotyczących odpowiedzialnej sztucznej inteligencji; b) istniejący w UE wysoki poziom zaangażowania w kwestie rozbrojenia, kontroli zbrojeń oraz nieproliferacji, jak również wiedzy fachowej na te tematy; c) różnorodność powiązań, jakie organizacje akademickie, badawcze i sektora prywatnego w UE posiadają z innymi regionami, zwłaszcza na globalnym Południu, które także będzie stanowić istotny cel zaangażowania; oraz d) zróżnicowanie narodowościowe wśród studentów, edukatorów i inżynierów na uniwersytetach, w instytucjach badawczych i w sektorze prywatnym.
Włączenie wszystkich będzie stanowiło jeden z podstawowych aspektów przy prowadzeniu działań w ramach tych projektów. Aby skutecznie wspierać społeczność zajmującą się sztuczną inteligencją, w projektach dostrzega się fakt, że społeczność ta składa się z różnych podmiotów, a w szczególności że aspekt płci jest wysoce istotnym czynnikiem.
Trzy opisane poniżej projekty mają być komplementarne i wzajemnie się wspierać, a ich elementy będą realizowane przez 36 miesięcy.
3.1.1. Cel projektu
Projekt 1 koncentruje się na dostarczeniu wiedzy i środków cywilnym podmiotom zajmującym się sztuczną inteligencją, aby ocenić i ograniczyć ryzyko, jakie dla międzynarodowego pokoju i bezpieczeństwa może stanowić przekierowywanie i niewłaściwe stosowanie cywilnych badań i innowacji w zakresie sztucznej inteligencji przez nieodpowiedzialne podmioty. Jego celem jest opracowanie materiałów edukacyjnych i materiałów służących budowaniu zdolności, które zapewnią specjalistom w dziedzinie sztucznej inteligencji ze wszystkich regionów, szczebli i sektorów (w tym edukatorom ukierunkowanym na sztuczną inteligencję, osobom tworzącym programy nauczania, studentom technologii, inżynierii i matematyki oraz inżynierom i naukowcom w środowisku akademickim i w sektorze prywatnym) informacje i narzędzia niezbędne do
3.1.2. Opis projektu
W ramach tego projektu powstaną trzy oddzielne zestawy materiałów edukacyjnych i budujących zdolności.
Materiały te będą rozpowszechniane publicznie poprzez strony internetowe podmiotów wdrażających, ich obecność w mediach społecznościowych oraz poprzez bezpośrednią komunikację z odpowiednimi jednostkami akademickimi, cywilnymi stowarzyszeniami zawodowymi w dziedzinie sztucznej inteligencji i innymi odpowiednimi grupami.
3.1.3. Oczekiwane rezultaty projektu
Oczekuje się, że projekt ten stworzy nowy zestaw materiałów, dzięki którym cywilni praktycy w dziedzinie sztucznej inteligencji będą mogli uwrażliwić się na to:
Oczekuje się, że przyczyni się to do zwiększenia zaangażowania cywilnego sektora sztucznej inteligencji w ograniczanie ryzyka, jakie dla międzynarodowego pokoju i bezpieczeństwa może stanowić przekierowywanie i niewłaściwe stosowanie cywilnej sztucznej inteligencji; do poprawy zdolności osób zajmujących się zawodowo techniką do angażowania się w odpowiednie procesy w ramach społeczności zajmującej się rozbrojeniem, kontrolą zbrojeń i nieproliferacją, jak również do wspierania zaangażowania nowych odbiorców, którzy nie są tradycyjnie włączani w wysiłki edukacyjne w zakresie rozbrojenia i nieproliferacji.
Materiał ten ma również wspierać realizację pozostałych projektów i posłuży jako podstawa do działań edukacyjnych i budujących zdolności w projekcie 2 oraz działań w zakresie dialogu i działań motywacyjnych w projekcie 3. Działania te mają z kolei wspomagać zwrotnie opracowywanie i udoskonalanie materiału. Oczekuje się, że takie iteratywne podejście pomoże rozwiązać potencjalne przeszkody w ich promowaniu, rozpowszechnianiu i stosowaniu w społeczności zajmującej się sztuczną inteligencją, w tym kwestie związane z językiem, treścią, kontekstem i dostępnością, które mogłyby uniemożliwić ich oddziaływanie na poziomie globalnym, w szczególności w krajach globalnego Południa.
3.2.1. Cel projektu
Celem projektu 2 jest wsparcie włączania problemu przekierowywania i niewłaściwego stosowania cywilnych badań nad sztuczną inteligencją przez nieodpowiedzialne podmioty do edukacji przyszłych pokoleń praktyków w dziedzinie sztucznej inteligencji. Na dłuższą metę zagwarantuje to, że studenci nauk ścisłych, technologii, inżynierii i matematyki (STEM) kształtujący przyszłość sztucznej inteligencji będą świadomi negatywnego wpływu, jaki na międzynarodowy pokój i bezpieczeństwo mogą mieć przekierowywanie i niewłaściwe stosowanie ich pracy przez nieodpowiedzialne podmioty, oraz że będą dysponować podstawowymi narzędziami niezbędnymi do zidentyfikowania i ograniczenia takiego ryzyka w procesie badań i innowacji.
W ramach tego projektu przeprowadzona zostanie seria warsztatów edukacyjnych i budujących zdolności z edukatorami i studentami we współpracy z wybranymi międzynarodowymi uczelniami i podmiotami branżowymi. Projekt ma zatem na celu opracowanie działań w zakresie budowania zdolności, które edukatorzy i twórcy akademickich programów nauczania mogliby wykorzystać do włączenia do szkolenia przyszłych praktyków w dziedzinie sztucznej inteligencji (np. kursy dotyczące etyki sztucznej inteligencji i odpowiedzialnych innowacji) oraz w zakresie rozważenia ryzyka związanego z przekierowywaniem i niewłaściwym stosowaniem cywilnych badań nad sztuczną inteligencją i innowacji przez nieodpowiedzialne podmioty, a także powiązania ich z szerszym kontekstem pokoju i bezpieczeństwa. Poprzez te warsztaty w ramach projektu nastąpi próba utworzenia sieci zainteresowanych edukatorów, twórców programów nauczania i studentów, którzy wspieraliby rozpowszechnianie i promocję materiałów edukacyjnych projektu i działań związanych z budowaniem zdolności w społeczności edukacyjnej w zakresie sztucznej inteligencji i społeczności praktyków w dziedzinie sztucznej inteligencji. Ten element tworzenia sieci kontaktów ma na celu zapewnienie trwałego charakteru projektów po zakończeniu ich bezpośredniego okresu trwania oraz umożliwienie tworzenia silniejszych powiązań wspierających cywilne zaangażowanie techniczne na rzecz szerszych celów związanych z pokojem, bezpieczeństwem, rozbrojeniem i kontrolą zbrojeń.
3.2.2. Opis projektu
W ramach tego projektu zostanie przeprowadzona seria warsztatów edukacyjnych i budujących zdolności z edukatorami i studentami z wybranych uczelni z całego świata. Będą one stanowiły połączenie wykładów i interaktywnych działań, które zapewnią edukatorom i studentom możliwość zastanowienia się nad tym, w jaki sposób cywilne badania i innowacje w zakresie sztucznej inteligencji mogą zostać przekierowane i niewłaściwie stosowane w sposób, który może stanowić ryzyko dla międzynarodowego pokoju i bezpieczeństwa, oraz w jaki sposób można zidentyfikować takie ryzyko, zapobiec mu lub ograniczyć je w procesie badań i innowacji lub poprzez inne procesy zarządcze. Działania te będą oparte na wcześniejszych pracach pilotażowych na mniejszą skalę przeprowadzonych przez UNODA, która wypróbowała metody współpracy ze studentami kierunków ścisłych i uwrażliwiania ich na znaczenie rozważenia szerzej pojmowanego oddziaływania ich pracy, jak również współpracy ze specjalistami spoza ich rodzimych dziedzin. Konkretnie byłyby to:
Sieci i obecność SIPRI i UNODA w Afryce, regionie Azji i Pacyfiku, Europie, Ameryce Północnej i Południowej zostaną wykorzystane do ułatwiania i wspierania niektórych aspektów działań, w zależności od potrzeb.
3.2.3. Oczekiwane rezultaty projektu
Oczekuje się, że projekt stworzy modele działań w zakresie budowania zdolności i zaangażowania, które edukatorzy i twórcy programów akademickich mogliby powielać, aby uwrażliwić przyszłych praktyków w dziedzinie sztucznej inteligencji na problemy związane z przekierowywaniem i niewłaściwym stosowaniem cywilnej sztucznej inteligencji przez nieodpowiedzialne podmioty oraz na to, jak mogą pomóc w łagodzeniu tych problemów poprzez odpowiedzialne procesy innowacyjne. Oczekuje się, że po zakończeniu działań projektowych uczestnicy (edukatorzy, ale także studenci STEM) będą potrafili wykorzystywać i promować narzędzia, metody i koncepcje odpowiedzialnych innowacji w celu identyfikacji i ograniczania ryzyka przekierowywania i niewłaściwego stosowania w rozwoju i upowszechnianiu cywilnych badań i innowacji w zakresie sztucznej inteligencji.
Oczekuje się również, że rezultatem działań w ramach projektu będzie stworzenie sieci edukatorów, twórców programów nauczania i studentów, którzy nie tylko będą promować działania projektowe w ramach społeczności zajmujących się edukacją w zakresie sztucznej inteligencji i środowisk zawodowych (np. podczas konferencji IEEE Computational Intelligence Society), ale również będą w stanie wnieść swój techniczny wkład w międzynarodowe procesy zarządcze kierowane przez państwo (np. proces Konwencji o Pewnych Broniach Konwencjonalnych dotyczący powstających technologii w obszarze systemów śmiercionośnej broni autonomicznej).
Krótko- i długoterminowa wartość tych działań zostanie wykazana przez ankiety przed i po zakończeniu działań.
3.3.1. Cel projektu
Celem projektu 3 jest ułatwienie zrównoważonego rozwoju na dłuższą metę, upowszechniania i wpływu odpowiedzialnych innowacji w zakresie sztucznej inteligencji jako środka ograniczania ryzyka, jakie dla pokoju i bezpieczeństwa może stanowić przekierowywanie i niewłaściwe stosowanie cywilnych badań i innowacji w zakresie sztucznej inteligencji. Cel ten ma zostać zrealizowany poprzez organizowanie okrągłych stołów z przedstawicielami branży sztucznej inteligencji, wielostronne dialogi, stworzenie publicznego sprawozdania oraz ukierunkowane działania popularyzatorskie. Projekt ma na celu zagwarantowanie, że wyniki tych prac, w szczególności w zakresie edukacji, budowania potencjału i działań na rzecz zaangażowania, dotrą do całej społeczności zajmującej się sztuczną inteligencją i wpłyną na nią na wszystkich poziomach (od studentów do inżynierów i innych specjalistów w zakresie sztucznej inteligencji) i ponad granicami geograficznymi, sektorowymi i innymi. Aby zwiększyć możliwość wywarcia szerokiego i głębokiego wpływu, konieczna jest współpraca z profesjonalnymi organizacjami działającymi w tej przestrzeni, takimi jak IEEE, oraz prowadzenie wielowymiarowych działań na rzecz zaangażowania w sferach akademickich, branżowych i innych. Takie działania dadzą zainteresowanym przedstawicielom różnych społeczności zajmujących się sztuczną inteligencją możliwość wzięcia odpowiedzialności za problem i przedstawienia własnych poglądów na temat tego, w jaki sposób wysiłki zmierzające do ograniczenia ryzyka mogą być prowadzone i promowane w sposób zrównoważony w obrębie globalnej społeczności zajmującej się sztuczną inteligencją. Aby projekt okazał się wartościowy w dłuższej perspektywie dla państw, organizacji międzyrządowych i innych, ważne jest również to, aby praktycy w dziedzinie sztucznej inteligencji mogli uczyć się od ekspertów rządowych zaangażowanych w ograniczanie ryzyka w kontekście rozbrojenia, kontroli zbrojeń i nieproliferacji, a także współpracować z nimi. Kluczowe znaczenie dla trwałości projektu ma również zagwarantowanie, by spostrzeżenia zebrane w wyniku działań angażujących były przeanalizowane, skonsolidowane i odpowiednio upowszechnione.
3.3.2. Opis projektu
Na projekt składają się następujące kluczowe wątki:
Z dziewięciu wirtualnych spotkań dwa mają być otwarte dla publiczności, aby ułatwić szersze konsultacje.
3.3.3. Oczekiwane wyniki projektu
Oczekuje się, że projekt ten położy podwaliny pod zrównoważony rozwój, upowszechnianie i wpływ odpowiedzialnych innowacji w procesach związanych ze sztuczną inteligencją dotyczących ryzyka związanego z rozprzestrzenianiem, prze- kierowywaniem i niewłaściwym stosowaniem oraz skutków tego ryzyka dla pokoju i bezpieczeństwa wykraczających poza bezpośredni okres obowiązywania decyzji Rady.
Oczekuje się, że wielostronny dialog zapewni model wymiany informacji i współpracy w zakresie ograniczania ryzyka nie tylko w ramach globalnej społeczności zajmującej się sztuczną inteligencją, ale także pomiędzy odpowiedzialną społecznością zajmującą się cywilną sztuczną inteligencją a społecznościami zajmującymi się rozbrojeniem, kontrolą zbrojeń i nieproliferacją. Taki model mógłby zostać wykorzystany do zaznajomienia decydentów z kluczowymi osiągnięciami technologicznymi i naukowymi istotnymi dla odpowiedzialnych innowacji w zakresie sztucznej inteligencji, a także do zapoznania odbiorców technicznych ze środowiskiem, w które obecnie angażują się decydenci. Oczekuje się, że projekt ułatwi trwałe relacje i zaangażowanie pomiędzy zainteresowanymi podmiotami w obrębie tych różnych społeczności i pomiędzy nimi. Oczekuje się, że takie heterogeniczne efekty sieciowe umożliwią większy rozwój i powszechną promocję odpowiedzialnych innowacji w dziedzinie sztucznej inteligencji na rzecz pokoju i bezpieczeństwa poza ramami czasowymi projektu.
Oczekuje się, że dialog sektora prywatnego umożliwi większe i głębsze zaangażowanie sektora prywatnego zajmującego się sztuczną inteligencją w identyfikację, zapobieganie i ograniczanie ryzyka dla pokoju i bezpieczeństwa wynikającego z prze- kierowywania i niewłaściwego stosowania cywilnych badań i innowacji w zakresie sztucznej inteligencji. Oczekuje się, że projekt zapewni kluczowym uczestnikom procesów w sektorze prywatnym większe zrozumienie i poczucie odpowiedzialności za problemy, które stara się rozwiązać. Ponadto ma on na celu ułatwienie (szerszego) przyjęcia i wdrożenia procesów, metod i środków odpowiedzialnych innowacji w istniejących mechanizmach i procedurach zarządzania ryzykiem korporacyjnym.
Oczekuje się, że wielostronny dialog i okrągły stół sektora prywatnego przyniosą również spostrzeżenia dotyczące szeregu istotnych kwestii, w tym a) sposobu dalszego dopracowania i zastosowania metod i środków odpowiedzialnych innowacji w celu identyfikacji, zapobiegania i ograniczania ryzyka wynikającego z przekierowywania i niewłaściwego stosowania cywilnych badań i innowacji w zakresie sztucznej inteligencji; b) sposobu pozytywnego wykorzystywania badań i innowacji w zakresie sztucznej inteligencji, aby wspierać cele związane z pokojem i bezpieczeństwem (np. zastosowania we wczesnym ostrzeganiu przed konfliktami i w pomocy humanitarnej); oraz c) sposobu ułatwienia szerszego dialogu i wymiany informacji między działaniami na rzecz ograniczania ryzyka podejmowanymi przez odpowiedzialną społeczność zajmującą się cywilną sztuczną inteligencją (np. różne inicjatywy prowadzone przez IEEE) a wysiłkami podejmowanymi już przez społeczność zajmującą się rozbrojeniem, kontrolą zbrojeń i nieproliferacją na szczeblu międzyrządowym.
W ramach sprawozdania i działań w zakresie upowszechniania nastąpi analiza, konsolidacja i upowszechnienie spostrzeżeń uzyskanych w ramach projektów 1, 2 i 3, co będzie skutkować wsparciem promowania ustaleń i zaleceń wynikających z działań projektowych w obrębie globalnej społeczności zajmującej się sztuczną inteligencją, jak również w ramach społeczności zaangażowanej w politykę w tym zakresie. Oczekuje się również, że pomogą one w zapewnieniu trwałości wpływu po upływie okresu realizacji projektów.
Całkowity szacowany czas realizacji projektów wynosi 36 miesięcy.
| Identyfikator: | Dz.U.UE.L.2022.300.11 |
| Rodzaj: | decyzja |
| Tytuł: | Decyzja 2022/2269 wspierająca realizację projektu "Promowanie odpowiedzialnych innowacji w dziedzinie sztucznej inteligencji na rzecz pokoju i bezpieczeństwa" |
| Data aktu: | 2022-11-18 |
| Data ogłoszenia: | 2022-11-21 |
| Data wejścia w życie: | 2022-11-18 |
