Bezpłatny e-book Dostęp do rejestru beneficjentów rzeczywistych po zmianach w Ustawie AML Poznaj kluczowe zmiany w dostępie do CRBR po nowelizacji Ustawy AML.
Włącz wersję kontrastową
Zmień język strony
Włącz wersję kontrastową
Zmień język strony
Prawo.pl

Rada Europy stworzyła międzynarodowe regulacje dla sztucznej inteligencji

Rada Europy przyjęła pierwszy w historii prawnie wiążący traktat międzynarodowy, którego celem jest zapewnienie poszanowania praw człowieka, praworządności i standardów prawnych demokracji przy korzystaniu z systemów sztucznej inteligencji (AI). Traktat, który jest również otwarty dla krajów pozaeuropejskich, ustanawia ramy prawne obejmujące cały cykl życia systemów sztucznej inteligencji i eliminujące ryzyko, jakie mogą one stwarzać, promując jednocześnie odpowiedzialne innowacje.

biometria skanowanie twarz
Źródło: iStock

Ramowa Konwencja Rady Europy o sztucznej inteligencji i prawach człowieka, demokracji i praworządności została przyjęta w Strasburgu podczas dorocznego spotkania ministerialnego Komitetu Ministrów Rady Europy, w którym uczestniczą ministrowie spraw zagranicznych 46 Rady Europy państw członkowskich Europy.

Konwencja jest wynikiem dwuletnich prac organu międzyrządowego, Komisji ds. Sztucznej Inteligencji, który zgromadził w celu opracowania traktatu 46 państw członkowskich Rady Europy, Unię Europejską i 11 państw niebędących członkami (Argentyna , Australia, Kanada, Kostaryka, Stolica Apostolska, Izrael, Japonia, Meksyk, Peru, Stany Zjednoczone Ameryki i Urugwaj), a także przedstawiciele sektora prywatnego, społeczeństwa obywatelskiego i środowiska akademickiego, którzy uczestniczyli w charakterze obserwatorów.

Wymogi przejrzystości i nadzoru 

Traktat obejmuje wykorzystanie systemów sztucznej inteligencji w sektorach publicznym i prywatnym. Konwencja oferuje stronom dwa sposoby przestrzegania swoich zasad i obowiązków przy regulowaniu sektora prywatnego: strony mogą zdecydować się na bezpośrednie zobowiązanie na mocy odpowiednich postanowień konwencji lub, alternatywnie, podjąć inne środki w celu zapewnienia zgodności z postanowieniami traktatu, przy pełnym poszanowaniu ich zobowiązań międzynarodowych, dotyczących praw człowieka, demokracji i praworządności. Podejście takie jest konieczne ze względu na różnice w systemach prawnych na świecie.

Konwencja ustanawia wymogi w zakresie przejrzystości i nadzoru dostosowane do konkretnych kontekstów i zagrożeń, w tym dotyczące identyfikacji treści generowanych przez systemy sztucznej inteligencji. Strony będą musiały przyjąć środki w celu identyfikacji, oceny, zapobiegania i ograniczania ewentualnych zagrożeń, a także oceny potrzeby wprowadzenia moratorium, zakazu lub innych odpowiednich środków dotyczących korzystania z systemów sztucznej inteligencji w przypadku, gdy związane z nimi ryzyko może być niezgodne ze standardami praw człowieka.

Środki na wypadek naruszeń 

Będą również musiały zapewnić rozliczalność i odpowiedzialność za niekorzystne skutki oraz zapewnić, aby systemy sztucznej inteligencji szanowały równość, w tym równość płci, zakaz dyskryminacji i prawa do prywatności. Ponadto strony traktatu będą musiały zapewnić dostępność środków prawnych dla ofiar naruszeń praw człowieka związanych z wykorzystaniem systemów sztucznej inteligencji oraz gwarancji proceduralnych, w tym powiadamiać wszelkie osoby mające kontakt z systemami sztucznej inteligencji, że wchodzą w interakcję z takimi systemami.

Jeśli chodzi o zagrożenia dla demokracji, traktat wymaga od stron przyjęcia środków zapewniających, że systemy sztucznej inteligencji nie będą wykorzystywane do podważania instytucji i procesów demokratycznych, w tym zasady podziału władzy, poszanowania niezawisłości sądów i dostępu do wymiaru sprawiedliwości.

Strony konwencji nie będą zobowiązane do stosowania postanowień traktatu do działań związanych z ochroną interesów bezpieczeństwa narodowego, ale będą zobowiązane do zapewnienia, aby działania te respektowały prawo międzynarodowe oraz instytucje i procesy demokratyczne. Konwencja nie będzie miała zastosowania do kwestii związanych z obroną narodową ani do działań badawczo-rozwojowych, z wyjątkiem przypadków, gdy testowanie systemów sztucznej inteligencji może potencjalnie zakłócać prawa człowieka, demokrację lub praworządność.

Wreszcie konwencja wymaga, aby każda ze stron ustanowiła niezależny mechanizm nadzoru w celu nadzorowania przestrzegania konwencji, a także podnosiła świadomość, stymulowała świadomą debatę publiczną i przeprowadzała konsultacje z wieloma zainteresowanymi stronami na temat sposobu wykorzystania technologii sztucznej inteligencji. Konwencja ramowa zostanie otwarta do podpisu w Wilnie (Litwa) w dniu 5 września przy okazji konferencji Ministrów Sprawiedliwości.

Polecamy książki biznesowe