UE zakaże wykorzystywania sztucznej inteligencji do oceny obywateli przez rządy
Nie wolno będzie używać sztucznej inteligencji do oceny punktowej obywateli przez rządy - to jeden z przedstawionych w środę przez Komisję Europejską elementów regulacji dotyczącej technologii sztucznej inteligencji (AI). Jej wprowadzenie spowoduje, że systemy sztucznej inteligencji, które uznaje się za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, zostaną zakazane.

Projektowana regulacja dotyczyć ma HTML5 shim and Respond.js for IE8 support of HTML5 elements and media queries WARNING: Respond.js doesn't work if you view the page via file:// [if lt IE 9]> <script src="https://oss.maxcdn.com/html5shiv/3.7.3/html5shiv.min.js"></script> <script src="https://oss.maxcdn.com/respond/1.4.2/respond.min.js"></script> <![endif] jQuery (necessary for Bootstrap's JavaScript plugins) Bootstrap StartFragmentm.in. systemów lub aplikacji wykorzystujących sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników (np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań) oraz systemy oceny punktowej obywateli przez rządy.EndFragment
- HTML5 shim and Respond.js for IE8 support of HTML5 elements and media queries WARNING: Respond.js doesn't work if you view the page via file:// [if lt IE 9]> <script src="https://oss.maxcdn.com/html5shiv/3.7.3/html5shiv.min.js"></script> <script src="https://oss.maxcdn.com/respond/1.4.2/respond.min.js"></script> <![endif] jQuery (necessary for Bootstrap's JavaScript plugins) Bootstrap StartFragmentW dziedzinie sztucznej inteligencji zaufanie jest koniecznością, a nie tylko mile widzianym dodatkiem. Dzięki tym przełomowym przepisom UE obejmuje pozycję lidera w dziedzinie opracowywania nowych globalnych norm, które sprawią, że sztuczna inteligencja stanie się wiarygodną technologią. Ustanawiając standardy, możemy utorować drogę etycznym technologiom na całym świecie i zagwarantować, że UE pozostanie konkurencyjna. Nasze przepisy są dostosowane do przyszłych wyzwań, sprzyjają innowacjom i umożliwiają interwencję tam, gdzie jest to absolutnie potrzebne: gdy zagrożone są bezpieczeństwo i prawa podstawowe obywateli UE - oświadczyła w środę Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej.EndFragment
Czytaj: Rozwój sztucznej inteligencji szansą dla nauki i gospodarki>>
Uwaga na systemy wysokiego ryzyka
Jak poinformowano, systemy AI uznane są za systemy wysokiego ryzyka jeśli dotyczy to zastosowania w infrastrukturze krytycznej, kształceniu lub szkoleniu zawodowym (np. ocena egzaminów), elementach bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotem), zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji), podstawowych usługach prywatnych i publicznych (np. ocena zdolności kredytowej, która może uniemożliwić obywatelom dokonanie pewnych inwestycji), egzekwowaniu prawa, co może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów), zarządzaniu migracją, azylem i kontrolą granic (np. ocena autentyczności dokumentów podróży), sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych (np. stosowanie prawa do konkretnego zbioru faktów).
W tych przypadkach systemy sztucznej inteligencji będą musiały spełniać określone wymogi przed wprowadzeniem do użytku, takie jak m.in. odpowiednie systemy oceny i ograniczania ryzyka i odpowiednie środki nadzoru przez człowieka w celu zminimalizowania ryzyka.
EndFragment




