Projektowana regulacja dotyczyć ma m.in. systemów lub aplikacji wykorzystujących sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników (np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań) oraz systemy oceny punktowej obywateli przez rządy.

W dziedzinie sztucznej inteligencji zaufanie jest koniecznością, a nie tylko mile widzianym dodatkiem. Dzięki tym przełomowym przepisom UE obejmuje pozycję lidera w dziedzinie opracowywania nowych globalnych norm, które sprawią, że sztuczna inteligencja stanie się wiarygodną technologią. Ustanawiając standardy, możemy utorować drogę etycznym technologiom na całym świecie i zagwarantować, że UE pozostanie konkurencyjna. Nasze przepisy są dostosowane do przyszłych wyzwań, sprzyjają innowacjom i umożliwiają interwencję tam, gdzie jest to absolutnie potrzebne: gdy zagrożone są bezpieczeństwo i prawa podstawowe obywateli UE - oświadczyła w środę Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej.

Czytaj: Rozwój sztucznej inteligencji szansą dla nauki i gospodarki>>
 

Uwaga na systemy wysokiego ryzyka

Jak poinformowano, systemy AI uznane są za systemy wysokiego ryzyka jeśli dotyczy to zastosowania w infrastrukturze krytycznej, kształceniu lub szkoleniu zawodowym (np. ocena egzaminów), elementach bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotem), zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji), podstawowych usługach prywatnych i publicznych (np. ocena zdolności kredytowej, która może uniemożliwić obywatelom dokonanie pewnych inwestycji), egzekwowaniu prawa, co może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów), zarządzaniu migracją, azylem i kontrolą granic (np. ocena autentyczności dokumentów podróży), sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych (np. stosowanie prawa do konkretnego zbioru faktów).

W tych przypadkach systemy sztucznej inteligencji będą musiały spełniać określone wymogi przed wprowadzeniem do użytku, takie jak m.in. odpowiednie systemy oceny i ograniczania ryzyka i odpowiednie środki nadzoru przez człowieka w celu zminimalizowania ryzyka.