Sztuczna inteligencja daje wiele możliwości, ale z drugiej strony – zwłaszcza biorąc pod uwagę szybki rozwój technologii – budzi również obawy, że bez odpowiednich ram prawnych może wymknąć się spod kontroli. Zapobiec temu ma akt o sztucznej inteligencji (AIA), który w środę został przyjęty przez Parlament Europejski znaczącą większością głosów (499 za, 28 przeciw, 93 wstrzymujących się). Rozporządzenie może zacząć obowiązywać już pod koniec roku. Oznacza to, że Unia Europejska jako pierwsza przyjmie kompleksowe, szczegółowe przepisy dotyczące sztucznej inteligencji.

Zobacz też: Prawne aspekty sztucznej inteligencji >>

Zobacz też: Akt o sztucznej inteligencji [projekt UE] - komentarz praktyczny LEX >>

- Akt o sztucznej inteligencji nie został pomyślany jako regulacja, która będzie obowiązywać w niezmienionym kształcie przez lata, ale ma być modyfikowana w efekcie przeglądu jej skuteczności, który KE musi regularnie wykonywać. Chcemy powiedzieć, że ta technologia może być czasami niebezpieczna, że UE będzie stać na straży bezpieczeństwa użytkowników, a jednocześnie chcemy, aby ta technologia się rozwijała, także w Europie, a nie tylko w USA czy Chinach – mówił europoseł Kosma Złotowski, który jako jedyny parlamentarzysta z Polski był zaangażowany w tworzenie regulacji.

- Wszystkie oczy zwrócone są dziś na nas. Podczas gdy wielkie firmy technologiczne biją na alarm w związku ze swoimi własnymi dziełami, Europa wyszła naprzód i zaproponowała konkretną odpowiedź na zagrożenia, jakie zaczyna stwarzać sztuczna inteligencja - wskazywał podczas posiedzenia PE sprawozdawca Brando Benifei (S&D, Włochy). 

Czytaj też: 
MS świadome zagrożeń ze strony sztucznej inteligencji, ale czeka na unijną regulację​ >>

Sztuczna inteligencja tworzy, ale czy to legalne?​ >>

Nie hamować rozwoju, ale zapobiec ryzyku nadużyć

Co znajdzie się w akcie? Przede wszystkim, przepisy przewidują wprowadzenie kilku kategorii ze względu na różne poziomy ryzyka. Oznacza to nowe obowiązki m. in. dla dostawców, którzy będą musieli podjąć się jego określenia. Ze względu na wątpliwości, głównie natury moralnej, część sposobów wykorzystywania sztucznej inteligencji ma zostać całkowicie zakazana (jako systemy niedopuszczalnego ryzyka). Chodzi o:

  • Poznawczo-behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań
  • Scoring (klasyfikacja punktowa) obywateli: klasyfikacja ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
  • Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy.

Od tych regulacji będą przewidziane jednak pewne wyjątki. Osobną kategorię stworzą systemy wysokiego ryzyka, podzielone dodatkowo na dwie kategorie: systemy stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów i te należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych.

Nowe regulacje obejmą również generatywne systemy sztucznej inteligencji – czyli np. ChatGPT. Będą one musiały spełnić wymogi przejrzystości przekazywanych informacji, a więc zwłaszcza: ujawniania, że dana treść została wygenerowana przez AI; zaprojektowanie generatora tak, by nie publikował nielegalnych treści; respektowania praw autorskich.

- Rozwój i wykorzystywanie sztucznej inteligencji i modeli generatywnych poddany zostanie zasadom wskazanym w planowanym rozporządzeniu m.in. zasadom przewodniej i nadzorczej roli człowieka, technicznej solidności i bezpieczeństwa, prywatności i zarządzania danymi, przejrzystości, różnorodności, niedyskryminacji i sprawiedliwości. W odniesieniu do zasady przejrzystości w planowanym rozporządzeniu podkreśla się wymóg informowania ludzi, że komunikują się z systemem sztucznej inteligencji, a także wymóg informowania o możliwościach i ograniczeniach danego systemu sztucznej inteligencji - tłumaczy Monika Górska, radca prawny i partner w kancelarii Wardyński i Wspólnicy. 

Czytaj też: RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>

 

Przepisy będą obowiązywać bezpośrednio

Prawnicy podkreślają, że ważne jest zwłaszcza to, iż projektowany akt o sztucznej inteligencji ma formę rozporządzenia. Nie będzie więc wymagał tworzenia osobnych przepisów w każdym państwie członkowskim.

- Jest to ważne, gdyż rozporządzenie jest stosowane w krajach członkowskich bezpośrednio, bez konieczności jego implementacji do krajowego porządku prawnego. Nasz ustawodawca nie musi zatem uchwalać żadnej ustawy, żeby to rozporządzenie zaczęło obowiązywać w Polsce, oczywiście po przejściu całej procedury legislacyjnej i opublikowaniu w Dzienniku Urzędowym UE – wyjaśnia radca prawny dr Gabriela Bar z kancelarii Szostek_Bar i Partnerzy.

Czytaj też: Człowiek i sztuczna inteligencja >>

Podkreśla jednak, że wcale nie oznacza to, że polski ustawodawca nie będzie musiał podejmować żadnych działań. W praktyce rozporządzenie może okazać się sporym wyzwaniem. - Mimo, że rozporządzenie będzie miało zastosowanie wprost i nie jest do tego potrzebna żadna ustawa uchwalona w Polsce, to wiele aspektów pozostawiono ustawodawcom krajowym. Chodzi np. o: wyznaczanie wystarczającej liczby jednostek oceniających zgodność (ocena zgodności, certyfikacja), ustanowienie co najmniej jednej piaskownicy regulacyjnej w zakresie sztucznej inteligencji, opracowanie inicjatyw skierowanych do małych dostawców i użytkowników AI dotyczących m.in. umiejętności korzystania z AI, podnoszenia świadomości zagrożeń i benefitów z tego płynących. Przede wszystkim zaś każde państwo członkowskie, w tym Polska oczywiście, powinno wyznaczyć krajowy organ nadzorczy do celów nadzorowania stosowania i wdrażania AIA, a także swojego przedstawiciela do Urzędu ds. AI – wyjaśnia mec. Bar.

Czytaj też: Pułapki sztucznej inteligencji >>

 

Nowość
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Krok we właściwą stronę

Łukasz Wieczorek, radca prawny i partner w kancelarii Konieczny Wierzbicki zaznacza, że w kontekście wyeliminowania zagrożeń związanych ze sztuczną inteligencją regulacja unijna niewątpliwie jest krokiem we właściwą stronę.

- Z perspektywy kilku lat prac nad wykuciem projektu AIA, UE wykonała dużo pracy. AIA jest aktem przemyślanym i szeroko konsultowanym. Istotne jest to, że UE postawiła sobie za cel, by AI była etyczna, przyjazna człowiekowi – humanocentryczna. Ważna będzie zatem wykładnia przepisów AIA w tym duchu. Jest to więc fundament do postrzegania AIA jako kluczowego kroku w kierunku eliminowania zagrożeń płynących z upowszechniania się AI – podkreśla.

Wyjaśnia jednak, że niewątpliwie nie będzie to uregulowanie, które od razu rozwiąże absolutnie wszystkie problemy i wątpliwości związane ze sztuczną inteligencją.

- Warto dodać, że AIA nie rozwiązuje wprost kwestii autorskich, np. nie rozstrzyga autorstwa treści powstających z wykorzystaniem generatywnej AI. Nie to jest bowiem istotą AIA – to akt bardziej „instytucjonalny”, „administracyjny”, w pewnym sensie kodeks, konstytucja AI w UE – w rozumieniu nadrzędnego aktu prawnego regulującego daną problematykę. Zasady i cele wyeksplikowane w AIA trzeba będzie dopiero rozwijać w różnych innych aktach prawnych, a co charakterystyczne w przypadku UE – zapewne rozwijać także w ramach orzecznictwa TSUE – kwituje mec. Wieczorek.