Jak wskazała w rozmowie z PAP dr Maria Dymitruk, od sierpnia br. Polska stosuje przepisy Aktu w sprawie sztucznej inteligencji (AI Act), które zobowiązują wszystkie państwa członkowskie m.in. do powołania organu nadzoru rynku nad systemami AI.

Według projektu ustawy o systemach AI, przedstawionego przez Ministerstwo Cyfryzacji, w Polsce funkcję tę ma pełnić Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Projekt ten od końca czerwca br. znajduje się w Komitecie do Spraw Europejskich. W połowie kwietnia wiceminister cyfryzacji Dariusz Standerski wskazał w rozmowie z PAP, że resort chce, aby ustawa została uchwalona w sierpniu lub wrześniu tego roku.

Czytaj także: ​Rządowe prace nad ustawą wdrażającą AI Act na ostatniej prostej

Niepewność na rynku

- Kiedy został opublikowany październikowy projekt, Polska była na czele krajów unijnych we wdrażaniu AI Act-u, ale po drodze utraciliśmy energię. Nie doprowadziliśmy do tego, żeby obecnie ustawa była na przykład w Senacie lub – najlepiej – czekała na podpis prezydenta. Trzecia wersja projektu od ponad miesiąca znajduje się w rządowym Komitecie ds. Europejskich. Mam wrażenie, że projekt utknął na poziomie wiecznych konsultacji i uzgodnień - oceniła dr Dymitruk.

Zaznaczyła, że opóźnienie związane z powołaniem organu nadzoru rynku AI może skutkować wszczęciem przez Komisję Europejską procedury przeciwko Polsce, a w dalszej kolejności - karami finansowymi ze strony Trybunału Sprawiedliwości UE.

- Pomimo braku krajowego organu egzekwującego przepisy, dostawcy technologii powinni już teraz działać zgodnie z AI Act-em. Kary mogą być nakładane za czyny lub zaniechania popełnione w okresie obowiązywania konkretnych wymogów, nawet jeśli organ nadzoru jeszcze nie powstał – zaznaczyła Dymitruk. Jak dodała, brak organu nadzoru rodzi niepewność na rynku i ryzyko, iż adresaci norm prawnych są przekonani, że przepisy ich jeszcze nie obowiązują.

Gawkowski: Polska nadaje kierunek

Wicepremier i minister cyfryzacji Krzysztof Gawkowski pytany przez PAP, czy obawia się, że KE może wszcząć postępowanie przeciwko Polsce, odpowiedział, że nie boi się o to, ponieważ Polska nadaje kierunek innym krajom UE w kompleksowej implementacji aktu o sztucznej inteligencji, co było widać m.in. podczas polskiej prezydencji w Radzie UE.

– Mam kontakt z ministrami cyfryzacji w innych państwach i wiem, że wiele krajów tak jak Polska wciąż pracuje nad przepisami. To nie są łatwe tematy i Komisja Europejska również potrzebuje więcej czasu na wydawanie odpowiednich wytycznych dla krajów członkowskich. Na pewno zrobimy wszystko, żeby szybko i dobrze implementować akt w Polsce – przekazał Gawkowski.

GPAI, czyli modele ogólnego przeznaczania

Jak wskazała radczyni, w sierpniu br. zaczęły również obowiązywać przepisy Aktu w sprawie sztucznej inteligencji dotyczące AI ogólnego przeznaczenia (ang. General Purpose AI, GPAI) regulujące duże modele językowe, np. GPT, Claude, Gemini czy Bielik.

- W uproszczeniu model AI ogólnego przeznaczania to taki, który był trenowany na dużej ilości danych i ma szeroki wachlarz funkcji, których nawet dostawca często nie jest w stanie przewidzieć. Przykładowo z użyciem ChatGPT jestem w stanie przeprowadzić analizę danych medycznych, stworzyć bajkę dla syna na wieczór, wygenerować wzorzec umowy itd. – wyjaśniła ekspertka. Jak podała, AI Act wyróżnia dwa rodzaje GPAI: standardowe oraz GPAI z ryzykiem systemowym. Klasyfikacja modelu jako związanego z ryzykiem systemowym zależy m.in. od jakości lub wielkości zbioru danych treningowych, liczby użytkowników biznesowych i końcowych, czy formatu danych wejściowych i wyjściowych modelu.

Dostawcy GPAI, np. OpenAI, Google czy Anthropic, muszą wziąć pod uwagę, że tzw. dostawcy niższego szczebla, np. firmy w Polsce, będą integrować ich modele ze swoimi systemami – wskazała Dymitruk. W związku z tym od sierpnia mają oni obowiązek m.in. dostarczyć dostawcom niższego rzędu informacje umożliwiające im sprawną integrację, czy podać do publicznej wiadomości streszczenie danych, które zostały wykorzystane do trenowania modelu.

- Dostarczanie tych informacji jest bardzo ważne, ponieważ firma, która oprze np. swoją aplikację o model od OpenAI, nie ma wpływu i nie może odpowiadać za to, jakich danych użył OpenAI do trenowania swojego modelu, czy uzyskał je legalnie itp. – zaznaczyła ekspertka.

Ostatnim obowiązkiem dla dostawców GPAI jest wprowadzenie polityki ws. zgodności modelu z prawem autorskim. Odpowiedzialność, w tym finansową, za zgodność GPAI z unijnym prawem, ponoszą dostawcy tych modeli. Jeśli wypuścili swoje modele na rynek przed 2 sierpnia br., mają dwa lata na dostosowanie się do unijnych przepisów. Firmy, które zrobiły to po 2 sierpnia lub dopiero planują wprowadzenie modelu do obrotu, muszą przedstawić produkt, który jest już zgody z aktem o sztucznej inteligencji – wskazała Dymitruk. Dodała, że organem nadzoru nad GPAI jest Komisja Europejska, która może też nałożyć kary w przypadku nieprzestrzegania nowych obowiązków.

 

Nowość
Bestseller
Obrazy generowane z wykorzystaniem sztucznej inteligencji
-30%

Cena promocyjna: 139.29 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 119.4 zł


Kary za łamanie przepisów o AI

Jak podała, do sierpnia br. państwa UE miały również czas na stworzenie systemu sankcji. AI Act przewiduje kary finansowe do 7 proc. światowego obrotu firmy lub do 35 milionów euro, w zależności od tego, która kwota jest wyższa, za niedopełnienie obowiązków związanych z zakazanymi praktykami sztucznej inteligencji. Przepisy ws. systemów zakazanych AI obowiązują od lutego br.

Z kolei kara 3 proc. światowego obrotu lub do 15 milionów euro grozi za niedopełnienie obowiązków ws. GPAI oraz nieprzestrzeganie przepisów systemów wysokiego ryzyka, których stosowanie rozłożone jest w czasie pomiędzy 2026 i 2027 r. Taka sama kara grozi za niedopełnienie obowiązków ws. transparentności wobec użytkowników AI, którzy od sierpnia 2026 r. w określonych przypadkach będą musieli być informowani, że mają do czynienia ze sztuczną inteligencją.

AI literacy

2 lutego br., razem z zakazanymi praktykami, wszedł w życie obowiązek „AI literacy”, który w uproszczeniu polega na zapewnieniu pracownikom kompetencji w zakresie sztucznej inteligencji – wskazała ekspertka. Jak wyjaśniła, chodzi o uświadomienie pracownikom, np. przez szkolenia, ryzyk związanych z tworzeniem i korzystaniem z AI, takich jak wypłynięcie poza organizację danych wrażliwych czy własności intelektualnej firmy.

- Pracownicy powinni być też informowani o obowiązkach i konsekwencjach nieprzestrzegania wymogów AI Act-u. Ostatnim elementem „AI literacy” jest stworzenie w firmie wewnętrznych procedur, np. polityki korzystania ze sztucznej inteligencji podczas pracy – wskazała dr Dymitruk.

Jak podkreśliła, w momencie rozpoczęcia stosowania tego obowiązku, nie był on objęty sankcjami, w przeciwieństwie do wszystkich innych obowiązków wynikających z AI Act. Jednak z końcem maja Komisja Europejska zapowiedziała, że będzie chciała karać za niewypełnienie „AI literacy”.

- Komisja potraktowała ten obowiązek bardzo szeroko; wskazała, że istnieje on nawet wtedy, gdy pracownicy korzystają z takich narzędzi, jak ChatGPT. „AI literacy” odnosi się więc praktycznie do każdej firmy, bo ciężko sobie wyobrazić organizację, w której żaden pracownik nie korzysta z takich narzędzi – zaznaczyła ekspertka.

Jak wskazała, w polskim projekcie ustawy o systemach sztucznej inteligencji na chwilę obecną nie ma w ogóle odniesienia do „AI literacy”.

AI Act – terminy wejścia w życie

Unijne rozporządzenie 2024/1689, czyli Akt o sztucznej inteligencji (AI Act), wchodzi w życie stopniowo.

  • W lutym 2025 r. mocy nabrały m.in. przepisy dotyczące systemów AI, które są w UE zakazane oraz regulacje związane z „AI literacy”.
  • Do 2 sierpnia br. kraje członkowskie miały czas na powołanie organu nadzoru rynku.
  • W sierpniu 2026 r. zastosowanie będzie mieć cały akt z wyjątkiem jednego artykułu.
  • W pełni zacznie on obowiązywać w 2027 roku.