AI Act (inaczej: akt o sztucznej inteligencji, akt o AI), czyli rozporządzenie 2024/1689, co do zasady zacznie obowiązywać w całej Unii Europejskiej w sierpniu 2026 r. Są jednak wyjątki: część przepisów jest już wprowadzanych w tym roku, a część będzie stosowanych dopiero za dwa lata.
2 lutego 2025 r. weszły już w życie przepisy ogólne oraz dotyczące zakazanych systemów AI.
2 sierpnia 2025 r. zaczną zaś obowiązywać m.in. regulacje ustanawiające tzw. AI governance. - Oznacza to, że państwa członkowskie do tego dnia powinny mieć ustalone swoje struktury urzędowe - mówi dr Damian Flisak, radca prawny, specjalista w zakresie prawa własności intelektualnej oraz prawa nowych technologii.
Czytaj artykuł w LEX: Rzymowski Jakub, Definicja prawnicza sztucznej inteligencji na podstawie rozporządzenia PE i Rady (UE) 2024/1689 w sprawie sztucznej inteligencji>
- Państwa członkowskie do 2 sierpnia 2025 r. powinny wskazać co najmniej jeden organ nadzorujący rynek. Muszą również określić procedury postępowania, nakładania kar itp. – potwierdza Tomasz Zalewski, radca prawny, partner w Bird & Bird Koremba Dziedzic i Wspólnicy.
- Warto zwrócić uwagę, że chociaż AI Act zawiera ramy sankcyjne (w tym maksymalne kary), to konkretne procedury nakładania kar i tryb powinny zostać uregulowane na poziomie prawa krajowego – dodaje Paulina Ostrowska, adwokat, senior associate w Kancelarii Głowacki i Wspólnicy. Jak mówi, konieczne jest też m.in. określenie zasad postępowania przed krajowym organem nadzoru, w tym trybu wnoszenia skarg i prowadzenia kontroli.
Polska nie zdąży przed 2 sierpnia 2025 r.
Dochowanie terminu przez Polskę wydaje się nierealne. Chociaż opracowany w Ministerstwie Cyfryzacji projekt ustawy o systemach sztucznej inteligencji ujrzał światło dzienne już w październiku ub.r., ale do tej pory nie wyszedł poza etap konsultacji. Na stronie Rządowego Centrum Legislacji ostatni ślad po prowadzonych pracach pochodzi z lutego br. Wówczas to resort cyfryzacji rozesłał zainteresowanym nową wersję projektu i poprosił o ponowne opinie. Ministerstwo do czasu oddania tego artykułu nie odpowiedziało na pytanie Prawo.pl o postęp prac.
Michał Kalata, associate w KPMG Law, wskazuje, że jeżeli polski ustawodawca nie zdąży przyjąć do 2 sierpnia br. ustawy o systemach sztucznej inteligencji, polski system nadzoru nad rozwiązaniami opartymi na AI nie zacznie funkcjonować zgodnie z przewidzianym w AI Act harmonogramem. Paulina Ostrowska przypomina, że akt ten jako rozporządzenie obowiązuje bezpośrednio we wszystkich państwach członkowskich (w tym także w Polsce), jednak bez krajowych przepisów wykonawczych stosowanie niektórych jego postanowień może być utrudnione. - Brak krajowej ustawy może prowadzić do niepewności prawnej dla podmiotów działających w ekosystemie AI – rozwijających, wdrażających lub wykorzystujących systemy AI. Natomiast dla Polski może oznaczać ryzyko nałożenia kar finansowych przez Komisję Europejską za niewdrożenie przepisów unijnych – mówi mec. Ostrowska.
- To nie pierwszy raz, gdy Polska nie zdąży z wdrożeniem przepisów unijnych. W praktyce spowoduje to, że presja na firmy wykorzystujące sztuczną inteligencję będzie mniejsza – nie będzie bowiem organu krajowego odpowiedzialnego za nadzorowanie i egzekwowanie przepisów - wskazuje dr Flisak.
- Jeśli ustawa nie zostanie wprowadzona przed 2 sierpnia br., rozporządzenie pozostanie bezzębne – mówi Tomasz Zalewski. Jak dodaje, Komisja Europejska sugeruje, że państwa członkowskie powinny w prawie krajowym wprowadzić kary za nieprzestrzeganie obowiązku tzw. AI literacy. Polega on na tym, że organizacje wykorzystujące sztuczną inteligencję muszą zadbać o odpowiedni poziom kompetencji swojego personelu i podwykonawców. Obowiązek ten wszedł już w życie we wcześniejszej turze wprowadzania przepisów AI Act, tj. w lutym br.
Zobacz szkolenie w LEX: Szczudlik Katarzyna, Zastosowanie sztucznej inteligencji w branży finansowej – co zmienia AI Act i jakie wyzwania stwarza dla instytucji finansowych?>
Cena promocyjna: 139.29 zł
|Cena regularna: 199 zł
|Najniższa cena w ostatnich 30 dniach: 119.4 zł
KRiBSI budzi wątpliwości
Zgodnie z projektem polskiej ustawy organem nadzorującym rynek ma być całkowicie nowy podmiot, nazwany Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Ma składać się z przewodniczącego (wybranego przez Sejm za zgodą Senatu), dwóch zastępców (wyłonionych w konkursach) oraz siedmiu członków, powoływanych przez wskazane w ustawie organy (takie jak Urząd Ochrony Konkurencji i Konsumentów, Komisja Nadzoru Finansowego itp.).
Już przy pierwszej wersji projektu pojawiło się wiele uwag na temat proponowanych zasad działania tego organu. Jak się wydaje, kontrowersji nie zabraknie także na dalszym etapie prac legislacyjnych. Wątpliwości może budzić zwłaszcza projektowany art. 99, zgodnie z którym środki finansowe z kar nakładanych przez KRiBSI miałyby stanowić przychody biura KRiBSI.
- Sytuacja, w której w zasadzie jeden i ten sam organ ma kary nakładać i jednocześnie mają one stanowić jego przychód, nie jest zdrowa - pisał dla Prawo.pl Dariusz Tarabasz, adwokat, partner w Kancelarii adwokackiej Czyżewscy (czytaj: Algorytmy „trochę” zakazane. Zmiany w projekcie o AI mogą nawet wypaczać system).
Czytaj także komentarz praktyczny w LEX: Lubasz Dominik, Nadzór człowieka nad systemami AI - wymóg godnej zaufania AI>
Michał Kalata uważa, że skoro pracownikami tego biura będą przewodniczący i zastępcy przewodniczącego komisji, a także osoby przeprowadzające czynności kontrolne, łatwo będzie zarzucić im brak bezstronności lub konflikt interesów. - Pomysł, aby biuro komisji było finansowane z kar nakładanych przez komisję, jest niefortunny i należy mieć nadzieję, że rozwiązanie to nie znajdzie się w projekcie ustawy, który trafi do Sejmu – wskazuje Kalata.
- Moim zdaniem środki z kar powinny stanowić przychód Skarbu Państwa, a nie instytucji nakładającej te kary – dodaje z kolei Tomasz Zalewski. Zgadza się z tym Damian Flisak. Jego zdaniem obecny projekt tworzy niepotrzebny precedens, w którym instytucja nadzorcza czerpie finansową korzyść z własnych decyzji sankcyjnych.
- To osłabia gwarancję bezstronności i może otwierać drogę do zarzutów o motywacje fiskalne, zamiast merytorycznych – mówi dr Flisak.
Paulina Ostrowska nie wyklucza zaś, że obecne brzmienie projektowanego przepisu wynika z omyłki. Pierwotna wersja projektu wskazywała, że środki z kar będą wpływać do budżetu państwa. Adnotacja w tabeli uwag sugeruje, że projektodawca uwzględnił sugestię Rady Legislacyjnej co do tego przepisu - dotyczyła ona jednak nie przeznaczenia środków, lecz zamiany słowa „przychód” słowem „dochód”.
- Jeżeli jednak zmiana ta została wprowadzona celowo, należy podkreślić, że może ona budzić istotne wątpliwości – wskazuje mec. Ostrowska. I podaje przykład kar nakładanych przez prezesa Urzędu Ochrony Danych Osobowych, które zasilają budżet państwa.
Z pewnością uwag do nowego projektu będzie więcej. Mec. Zalewski wskazuje, że już sam tytuł jest mylący: ustawa nie reguluje bowiem samych systemów, lecz nadzór nad nimi.
Czytaj komentarz praktyczny w LEX: Łuczak-Tarka Joanna, Modele AI ogólnego przeznaczenia a regulacje wynikające z AI Act>
Modele AI ogólnego przeznaczenia
2 sierpnia 2025 r. to ważna data nie tylko dla ustawodawców krajowych. Tego dnia zaczną obowiązywać przepisy AI dotyczące tzw. modeli AI ogólnego przeznaczenia, w tym popularnych narzędzi takich jak ChatGPT, Google Gemini itp.
- Choć właściwym organem do nadzoru nad ich dostawcami jest AI Office, a nie organy krajowe, ewentualne opóźnienia krajowej legislacji mogą jednak utrudnić realizację przez AI Office swoich kompetencji, ponieważ przy realizacji swoich zadań ma on współpracować z państwami członkowskimi – mówi dr Flisak. Jak dodaje, Polska w ramach prezydencji w UE zaproponowała, aby zaplanowany na 2 sierpnia 2025 r. termin wejścia w życie przepisów dotyczących dużych modeli AI przesunąć.
Tomasz Zalewski wskazuje, że regulacje dotyczące systemów ogólnego przeznaczenia nie są kluczowe, jeśli chodzi o AI Act (ważniejsze będą przewidziane na sierpnie 2026 r. przepisy odnoszące się do systemów wysokiego ryzyka), to jednak będą istotne dla dostawców tych systemów, a także dla twórców różnych utworów, które mogą być wykorzystywane do trenowania modeli. - Dostawcy systemów będą mieli obowiązek przekazania co prawda nie listy utworów wykorzystanych do treningu, ale pewnych informacji na ten temat - mówi Tomasz Zalewski - Zwracam jednak uwagę na przepisy przejściowe, zgodnie z którymi dostawcy istniejących modeli ogólnego przeznaczenia otrzymają dodatkowe 2 lata na przygotowanie się do nowych regulacji – dodaje.
Czytaj także artykuł w LEX: Kozłowski Jakub, Akt o w sprawie sztucznej inteligencji – charakterystyka unijnej regulacji opartej na ryzyku>
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.













