AI Act: Na wytyczne o systemach wysokiego ryzyka poczekamy
Do 2 lutego br. Komisja Europejska miała wydać wytyczne wyjaśniające zasady klasyfikacji systemów sztucznej inteligencji jako systemy wysokiego ryzyka. Dokument ten nie został jednak opublikowany; według zapowiedzi ma się to stać do końca miesiąca. Przypomnijmy, że przepisy dotyczące systemów AI mają wejść w życie 2 sierpnia br., choć i ten termin może zostać przesunięty.

Przepisy aktu o sztucznej inteligencji (AI Act, rozporządzenie 2024/1689) częściowo już obowiązują, jednak ich najistotniejsza część dopiero wejdzie w życie. Chodzi o regulacje dotyczące systemów wysokiego ryzyka, do których odnosi się większość obowiązków przewidzianych przez europejskiego prawodawcę.
Jak jednak zauważa Tomasz Zalewski, radca prawny, założyciel kancelarii Zalewski Legal, AI Act nie zawiera definicji systemów wysokiego ryzyka. Są jedynie wskazane kryteria, którymi KE będzie się kierować przy ustaleniu, że dane systemy są systemami tej kategorii.
Czytaj też w LEX: Ocena ryzyka systemów AI – jak klasyfikować i zarządzać zgodnie z AI Act? >
2 lutego minął, KE nie dochowała terminu z AI ACt
Takich systemów dotyczy art. 6 AI Act. Artykuł ten w ust. 5 precyzuje, że po konsultacji z Europejską Radą ds. Sztucznej Inteligencji Komisja Europejska przedstawi – nie później niż 2 lutego 2026 r. – wytyczne dotyczące praktycznego stosowania tego artykułu, wraz z wykazem przykładów sytuacji, w których wykorzystanie systemów AI stanowi lub nie stanowi wykorzystania systemów wysokiego ryzyka.
Nic takiego się jednak nie stało – w zamian pojawiła się informacja, że wytyczne zostaną opublikowane do końca bieżącego miesiąca.
Załącznik III do AI Actu wymienia obszary, w których stosowanie systemu AI czyni go systemem wysokiego ryzyka, treść tego załącznika jest jednak dość lakoniczna i budząca wątpliwości. Ponadto istnieje przepis wskazujący, że takimi systemami są systemy, które stwarzają wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych jednostek. Są to więc sformułowania bardzo ogólne i wszyscy oczekiwali wytycznych, które wyjaśnią na przykładach, jak należy je rozumieć.
Czytaj też w LEX: Obowiązki dokumentacyjne przy wdrażaniu rozwiązań AI w przedsiębiorstwie – ocena ryzyka, zarządzanie jakością, procedury i informacje >
Systemy wysokiego ryzyka w AI Act
Z załącznika III wynika, że systemami AI wysokiego ryzyka będą systemy wykorzystywane w takich obszarach jak:
- Biometria,
- Infrastruktura krytyczna,
- Kształcenie i szkolenie zawodowe,
- Zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia,
- Dostęp do podstawowych usług prywatnych oraz podstawowych usług i świadczeń publicznych, a także korzystanie z nich,
- Ściganie przestępstw, w zakresie, w jakim wykorzystywanie przedmiotowych systemów jest dozwolone na podstawie odpowiednich przepisów prawa Unii lub prawa krajowego,
- Zarządzanie migracją, azylem i kontrolą graniczną,
- Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne.
.
Załącznik przy każdym z tych punktów zawiera bardziej szczegółowe podpunkty. Artur Piechocki, radca prawny, założyciel kancelarii APLAW, tłumaczył w Prawo.pl, że podmioty działające w którymś z tych obszarów, jeśli wykorzystują narzędzia AI i nie mają zastosowania żadne wyłączenia, podlegają przepisom dotyczącym systemów wysokiego ryzyka.
- Muszą m.in. zapewnić środki techniczne i organizacyjne, aby działać zgodnie z instrukcją obsługi przygotowaną przez producenta, prowadzić i przechowywać rejestr zdarzeń, powierzyć nadzór nad takim systemem człowiekowi posiadającemu określone kompetencje oraz zapewnić adekwatność i reprezentatywność danych wykorzystywanych do trenowania systemu – np. w systemie CMS nie mogą przypadkiem i bez żadnego związku pojawić się dane dotyczące zdrowia pracowników – mówił mec. Piechocki.
Czytaj też w LEX: Budowa systemu zarządzania ryzykiem wdrażania mechanizmów opartych o AI w organizacji zgodnie z normami ISO i dobrymi praktykami >
Kiedy wejdą w życie kolejne przepisy AI Act
Zgodnie z aktualnym brzmieniem AI Act, przepisy o systemach wysokiego ryzyka powinny wejść w życie 2 sierpnia 2026 r. W listopadzie ub.r. KE przedstawiła jednak pakiet deregulacyjny Digital Omnibus, który zakłada m.in. ich odroczenie o maksymalnie 16 miesięcy.
- Po ogłoszeniu projektu Digital Omnibus stało się jasne, że prace nad wytycznymi stracą impet. Pamiętajmy jednak, że cały czas Digital Omnibus pozostaje jedynie propozycją legislacyjną – zwraca uwagę mec. Zalewski.
Czytaj też w LEX: Wykorzystanie narzędzi opartych o sztuczną inteligencję w pracy sędziego, asystenta sędziego i referendarza sądowego >
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów LEX jest zależny od posiadanych licencji.






