AI Act za rogiem, urzędy muszą pilnie uregulować korzystanie z chatbotów
Urzędnicy powszechnie korzystają w pracy ze sztucznej inteligencji. Większość robi to bez wiedzy i nadzoru pracodawcy, narażając urzędy na wycieki danych, błędne decyzje i poważne konsekwencje prawne. Tylko nieliczne samorządy uregulowały zasady korzystania z narzędzi opartych na AI. I nie spieszą się ze zmianami, choć wkrótce zacznie obowiązywać unijny AI Act. Eksperci ostrzegają, że skala tzw. shadow AI w administracji rośnie, a nadzór praktycznie nie istnieje.

Na powszechne stosowanie AI w urzędach wskazują sondażowe badania Fundacji Miasto i Związku Miast Polskich z 2025 roku zrobione wśród ośrodków członkowskich ZMP. To pierwsze i jedyne tego typu ogólnopolskie badanie w kraju. Okazuje się, że 50 proc. urzędników z 79 miast używało AI (ChatGPT, Copilot, Claude). Na własną rękę, bo rozwiązania oparte na sztucznej inteligencji systemowo wdrożyło zaledwie 27,5 proc pytanych jednostek samorządu terytorialnego. Problem Shadow AI, czyli korzystanie ze sztucznej inteligencji bez wiedzy i nadzoru pracodawcy, występuje w różnych organizacjach, jednak w urzędach jest wyjątkowo ryzykowne.
Najbardziej oczywistym zagrożeniem jest naruszenie ochrony danych osobowych poprzez wprowadzenie do publicznych narzędzi AI informacji dotyczących obywateli jako elementu zapytania (promptu). W podobny sposób może dojść do ujawnienia tajemnic prawnie chronionych, takich jak tajemnica skarbowa czy inne informacje objęte szczególnym reżimem poufność – tłumaczy Paweł Dymek, radca prawny z kancelarii prawniczej Głowacki i Wspólnicy.
Generatywna AI może wpływać na jakość decyzji administracyjnych. Mec. Dymek podkreśla, że narzędzia te mogą generować nieistniejące orzeczenia, powoływać się na nieaktualne przepisy lub przedstawiać wadliwą analizę prawną. A pokusa szybkiego przygotowania uzasadnienia przy użyciu AI może prowadzić do bezrefleksyjnego przejmowania błędnych treści, a w konsekwencji do wydania decyzji niezgodnej z prawem. Wskazuje, że niekontrolowane korzystanie z AI grozi szkodą po stronie obywatela, odpowiedzialnością prawną urzędu oraz erozją zaufania do instytucji publicznych.
Odpowiedzialność za skutki wykorzystania AI w administracji, zwłaszcza przy braku wewnętrznych regulacji, kształtuje się na dwóch poziomach.
Wobec podmiotu poszkodowanego, co do zasady, odpowiada urząd, czyli Skarb Państwa lub jednostka samorządu terytorialnego, ponieważ to on wykonuje władzę publiczną i ponosi odpowiedzialność za niezgodne z prawem decyzje lub działania. Niezależnie od tego, odpowiedzialność może ponosić także konkretny urzędnik – tłumaczy mec. Dymek.
Zauważa, że funkcjonariusze publiczni w przypadku rażącego naruszenia prawa będą odpowiadać majątkowo na zasadach określonych w ustawie o odpowiedzialności majątkowej funkcjonariuszy publicznych za rażące naruszenie prawa. Co do zasady, w takim wypadku odpowiedzialność jest podwyższona, a limit odpowiedzialności wynosi do dwunastokrotności miesięcznego wynagrodzenia.
Kierownictwo urzędów wykazuje pewną świadomość zagrożeń, gdyż “obawy o bezpieczeństwo danych” są wskazywane jako główna bariera w miastach, które jeszcze nie wdrożyły AI. Tak wynika z 52 procent odpowiedzi. Jednocześnie raport zauważa, że miasta nie zakazują indywidualnego korzystania z narzędzi AI, ale brak strategii i programów wspierających wskazuje na lukę w nadzorze nad tym procesem - ocenia Adam Mikołajczyk, ekspert ds. Zrównoważonego Marketingu Miejskiego z Fundacji Miasto, która współprowadziła sondaż “AI w Jednostkach Samorządu Terytorialnego”.
JST oczekują szkoleń i grantów
Tam gdzie AI jest używana, instytucjonalnie służy przede wszystkim do automatyzacji dokumentów i procesów biurowych (63 proc.), promocji miast i turystyki oraz w mniejszym stopniu w bezpieczeństwie (monitoring i systemy bezpieczeństwa publicznego), transporcie i monitoringu środowiska. Jednak regulaminy korzystania z narzędzi opartych na technologii sztucznej inteligencji w JST to rzadkość. Taką regulację ma tylko 8 proc. badanych samorządów. Dokumenty porządkujące użycie rozwiązań opartych na AI wprowadził zarządzeniem m.in. prezydent Inowrocławia oraz marszałek województwa podlaskiego.
Z sondażu wynika, że nad strategiami AI pracowało 20 proc. badanych samorządów.
Większość urzędów nie ma sprecyzowanych planów ani pomysłów na przyszłe wdrożenia, a temat AI nie jest jeszcze ujęty w dokumentach strategicznych dla 60 proc. badanych. Podejście do korzystania z AI przez pracowników jest określane jako "raczej neutralne". Miasta nie zakazują tej praktyki, ale też nie budują aktywnie strategii wspierających pracowników - mówi Adam Mikołajczyk.
Urzędy tłumaczą, że nie mają wystarczającej wiedzy o narzędziach AI, przepisy są niejasne, brak im też kompetencji i wyspecjalizowanych pracowników, aby opracować takie dokumenty.
Dla jednej trzeciej samorządów barierą jest “niechęć urzędników do nowych technologii”. Z badań wynika też, że JST oczekują szkoleń i grantów. Jasno spisanych zasad brakuje nawet jeżeli narzędzie oparte na sztucznej inteligencji są oficjalnie stosowane przez JST.
Wskazuje na to raport fundacji Obywatelski Akcelerator Innowacji z listopada 2025 roku. Zebrane przez fundację informacje z kilkunastu samorządów dowodzą, że wiele urzędów i instytucji nie jest przygotowanych do przejrzystego i odpowiedzialnego korzystania z narzędzi opartych na AI. Nawet jeżeli urzędy oficjalnie twierdzą, że nie stosują sztucznej inteligencji, to robią to ich jednostki podległe lub spółki.
AI Act – urzędy mają mało czasu na przygotowanie
Wewnętrzne regulaminy to nie wszystko. Wkrótce samorządy zmierzą się z obowiązkami nałożonymi przez unijne regulacje. AI Act wymaga m.in. aby urzędy szkoliły pracowników z wykorzystania systemów AI (art. 4 Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689, wszedł w życie 2 lutego 2026 r.).
Akt o AI – z wyjątkiem wybranych przepisów – będzie stosowany od 2 sierpnia 2026 r., co oznacza, że w najbliższych miesiącach JST powinny zakończyć przygotowania do pełnego wdrożenia jego wymogów. Organ publiczny wykorzystujący system AI, nad którym sprawuje kontrolę, jest w rozumieniu rozporządzenia „podmiotem stosującym”, a więc adresatem szeregu obowiązków regulacyjnych.
Paweł Dymek podkreśla, że szczególne znaczenie dla administracji mają przepisy dotyczące systemów AI wysokiego ryzyka, w tym systemów wspierających podejmowanie decyzji wpływających na prawa obywateli np. w sprawach dostępu do świadczeń lub usług publicznych.
Jeżeli urząd korzysta z takiego systemu, musi zapewnić stosowanie go zgodnie z instrukcją poprzez wdrożenie odpowiednich środków technicznych i organizacyjnych, zagwarantować rzeczywisty nadzór człowieka wykonywany przez osoby o odpowiednich kompetencjach oraz prowadzić bieżące monitorowanie jego działania – tłumaczy ekspert.
Co to oznacza w praktyce? Wymóg uporządkowania procedur, wyznaczenia odpowiedzialności oraz wdrożenia mechanizmów kontroli przed sierpniem 2026 r.
Jesteśmy w trakcie opracowywania dokumentu w sprawie zasad wdrażania, nadzoru oraz bezpiecznego korzystania z systemów sztucznej inteligencji w Urzędzie Miasta Gdyni zgodnego z EU AI Act – informuje Jakub Winiewski z biura prasowego urzędu.
Gdynia już pilotażowo wprowadza model PLLuM m.in. ułatwiający mieszkańcom wyszukiwanie danych w BIP oraz tworzenie i analizę dokumentów przez urzędników. Zgodnie z Rozporządzeniem o sztucznej inteligencji, kara za nieprzestrzeganie stosowania zakazanych praktyk w zakresie AI sięga do 35 mln euro lub w przypadku przedsiębiorstwa do 7 proc. jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego.
Regulacje AI ułatwią rozwój
Jakie są korzyści z wprowadzenia wewnętrznych regulacji i polityk AI? To przede wszystkim minimalizacja ryzyka i lepsze wykorzystanie potencjału technologii. Według raportu Związku Miast Polskich i Fundacji Miasto, strategiczne podejście do AI zwiększa efektywność operacyjną (oszczędność czasu, poprawa jakości komunikacji i usług). Jasne zasady mogą zmniejszyć obawy o bezpieczeństwo danych i niepewność prawną, które teraz przeszkadzają w rozwoju wielu miast.
Brak strategii jest określany jako „poważne ograniczenie”, które utrudnia planowanie rozwoju miasta; regulacje pozwalają uniknąć chaosu i polaryzacji między miastami pionierskimi, a biernymi. Posiadanie dokumentów programowych ułatwia staranie się o wsparcie systemowe, takie jak granty czy szkolenia - zauważa Adam Mikołajczyk.
Fundacja Miasto pracuje nad modelowym programem adaptacji do wdrożenia AI w miastach, w tym tworzenia kodeksów etycznego, bezpiecznego i efektywnego wykorzystywania narzędzi opartych na algorytmach, a także powoływania koordynatorów do spraw AI.







