Coraz więcej firm jeśli już nie korzysta, to przynajmniej jest zainteresowana korzystaniem ze sztucznej inteligencji. Usprawnia ona funkcjonowanie firm i ułatwia zarządzanie organizacją. Jej rola nie sprowadza się jednak do przygotowania i przeprowadzenia rekrutacji czy tworzenia pism i komunikatów wysyłanych przez działy kadrowe do pracowników.
- Sztuczna inteligencja coraz mocniej wchodzi do codziennej pracy działów HR, managerów oraz wszystkich pracowników. Zmienia sposób planowania czasu pracy, komunikacji, tworzenia treści, obsługi procesów administracyjnych czy analizowania danych o zatrudnieniu. Ta zmiana nie jest już przyszłością, ale rzeczywistością, do której organizacje muszą się świadomie przygotować – mówi serwisowi Prawo.pl Monika Smulewicz, założycielka HR na Szpilkach oraz Eduwersum Collegium Rozwoju HR.
Czytaj również: Pracownik może stracić pracę za wyręczanie się sztuczną inteligencją >>
Są korzyści i wyzwania
Zdaniem Smulewicz AI realnie odciąża działy kadrowo-płacowe i HR-owe, przejmując proste zadania oraz rutynowe czynności jak generowanie dokumentów, przygotowywanie zestawień, wstępna analiza danych czy odpowiadanie na powtarzalne pytania pracowników. Dzięki temu kadrowe zyskują czas na analizę, planowanie i konsultacje. AI wspiera też spójność i poprawność danych, dzięki czemu łatwiej utrzymać zgodność z prawem pracy i wewnętrznymi regulacjami. Dodatkowo narzędzia oparte na AI pozwalają szybko porównywać scenariusze zatrudnienia, monitorować absencje i planować obciążenie zadaniami.
- Managerowie otrzymują dostęp do prostych analiz dotyczących zespołu, które wcześniej wymagały pracy kilku osób. AI pomaga w planowaniu pracy, ocenie obciążenia pracą i wychwytywaniu niepokojących trendów, na przykład rosnącej absencji lub spadku efektywności. Dzięki narzędziom opartym na danych łatwiej też prowadzić rozmowy rozwojowe i opierać decyzje o faktach, a nie intuicji. AI może służyć jako wsparcie w komunikacji i organizacji pracy, ale nie zastępuje managera w roli lidera i to jest granica, o której trzeba pamiętać – podkreśla Monika Smulewicz. Jak twierdzi, dzięki AI pracownicy dostają sprawniejszą obsługę procesów, szybki dostęp do informacji oraz powtarzalnych odpowiedzi bez czekania na HR. Narzędzia ułatwiają planowanie czasu pracy, wnioski urlopowe, potwierdzanie obecności czy wgląd w swoje dane kadrowe. AI może również wspierać rozwój zawodowy, podpowiadając ścieżki kompetencyjne, kursy czy obszary do wzmacniania.
Polecamy też szkolenie online: Sztuczna inteligencja w HR >
Jak jednak zauważa Monika Smulewicz, rozwój AI nie jest neutralny. Wraz z korzyściami pojawia się szereg wyzwań. - Najważniejsze to brak zrozumienia, jak działają narzędzia i gdzie kończy się ich odpowiedzialność. Zbyt duże poleganie na AI może prowadzić do błędów, bo system nie zna kontekstu kultury organizacyjnej ani niuansów prawa pracy. Istnieje też ryzyko, że automatyzacja odhumanizuje relację pracownik organizacja, jeśli HR zapomni o utrzymaniu bezpośredniego kontaktu. Kolejne zagrożenie to prywatność i bezpieczeństwo danych. AI przetwarza ogromne zbiory informacji, co wymaga jasnych zasad i odpowiedzialnych decyzji przy doborze narzędzi – mówi Smulewicz. Według niej AI nie zastąpi człowieka. Zmienia jednak zakres odpowiedzialności i wymagane kompetencje. - HR i managerowie muszą uczyć się pracy z danymi, rozumieć ograniczenia technologii i świadomie projektować procesy, tak by były zgodne z prawem i etyczne. AI może usprawnić organizację, ale tylko wtedy, gdy w centrum pozostaje człowiek. Technologia ma wspierać, a nie przejmować relacje – zaznacza.
W opinii Moniki Smulewicz, to jest moment, w którym każda organizacja powinna zadać sobie pytanie o dojrzałość cyfrową i gotowość na przyszłość. Firmy, które połączą technologię z mądrym, ludzkim podejściem, zyskają przewagę. Te, które pójdą w stronę bezrefleksyjnej automatyzacji, stracą zaufanie pracowników.
Czytaj też w LEX: Odpowiedzialność za korzystanie przez pracowników z narzędzi AI >
Cena promocyjna: 228.65 zł
|Cena regularna: 269 zł
|Najniższa cena w ostatnich 30 dniach: 188.3 zł
Kiedy AI może stać się narzędziem ryzyka
- Zarządzanie ryzykiem związanym z systemami sztucznej inteligencji powinno być skrojone pod organizację – mówi dr Maria Dymitruk, radczyni prawna, Counsel, liderka specjalizacji Sztuczna Inteligencja w kancelarii Lubasz i Wspólnicy. I przypomina, że zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji, dalej: AI Act), obowiązkiem każdego pracodawcy jest zadbanie o przeszkolenie swojej załogi w korzystaniu ze sztucznej inteligencji w pracy. Wynika to z art. 4 AI Act, zgodnie z którym dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane.
Czytaj też w LEX: Przetwarzanie danych osobowych pracowników przy pomocy AI >
Jak twierdzi dr Maria Dymitruk, są sytuacje, kiedy AI może stać się narzędziem wysokiego ryzyka. Tak może się stać, gdy firma kupuje dla działu HR software do zarządzania zasobami ludzkimi mający wszyte funkcjonalności AI. – Jeżeli oprogramowanie jest wykorzystywane np. do monitorowania wydajności pracy lub oceny efektywności pracowników – np. może porównywać pracowników, kto zarobił więcej pieniędzy dla firmy, kto obsługiwał więcej klientów, może ewidencjonować ich czas pracy czy dni wolne, to w efekcie staje się ono narzędziem wysokiego ryzyka. A to oznacza m.in., że w myśl art. 26 ust. 7 AI Act, przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy pracodawcy mają poinformować przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka – podkreśla dr Dymitruk. Trzeba wobec nich wypełnić również obowiązki przejrzystości, nadzoru człowieka oraz cały szereg dalszych wymogów opisanych w sekcji 2 rozdziału III AI Act. Ich spełnienie wymaga starannego zaplanowania, aby uniknąć sytuacji, w której brak gotowości w zakresie compliance skutkuje nałożeniem kar finansowych przewidzianych w rozporządzeniu.
Zobacz też szkolenie online: Akt w sprawie sztucznej inteligencji (AI Act) i RODO – punkty styku, podobieństwa i róż >
Sprawdź również książkę: AI Act. Europejska regulacja sztucznej inteligencji [PRZEDSPRZEDAŻ] >>
Podstawowe zasady, które powinny być przestrzegane
Na co zatem powinny zwracać wagę firmy, które będą decydowały się na wdrożenie u siebie sztucznej inteligencji?
- To zależy od tego, do jakich celów będziemy chcieli ją wykorzystać. Jeżeli do pisania dokumentów, które nie ujawnią informacji o firmie, szczególnie tych poufnych lub danych osobowych, to nie ma problemu – można korzystać nawet z zewnętrznych systemów – mówi Artur Piechocki, radca prawny, założyciel kancelarii APLAW, współzałożyciel i prezes Sądu Polubownego ds. Domen Internetowych przy Polskiej Izbie Informatyki i Telekomunikacji (PIIT). Warto również brać pod uwagę ochronę praw autorskich. – Równie ważne jest cyberbezpieczeństwo, np. niekorzystanie z rozwiązań niewiadomego pochodzenia. – Są aplikacje AI, które mogą mieć tzw. zatrute dane, a nawet systemy AI, których wyłącznym zadaniem jest wykonanie autonomicznego ataku. Dlatego najlepiej jest korzystać ze sztucznej inteligencji przygotowanej dla naszej firmy, którą można testować i wykorzystywać w obrębie własnej organizacji, ucząc ją, walidując, testując wyłącznie na własnych danych, bez kontaktu z systemami zewnętrznymi – podkreśla mec. Artur Piechocki. I dodaje: - To są podstawowe zasady higieny korzystania z AI. Dodatkowo, istotne dla korzystania ze sztucznej inteligencji, jest posiadanie eksperta, który będzie w stanie zweryfikować wszystko to, co sztuczna inteligencja wytworzy. Bo sztuczna inteligencja często „halucynuje”, np. powiela szkodliwe schematy, tworzy nieistniejące dane. Bez takiego eksperta w firmie nie ma co sobie zawracać głowy korzystaniem z AI, bo ryzyko jest większe niż zalety.
Zobacz też w LEX: Sztuczna inteligencja w HR – jakie prawa ma pracownik, a jakie obowiązki pracodawca? >
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.









