Na co dzień mało kto z nas ma świadomość tego, jak często do czynienia ma ze sztuczną inteligencją (AI). No chyba, że na wstępie rozmowy sama się przedstawi z imienia, jak to bywa w kontaktach np. z bankiem. Jednak to, co może być pomocne w prowadzeniu własnego konta na portalach społecznościowych czy portalach dla profesjonalistów, gdy wpisy sama pisze AI według oczekiwań danej osoby, może okazać się wręcz niebezpieczne, gdy korzystanie z nowych możliwości technologicznych odbywa się bezrefleksyjnie, np. w pracy przy tworzeniu analiz, raportów czy nawet firmowych prezentacji, „karmiąc” ogólnodostępną w internecie sztuczną inteligencję np. danymi finansowymi przedsiębiorstwa, w którym pracuje dana osoba. Bo w ten sposób można doprowadzić do wypływu poufnych danych pracodawcy, który będzie miał prawo wyciągnąć wobec winowajcy konsekwencje. Zasłanianie się tym, że nie ma polskich przepisów, które regulowałyby wykorzystanie sztucznej inteligencji w pracy, na niewiele się zda. 

Czytaj również: Sztuczna inteligencja dużo może, także rozpowszechnić firmowe tajemnice>>

 

AI obsłuży rekrutację, a dla ZUS wytypuje osoby do kontroli

- Sztuczna inteligencja jest wykorzystywana do wielu celów – m.in. do rekrutacji pracowników, w tym do segregacji CV, do analizy treści CV, po to, żeby znaleźć odpowiednich kandydatów, a później by wybrać tych preferowanych. Sztuczna inteligencja jest również stosowana przy zarządzaniu HR w firmach. Jeżeli znamy strukturę organizacyjną firmy i jej funkcjonowanie, wiemy, czym zajmuje się firma, jakie są działy i kto za co odpowiada, jakie są potrzeby biznesowe, w których realizację należy wdrożyć pracowników, to łatwo jest stwierdzić, gdzie występuje największe zapotrzebowanie na pracowników, na dodatkowe kadry, a w których miejscach nie ma sensu utrzymywać nadmiaru pracowników, ponieważ przewidywane potrzeby biznesowe będą malały. Sztuczna inteligencja może pomóc w takiej analizie i w całościowej strategii HR dla firmy – mówi serwisowi Prawo.pl Artur Piechocki, radca prawny, założyciel kancelarii APLAW, współzałożyciel i prezes Sądu Polubownego ds. Domen Internetowych przy Polskiej Izbie Informatyki i Telekomunikacji (PIIT). I dodaje: - Sztuczna inteligencja może także weryfikować to, jak bardzo obciążone pracą są poszczególne grupy pracowników i jakie są ich wyniki w pracy. Może więc prowadzić analitykę i na tej podstawie oceniać całe zespoły czy działy, pod kątem poprawy wyników, po to, żeby np. kogoś zatrudnić albo ze względu na przerost zatrudnienia zmniejszyć potrzeby kadrowe, jeśli okaże się, że nie jest w pełni wykorzystywany czas pracy. Sztuczna inteligencja może zatem zostać użyta w wielu aspektach relacji human resources. Natomiast na gruncie unijnego AI ACT dopuszczalność użycia poszczególnych systemów sztucznej inteligencji została zróżnicowana według ryzyka, jakie one ze sobą niosą głównie dla praw podstawowych i wolności osób fizycznych. 

Zobacz też szkolenie online: Akt w sprawie sztucznej inteligencji (AI Act) i RODO – punkty styku, podobieństwa i róż >

Jak podkreśla mec. Piechocki, w tym kontekście zakazane są na przykład systemy sztucznej inteligencji, które stosują metody manipulacji, wpływu podprogowego na osoby, na przykład pracowników albo np. teoretycznie mogą być stosowane systemy AI, które potrafią podprogowo działać na potencjalnych kandydatów po to, by uatrakcyjnić ofertę pracodawcy.

Poza zakazanymi systemami AI, ustawodawca unijny wyróżnił takie, które mogą stwarzać wysokie ryzyko, ale można je stosować przy odpowiedniej ocenie tego ryzyka dla praw i wolności człowieka i zastosowaniu rozwiązań, które sprowadzają to ryzyko do poziomu ryzyka „dopuszczalnego”. Te systemy wymagają dobrego udokumentowania, zastosowania zabezpieczeń z zakresu cyberbezpieczeństwa, weryfikacji danych wsadowych i modelu, który stosujemy oraz sprawdzenia, czy wyniki, które są otrzymywane nie wpływają negatywnie na pracowników. Takie systemy mogą być stosowane dla różnych celów, nie ograniczają się one do np. rekrutacji, mogą służyć do zarządzania kadrami, weryfikacji jakości, efektywności pracy itp.

Kolejny rodzaj AI to systemy dopuszczone do używania przy zachowaniu minimalnych warunków, np. kodeksów etycznych, a na końcu są systemy, które nie niosą żadnego ryzyka, jak chociażby automatyczne, oparta na AI systemy do filtrowania spamu podczas działań rekrutacyjnych.

Polecamy też szkolenie online: Sztuczna inteligencja w HR > 

Do korzystania ze sztucznej inteligencji przyznaje się też ZUS.  Zakład przetwarza ok. 200 TB danych o swoich klientach. To tyle, ile 78 mln stron dokumentów tekstowych czy PDF. Samych zwolnień lekarskich jest ok. 2 mln miesięcznie. Jak twierdzi Iwona Kowalska-Matis, regionalny rzecznik prasowy ZUS na Dolnym Śląsku, taka ilość dokumentacji jest niemożliwa do przerobienia dla pracowników urzędu. Dlatego ZUS postawił na sztuczną inteligencję. Na podstawie posiadanych przez ZUS danych specjalne algorytmy wyodrębniają elementy ryzyka, a następnie zostają im przypisane wagi. - W ten sposób kalibrowane są algorytmy w ZUS, pozwalające na skuteczniejsze typowanie przypadków do sprawdzenia. Tak jest w przypadku zwolnień lekarskich – mówi Iwona Kowalska-Matis. I dodaje: -  Mamy specjalny algorytm, który typuje do kontroli losowo wybrane osoby, ale też tych ubezpieczonych, u których widać pewien trend w działaniu. System wyłapuje np. osoby, które często biorą zwolnienia lekarskie u kilku lekarzy.

Według rzeczniczki, gdyby nie elektronizacja, ZUS potrzebowałby znacznie więcej pracowników niż obecnie zatrudnia.

 

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

Czy pracownik może ułatwić sobie pracę korzystając z AI?

Jeżeli chodzi o stosowanie przez samych pracowników rozwiązań bazujących na AI, to w opinii mec. Artura Piechockiego, na gruncie prawa pracy, prawa autorskiego i innych aktów prawnych chroniących dobra należące do pracodawcy (np. tajemnica przedsiębiorstwa) lub stron trzecich, to wszystko zależy od tego, czy chcemy dzielić się danymi i czy korzystamy z systemów otwartych, np. ChatGPT, szczególnie gdy w ramach promptów / zapytań wysyłamy dane firmowe, które ChatGPT przypuszczalnie przetwarza. – W ten sposób możemy naruszać nie tylko tajemnice przedsiębiorstwa, ale również bezpieczeństwo danych osobowych. Trzeba więc bardzo uważać. I to jest pierwszy aspekt. Drugi – jeżeli już korzystamy z czegoś, co znajduje się w internecie, to trzeba czasami zastanowić się nad tym, czy to nie jest objęte czyimiś prawami autorskimi – tłumaczy. I wskazuje, że jeżeli u pracodawcy jest zakaz korzystania z komputerów do celów innych niż służbowe, to pracownik korzystający dla własnych celów z ChatGPT przede wszystkim narusza ten zakaz. Natomiast jeżeli takiego zakazu nie ma, a pracownik dla celów prywatnych wpisuje do ChataGPT: zorganizuj mi wycieczkę do Norwegii i wskaż najciekawsze miejsca, to wtedy nie ma tego problemu, bo nie ujawnia żadnych danych.

- Pracodawcy w jakiejś części już korzystają ze sztucznej inteligencji do prostych, powtarzających się czynności, ale jest to AI, do której dostęp jest odpłatny i zapewnia w jakimś stopniu ochronę. Sztuczna inteligencja traktowana jest bowiem jako narzędzie optymalizacyjne, w HR i w rekrutacji. Większy problem pojawia się, gdy pracownik korzysta ze sztucznej inteligencji, np. ogólnodostępnego w internecie chataGPT, przy wykonywaniu swoich obowiązków, nie informując o tym pracodawcy albo wbrew jego zakazowi - mówi Katarzyna Siemienkiewicz, ekspert ds. prawa pracy Pracodawcy RP. Jej zdaniem, pracodawca może uregulować korzystanie z AI w regulaminie pracy, mimo że nie ma przepisów rangi ustawowej, które stworzyłyby ramy prawne. – Nieprzestrzeganie zasad wewnętrznych i korzystanie z AI przy wykonywaniu obowiązków przez pracowników wiąże się z ryzykiem dla pracodawcy ujawnienia tajemnicy przedsiębiorstwa, gdy dane firmy trafią do internetu. Negatywne mogą być też  konsekwencje dla pracownika. Jeśli jest on twórcą i w ramach stosunku pracy dochodzi do przeniesienia praw autorskich na pracodawcę, to w takiej sytuacji – gdy wytworem pracy pracownika jest analiza, raport czy inny dokument, to nie będzie można mówić o prawie autorskim do całego dzieła, tak jak to ma miejsce, gdy pracownik wytworzy je sam w całości, a w konsekwencji – nie on miał prawa do części wynagrodzenia jako twórcy – podkreśla Katarzyna Siemienkiewicz. I dodaje: - UE co prawda dopiero pracuje nad AI Act, ale już teraz pracodawcy powinni myśleć o potencjalnych skutkach jej stosowania w biznesie. Bo może okazać się, że jakiś klient zawrze umowę na jakichś warunkach, a potem dowie się, że to, co sprzedała mu ta firma, sam mógł wytworzyć przy pomocy AI. Wszystko podlega weryfikacji, dlatego korzystając z AI należy weryfikować wszystko, co ChatGPT zaproponuje.

Czytaj też w LEX: Dane w inteligentnej fabryce - aspekty prawne >

W opinii Katarzyny Siemienkiewicz, jeżeli w firmie nie było regulacji dotyczącej korzystania ze sztucznej inteligencji, a pracownik korzystając z pomocy AI stworzył jakieś wewnętrzne sprawozdanie czy raport, doprowadzając w ten sposób do wycieku danych przedsiębiorstwa doi internetu,  to w grę wchodzić może naruszenie obowiązków pracowniczych. Jeśli natomiast był regulamin albo był wręcz wyraźny zakaz wykorzystywania jej w pracy, to będzie można mówić o rażącym naruszeniu obowiązków pracowniczych i w konsekwencji – zwolnieniu dyscyplinarnym na podstawie art. 52 kodeksu pracy. Dlatego, jak twierdzi, jeżeli już, to lepszym rozwiązaniem jest wykupienie przez pracodawcę dostępu do bezpieczniejszej wersji AI i zapewnienie dostępu do niej pracownikom na komputerach pracodawcy.

Polecamy też szkolenie online: Sztuczna inteligencja: zrozumieć, opanować, zastosować. Prawne aspekty funkcjonowania >

Zdaniem dr Iwony Jaroszewskiej-Ignatowskiej, radcy prawnego, partnerki zarządzającej kancelarią People & Law Jaroszewska-Ignatowska Sarek-Sadurska, to, jakie konsekwencje może ponieść pracownik za korzystanie w pracy ze sztucznej inteligencji, zależy od tego, czy pracodawca wyraźnie zakazał korzystania z AI, czy nie. – Zależy również od tego, w jakim zakresie i do czego pracownik używa sztucznej inteligencji. Nawet jeżeli pracodawca nie uregulował korzystania ze sztucznej inteligencji w pracy, a pracownik korzysta z AI ogólnodostępnej, na służbowym komputerze, to naraża się na konsekwencje. Jeszcze większe sankcje mogą go spotkać, jeżeli korzysta ze sztucznej inteligencji wbrew wyraźnemu zakazowi pracodawcy. W tym przypadku może się to skończyć rozwiązaniem umowy o pracę bez wypowiedzenia. Może się bowiem narazić na zarzut ujawnienia informacji stanowiących tajemnicę przedsiębiorstwa – mówi dr Iwona Jaroszewska-Ignatowska. I dodaje: - Na rynku dostępne są AI, które są dedykowane tylko dla firm, żeby zapewnić ochronę danych. Jeśli więc pracodawca dopuszcza korzystanie w pracy ze sztucznej inteligencji przez  pracowników, to lepiej, żeby zapewnił pracownikom bezpieczny dostęp na służbowych komputerach, aby mieć pewność, że jego dane są bezpieczne. Warto także, by uregulował zasady korzystani z AI obowiązuję w jego firmie.

Czytaj też w LEX: Nomadyczność w cyfrowej erze pracy - wpływ na pojęcie miejsca i czasu pracy >