Świat zachłysnął się możliwościami generatywnej sztucznej inteligencji (AI), sam Chat GPT - najpopularniejszy, choć przecież niejedyny, ma już ponad 100 milionów użytkowników. Pytania, które mu zadają, dotyczą wszelkich nurtujących ich kwestii - niektórzy chcą wiedzieć, czy będzie dla nich miejsce w świecie zdominowanym przez AI, inni chcą w końcu poznać najlepszy przepis na wielkanocny żurek, jeszcze inni chcą rozwiązania swoich codziennych zawodowych problemów.

Czytaj: ​Praca dyplomowa od ChataGPT to kwestia czasu - część uczelni tworzy rekomendacje>>

AI, powiedz mi, jak mam to zaprogramować

Nieważne, czy w grę wchodzi trzecia, czy czwarta rewolucja przemysłowa - jedno jest pewne, ludzie rzadko czytają regulaminy korzystania z aplikacji. Mało kto, wpisując komendy do Chata GPT, zastanawia się, czy przypadkiem nie zdradził mu zastrzeżonych informacji - czy to objętych ochroną danych osobowych, czy to będących tajemnicą przedsiębiorstwa. Oczywiście sama AI zarzeka się, że "jako model językowy" żadnych danych nie przetwarza i nie gromadzi, ale lepiej te zapewnienia traktować z dużą dozą dystansu.

Czytaj w LEX: Tajemnica przedsiębiorstwa - pracownik objęty tajemnicą aż do śmierci >>

 

Poza tym nawet jeżeli nie przetwarza historii naszych zapytań, to cały czas uczy się na ich podstawie - również rozwiązywania problemów. Pracownicy jednego z gigantów technologicznych prosili AI o wygenerowanie odpowiedzi na swoje pytania dotyczące ich codziennej pracy programistycznej i projektowej - skutkiem ubocznym tego procesu było ujawnienie szerokiemu gronu ludzi informacji na temat rozwiązań, nad którymi ta firma pracuje. A to może wiązać się z konkretną szkodą dla pracodawcy.

Czytaj w LEX: Tajemnica wynagrodzeń za pracę w stosunkach pracy >>

Zwolnienie, a nawet odpowiedzialność odszkodowawcza

- Chat GPT jest zaprogramowany w ten sposób, że uczy się na podstawie dostarczanych mu danych. Tym samym w nadchodzących latach powinien on być coraz bardziej precyzyjny i dostosowany do potrzeb użytkowników. Wadą tego rozwiązania jest jednak to, że wprowadzane do Chata GPT dane są przesyłane i przechowywane na zewnętrznych serwerach. Dodatkowo, dane takie mogą zostać ujawnione także innym użytkownikom, w tym konkurencji - mówi Kinga Krzysztofik, prawniczka w PCS Paruch Chruściel Schiffter Stępień Kanclerz Littler. - To oznacza, że pracodawcy powinni zwrócić uwagę pracowników na wiążące się z tym zagrożenia. Jednym z podstawowych obowiązków pracowników jest zachowanie w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę oraz dbałość o dobro zakładu pracy. Ujawnianie poufnych informacji na zewnątrz będzie zatem w tym wypadku stanowiło naruszenie podstawowych obowiązków pracowniczych. Uważamy, że w niektórych okolicznościach może mieć ono nawet charakter ciężki, a tym samym skutkować dyscyplinarnym rozwiązaniem umowy - podkreśla.

Czytaj w LEX: Bednarz Marlena - Tajemnice pracodawcy tajemnicami pracownika >>

Wtóruje jej adwokat Bartosz Wszeborowski, starszy prawnik w PCS Paruch Chruściel Schiffter Stępień Kanclerz Littler. - Dane przekazywane do Chata GPT mogą mieć charakter danych osobowych czy tajemnicy przedsiębiorstwa. W wypadku takich naruszeń pracownik będzie mógł ponosić odpowiedzialność także z tego tytułu, tj. np. z uwagi na ujawnienie informacji stanowiących tajemnicę przedsiębiorstwa. A to może stanowić nawet podstawę do pociągnięcia takiego pracownika nawet do odpowiedzialności karnej. Pracownicy powinni mieć zatem świadomość, że otwartość na nowe technologie może słono kosztować – i to nie tylko pracodawcę, ale również ich samych - podkreśla.

Czytaj w LEX: Ochrona tajemnicy przedsiębiorstwa w postępowaniu przed Prezesem UOKiK >>

AI jak Sherlock Holmes na sterydach - rozwiązania może się domyślić

Według adwokata Waldemara Urbanowicza z kancelarii Gujski, Zdebiak, sprawa nie jest jednoznaczna, bo nie ma na razie żadnych krajowych regulacji prawnych dedykowanych wyłącznie sztucznej inteligencji, które w sposób kompleksowy wyczerpywałby temat, choć są akty, które częściowo odnoszą się do tego aspektu, jak Krajowa Strategia Sztucznej Inteligencji, która zawiera zasady i cele związane z rozwojem i wykorzystaniem AI w Polsce. Strategia ta uwzględnia kwestie etyczne, społeczne, technologiczne oraz edukacyjne związane z rozwojem sztucznej inteligencji. Można też odwoływać się do RODO, jak zresztą zrobiły Włochy, zakazując używania Chata GPT.

Czytaj w LEX: Umowna modyfikacja ram temporalnych obowiązku zachowania tajemnicy przedsiębiorstwa po ustaniu stosunku pracy >>

 

- Bezsprzecznie występująca sytuacja związana z rozproszeniem przepisów wymaga szybkiej interwencji ustawodawcy, który z wyprzedzeniem powinien opracować kompleksowe przepisy dotyczące AI – podobnie zresztą jak inne kraje. Obecnie może się okazać, że pracodawcy trudno będzie udowodnić, że pracownik, rozmawiając z Chatem GPT, zdradził tajemnicę przedsiębiorstwa – o ile oczywiście nie będzie to wynikało wprost z prowadzonej rozmowy tj. z zapisu chatu. Wymaga to jednak szczegółowej weryfikacji zapisów takich rozmów i zbadania jakie dane - informacje trafiły do AI – albowiem może się zdarzyć, że pracownik wpisał jakiś drobny fragment kodu, a to AI samodzielnie dostrzegła powiązania i z powodzeniem przejrzała – odkryła, jak wygląda dane rozwiązanie technologiczne (wpadła na ten sam pomysł i rozwiązanie co twórcy danego opracowania). W takiej sytuacji ocenie, w zakresie postępowania pracownika podlegać będzie to czy wprowadzony fragment kodu był prawnie chroniony, czy pracownik wprowadzając ten wycinek kodu naruszył obowiązujące w firmie polityki bezpieczeństwa oraz czy w tym przypadku doszło do ujawnienia jakiejkolwiek tajemnicy przedsiębiorstwa - mówi mec. Urbanowicz. Podkreśla, że dopiero wyjaśnienie tych wątków pozwoli na ocenę jak należy kwalifikować działania pracownika i czy w związku z tym pracodawca ma podstawy do wyciągnięcia jakiejkolwiek odpowiedzialności w odniesieniu do pracownika.

Czytaj w LEX: Umowy cywilnoprawne z klauzulami poufności w procesie udostępniania informacji publicznej >>

Politykę firmy lepiej zaktualizować szybko

- Co może zrobić pracodawca, żeby zabezpieczyć się przed takim niechcianym wyciekiem? W pierwszej kolejności powinien on uświadomić swoich pracowników w jaki sposób działa Chat GPT. Pomocne do tego może być wprowadzenie procedury ochrony informacji poufnych lub jej aktualizacja. Inny sposób zwalczania takich naruszeń może polegać na wprowadzeniu monitoringu aktywności pracownika w sieci - mówi mec. Wszeborowski.

Zobacz nagranie szkolenia w LEX: Prawne aspekty sztucznej inteligencji >

To samo zaleca mec. Urbanowicz. - Z uwagi na aktualny stan braku dedykowanej regulacji dotyczącej AI firmy powinny rozważyć jak najszybsze wprowadzenie (lub dostosowanie) wewnętrznych polityk firm do aktualnej sytuacji i to nawet pomimo faktu, że Chat GPT jest nowym narzędziem.  Pozwoli to firmom uniknąć ryzyka w przyszłości oraz umożliwi dookreślenie wewnętrznych polityk bezpieczeństwa do jakich powinni stosować się pracownicy - podkreśla.

Czytaj w LEX: Sztuczna inteligencja tworzona przez człowieka, ukierunkowana na osobę ludzką i przez nią kontrolowana >

 

Nowość
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź