Debata poświęcona relacjom między sztuczną inteligencją a danymi osobowymi odbyła się 11 grudnia. Traf chciał, że dzień wcześniej Urząd Ochrony Danych Osobowych zaprezentował wyniki badań dotyczących tej problematyki. Wynika z nich, że aż 58,5 proc. organizacji nie dostrzega związku między wykorzystaniem sztucznej inteligencji a danymi osobowymi, lub nie potrafi go określić (Prawo.pl pisało o tym w tekście: Co wynika za konwencji ramowej ws. AI? Konferencja w UODO). Przyczyny tego braku świadomości naturalnie stała się punktem wyjścia do naszej dyskusji.
Sztuczna inteligencja - co ma do tego RODO?
Michał Starczewski, doktor nauk humanistycznych, radca prawny z kancelarii BWHS, zwrócił uwagę, że narzędzia AI działają bardzo sprawnie i uwadze użytkowników umyka sposób, w jaki one funkcjonują. - Niektórzy myślą: „pracuję z plikami na swoim komputerze, dostaję wyniki – gdzie tu przesyłanie danych osobowych?”. Tymczasem nie jest to komputer użytkownika, lecz chmura znajdująca się zupełnie gdzie indziej – mówił prawnik.
- Bardzo często firmy w ogóle nie analizują tego pod kątem przetwarzania danych osobowych – to pierwszy i podstawowy błąd, zwłaszcza w przypadku mniejszych podmiotów – dodała Martyna Popiołek-Dębska, inspektor ochrony danych, radca prawny prowadząca kancelarię MPD. Jej zdaniem w większych firmach takie analizy co prawda są, ale nie przekładają się na praktykę. - Dajemy narzędzie, mówimy pracownikom, jak mają go używać, a później nikt nie sprawdza, czy faktycznie tak robią. Nawet jeśli wprowadzane są procedury dotyczące korzystania z AI, to w praktyce rzadko są egzekwowane – zauważyła.
Zwróciła też uwagę na mylne przeświadczenie, że przed wprowadzeniem danych do aplikacji takich jak ChatGPT wystarczająca jest prosta anonimizacja, np. zasłonięcie nazwisk. - Ale i tak z ich kontekstu często można wywnioskować informacje o osobach. A to już oznacza przetwarzanie danych osobowych – uczulała prawniczka.
Czytaj też w LEX: Słownik pojęć ze świata sztucznej inteligencji >
Tomasz Zalewski, radca prawny, założyciel kancelarii Zalewski Legal, uważa, że problem zaczyna się od niezrozumienia, czym tak naprawdę jest AI. Jak tłumaczył, jest to po prostu program komputerowy, zwykle udostępniany w modelu Software as a Service (SaaS), czyli przetwarzający dane w chmurze. - A skoro tak, to wszystko co wiemy o przetwarzaniu danych w kontekście usług chmurowych, ma zastosowanie także do sztucznej inteligencji – mówi Tomasz Zalewski. AI ma jednak pewne dodatkowe aspekty. - Tradycyjne oprogramowanie w modelu SaaS przetwarza dane, które wprowadzamy, ale co do zasady dostawca systemu nie wchodzi w interakcję z tymi danymi, chyba że jest to konieczne ze względów serwisowych. Natomiast w przypadku AI pojawia się możliwość wykorzystania danych do trenowania modeli. I tu rodzi się szereg problemów: czy takie dane mogą być wykorzystywane? Co jeśli zawierają dane osobowe? A jeśli tak, to jaka jest podstawa prawna trenowania modeli na tych danych? – kontynuował.
Czytaj też w LEX: Ubezpieczenia OC osób wykonujących wybrane zawody prawnicze w kontekście odpowiedzialności za korzystanie z rozwiązań AI >
AI bez danych osobowych? To niemożliwe
Czy w związku z tym powinniśmy zwracać większą uwagę na to, co umieszczamy w oknie czata, niż na przykład wtedy, gdy wysyłamy coś mailem? Tomasz Zalewski uważa, że jeśli umieszczamy dane, większa ostrożność jest wskazana. - Wiele firm deklaruje, że w ogóle nie wprowadza danych osobowych do systemów AI. Brzmi to dobrze, ale absolutnie nie wierzę, że da się korzystać z modelu AI i całkowicie uniknąć wprowadzania do niego takich danych. Jak wspomniała pani mecenas – wystarczy, że podamy dane, których kontekst pozwala zawęzić grupę osób do kilku, i już mamy dane identyfikujące osobę – mówił.
Zobacz też w LEX: Sztuczna inteligencja w HR – jakie prawa ma pracownik, a jakie obowiązki pracodawca? >
Michał Starczewski zwrócił uwagę, że w przypadku narzędzi AI zagrożeniem jest nie tylko wykorzystanie wprowadzanych danych do trenowania, ale też ich wyciek. Przywołał opisane w mediach przypadki, w których przez nieprzemyślane funkcjonalności czatbotów rozmowy użytkowników, którym nadano status publiczny, zostały zindeksowane w wyszukiwarkach.
- Warto zwrócić uwagę także na to, że rozmowy z chatem AI nie są chronione prawnie. Jeśli włożymy kartkę do koperty i wyślemy, to jej treść jest chroniona tajemnicą korespondencji. Natomiast wszystko, co wpiszemy do czata, nie jest tak chronione. OpenAI postuluje, żeby wprowadzić rodzaj tajemnicy rozmowy z czatem AI, ale to jest na razie pieśń przyszłości. Nie wiem, czy to jest dobry pomysł, ale taki pomysł istnieje - mówił dr Starczewski.
Jego zdaniem jeśli przedsiębiorca zamierza wykorzystywać narzędzia AI do analizy danych, jakie powinny być utrzymane w tajemnicy, to bezpieczniej jest nie korzystać z rozwiązań chmurowych, a postawić na opcje lokalne on-premises. Ma to jednak wady: takie rozwiązanie jest kosztowne i niedostępne w przypadku największych modeli. – Czasem w przypadku danych szczególnie wrażliwych najlepszym rozwiązaniem będzie instalacja modelu LLM na własnym serwerze. Jeśli ryzyko związane z danymi ocenimy jako mniejsze, można przetwarzać te dane w chmurze, mając bezpiecznego dostawcę, sprawdzony regulamin i odpowiednie zabezpieczenia prawne – podsumował mec. Starczewski.
Czy muszę informować klientów o korzystaniu z narzędzi AI? - zobacz w LEX >
Regulaminy AI - na co zwrócić uwagę
Martyna Popiołek-Dębska mówiła o tym, jak ważna jest lektura regulaminu danego modelu. - W regulaminach znajdziemy informacje o tym, co zawierają poszczególne wersje i jakie ryzyka wiążą się z korzystaniem z narzędzia, zarówno w wersji płatnej, jak i bezpłatnej – mówiła. Zaznaczyła, że chodzi nie tylko o ryzyka związane z przetwarzaniem danych osobowych, a także na możliwość utraty poufności informacji czy innych tajemnic.
- Nie powinniśmy traktować regulaminu usług, czyli umowy zawieranej z dostawcą, jako coś standardowego i banalnego. Często regulaminy zawierają pewnego rodzaju smaczki, które są poukrywane. Trudno takie niuanse odkryć, dopóki się nie przeczyta kilku umów – mówił Tomasz Zalewski. - To, że się płaci za narzędzie, nie znaczy, że możemy powierzać dane osobowe w ramach tego narzędzia. Dostawcy za możliwość legalnego przetworzenia danych osobowych zaczęli pobierać specjalne opłaty. Za dokładnie tę samą funkcjonalność, którą mamy w wersji konsumenckiej, natomiast z możliwością podpisania umowy Data Processing Agreement (DPA), czyli umowy powierzenia przetwarzania danych, płacimy zawsze te 5–10 dolarów więcej – wyjaśnił.
Niekiedy podpisanie umowy DPA - pozwalającej na papierze wprowadzać dane zgodnie z RODO - jest możliwe dopiero przy wykupieniu danej ilości subskrypcji. Jak wyliczyła mec. Zalewski, OpenAI wymaga obecnie minimum dwóch subskrypcji, Claude - pięciu, a jedynie Gemini oferuje możliwość podpisania DPA już od jednego stanowiska. Innym razem umowa DPA nie jest oferowana w standardzie, klient musi sam o nią poprosić. - Na przykład Deepl mówi użytkownikom mniej więcej tak: „zabraniamy ci wprowadzania treści zawierających dane osobowe, chyba że podpiszesz z nami umowę DPA, o którą możesz poprosić klikając tu”. Jeżeli nie doczytałbym tego w regulaminie, korzystałbym z narzędzia bez DPA, czyli mówiąc wprost: nielegalnie. I jeżeli miałbym kontrolę z UODO, dostałbym karę – mówił Tomasz Zalewski.
Cena promocyjna: 215.2 zł
|Cena regularna: 269 zł
|Najniższa cena w ostatnich 30 dniach: 215.2 zł
Zgłoszenia do UODO, shadow AI i zero litości
Chociaż praktyka UODO dotycząca zagadnień związanych z AI jeszcze się nie wykształciła, zdarzają się już kierowane do organu zgłoszenia naruszeń RODO związanych z korzystaniem ogólnie dostępnych modeli. Martyna Popiołek-Dębska jest autorką jednego z nich. - Użytkownicy nie mając wiedzy, nie mając świadomości albo ignorując obowiązujące w danym podmiocie instrukcje czy procedury, „wrzucali” dokumenty, które nie były poddane jakiejkolwiek anonimizacji. Narzędzia były bezpłatne, więc nie miały charakteru biznesowego – opisywała. Znana jest jej też sytuacja, w której baza danych klientów dużego podmiotu, wraz z numerami telefonów, z adresami mailowymi, została „wrzucona” do jednego z modeli. - Kiedy się okaże, że musimy zgłosić taki incydent do UODO, znajdziemy się w zupełnie innej sytuacji, jeżeli mamy wewnętrzne procedury, pracownicy byli przeszkoleni, a w organizacji istnieje system egzekwowania procedur, a w innej, kiedy nie podejmiemy żadnych działań – podsumowała mec. Popiołek-Dębska.
Czytaj też w LEX: Budowa systemu zarządzania ryzykiem wdrażania mechanizmów opartych o AI w organizacji zgodnie z normami ISO i dobrymi praktykami >
Co jednak w sytuacji, gdy przedsiębiorca zadba o wszystkie środki ostrożności, a jego dane i tak zostaną w sposób nieuprawniony wprowadzone do systemów AI, np. przez pracownika albo kontrahenta? - Zdarzają się przypadki w przedsiębiorstwach, gdzie formalnie obowiązuje zakaz korzystania z AI, a jednocześnie w praktyce przymyka się oko na to, że pracownicy korzystają z takich narzędzi na własnych urządzeniach, np. na prywatnym tablecie. Nazywamy to zjawisko „gray AI” lub „shadow AI”. Zjawisko to jest silne zwłaszcza, gdy jest silna presja na wyniki, a narzędzia AI są łatwo dostępne. Uważam, że jeśli pracodawca nie zapewni własnych, bezpiecznych narzędzi, pracownicy będą tej pokusie ulegać – mówił Michał Starczewski.
Martyna Popiołek-Dębska dodała, że przed nieuprawnionym wprowadzeniem dokumentów do AI przez kontrahenta chronić może odpowiednie postanowienie w umowie. - Moim zdaniem klauzule dotyczące zakazu korzystania ze sztucznej inteligencji lub korzystania z takich narzędzi na określonych zasadach będą zyskiwać na popularności – mówiła.
Zobacz też w LEX: Kto w organizacji powinien wiedzieć o wykorzystywaniu narzędzi AI? >
Tomasz Zalewski mówił zaś o przypadkach wykorzystywania AI przez strony postępowań sądowych lub administracyjnych. Jedną z nich rozstrzygnęła niedawno Krajowa Izba Odwoławcza: efektem było wykluczenie z przetargu potencjalnego wykonawcy, który swoją propozycję cenową uzasadniał m.in. wymyślonymi przez AI interpretacjami podatkowymi (więcej na ten temat: AI zmyśliła nawet kody PKWiU. Znamy uzasadnienie głośnego wyroku KIO).
W tym samym orzeczeniu KIO jest też inny wątek: inny z uczestników złożył wniosek o przystąpienie do odwołania i w tym przystąpieniu było napisane na początku „Proszę, oto propozycja”, po czym następowała właściwa treść.
Zobacz też w LEX: Cyberbezpieczeństwo AI - jakie rozwiązania wspomagające bezpieczeństwo wdrożyć? >
- Wiemy doskonale, skąd pochodzi ten fragment – ChatGPT i inne systemy właśnie w ten sposób odpowiadają. Proszę sobie wyobrazić, że KIO odrzuciła to przystąpienie. Uznała, że jest nieprawidłowe, ponieważ przez użycie zwrotu „Proszę, oto propozycja” nie miało ono charakteru ostatecznego. Moim zdaniem taka interpretacja jest niezasadna. To pokazuje jednak, że sądy i organy nadzorujące nie będą miały litości dla tych, którzy zostaną przyłapani na błędach wynikających z korzystania z narzędzi AI. Jestem przekonany, że będzie wdrożona polityka „zero litości” – jeżeli ktoś zostanie przyłapany na tym, że korzysta z AI bez weryfikacji, to będzie ponosił negatywne skutki procesowe. Żeby była jasność, nie zniechęcam do korzystania z tych narzędzi. Uważam jednak, że to korzystanie powinno być neutralne albo niewidoczne – podsumował mec. Zalewski.
Czytaj też w LEX: Odpowiedzialność za korzystanie przez pracowników z narzędzi AI >
Czytaj także: Jak oznaczać treści generowane przez AI? KE publikuje projekt kodeksu postępowania
-------------------------------------------------------------------------------------------------------------------
Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów w programie LEX jest zależny od posiadanych licencji.
















