W odpowiedzi na obawy klientów, Microsoft od 1 października br. proponuje rozszerzone przejęcie odpowiedzialności za wszelkie naruszenie praw przez rezultaty wygenerowane przez napędzaną sztuczną inteligencją nową usługę Copilot - która wspomaga znane produkty Microsoft (w tym m.in. GitHub, Windows, Microsoft 365, Bing Chat Enterprise). Czy tego rodzaju przejęcie odpowiedzialności wystarczy, żeby osłabić obawy użytkowników przed używaniem AI w biznesie?

Wciąż brak prawnych regulacji AI

To już nie nowość, że wszechobecna aktualnie sztuczna inteligencja wzbudza kontrowersje na bezprecedensową skalę.

AI operuje w ramach i na podstawie olbrzymiej bazy danych wytworzonych przez różnego rodzaju osoby i firmy, niemające nic wspólnego z dostawcami narzędzi AI. Również Copilot szkolony był na danych, które mogą obejmować cudze artykuły, prace badawcze, projekty, książki czy też kody oprogramowania. Jednocześnie nie można w pełni kontrolować ani nawet odtworzyć procesu wytwarzania rezultatów narzędzi AI - które samodzielnie analizują i przetwarzają dostarczone dane, generując rezultaty.

Nadal szeroko dyskutowane unijne rozporządzenie Artificial Intelligence Act” (tzw. AI Act), stanowi odpowiedź na wiele kluczowych kwestii będących przedmiotem powszechnych obaw od początku ery dynamicznego rozwoju narzędzi AI. Rozporządzenie nadal jest jednak w fazie projektowej i chociaż przewiduje się, że ostateczny tekst powstanie jeszcze w tym roku, to wejście w życie nastąpi dopiero po vacatio legis, które ma wynosić dwa lata.

Czytaj też: Unijne rozporządzenie o sztucznej inteligencji nie wyeliminuje ryzyka nadużyć >>

AI a prawa autorskie

Żadna jurysdykcja dotąd nie określiła definitywnie, czy rezultaty tworzone za pomocą sztucznej inteligencji mogą być uznawane za utwory i kwalifikować się pod ochronę prawnoautorską.

Aktualnie przyjmuje się, że samemu AI nie mogą przysługiwać prawa autorskie do rezultatów (nie jest człowiekiem, więc nie może tworzyć utworów), dostawcy systemu AI również nie - bo nie ma wpływu na tworzenie wyników. Wskazuje się, że wyłącznie sam użytkownik może mieć potencjalnie prawa autorskie do wyników, ale tylko w wyjątkowych przypadkach - jeśli jego wkład twórczy będzie na tyle duży, by móc mówić o jego dominującym udziale w tworzeniu utworu (np. przeróbka istniejącego już utworu przy pomocy AI, tworzenie w wyniku łańcucha bardzo szczegółowych promptów, znacząca samodzielna modyfikacja rezultatów).

Przykładowo, w Stanach Zjednoczonych w jednym z najnowszych orzeczeń zapadłym w sporze o rejestrację w urzędzie rejestrującym utwory prawnoautorskie (US Copyright Office) grafiki wygenerowanej przez narzędzie AI utworzone przez powoda, sąd dla dystryktu Columbii uznał, że generowane za pomocą AI grafiki nie mogą być w danym przypadku traktowane jako przedmiot praw autorskich, ale nie wykluczył, że przy większym nakładzie twórczej pracy człowieka - mogłyby być.

 

Obawy użytkowników

Ryzyka związane z dalszym wykorzystaniem rezultatów narzędzi AI nie dotyczą jednak wyłącznie praw autorskich - przede wszystkim również innych praw własności intelektualnej (patentów, praw wyłącznych do znaków towarowych, wzorów przemysłowych, prawa do bazy danych), prawa do wizerunku, dóbr osobistych, tajemnicy handlowej czy też regulacji dotyczących danych osobowych.

Microsoft, jak i wielu innych dostawców technologii opartych na sztucznej inteligencji, wskazuje, że w swoim produkcie stosuje fizyczne zabezpieczenia przed naruszeniami praw osób trzecich.

Takie zapewnienia nie wystarczyły potencjalnym użytkownikom, szczególnie, że w ostatnich miesiącach pojawiają się doniesienia o kolejnych procesach wytaczanych dostawcom narzędzi AI - między innymi za wykorzystywanie materiałów chronionych prawem autorskim do trenowania modeli językowych AI (np. autorzy Sarah Silverman, Christopher Golden i Richard Kadrey - w czerwcu pozwali OpenAI i Meta w USA o naruszenia praw do ich utworów; przebieg sprawy można śledzić pod tym linkiem).

W odpowiedzi na narastające obawy firma Microsoft zdecydowała się wyjść o krok naprzód i w swoim oświadczeniu deklaruje wprost, że klienci mogą swobodnie korzystać z generowanych przez Copilot wyników w swojej działalności gospodarczej bez obaw o naruszenia czyichkolwiek praw. Żeby maksymalnie zabezpieczyć interesy swoich użytkowników  - deklarują przejęcie odpowiedzialności (w tym wszystkich kosztów prawnych) w przypadku, jeżeli dany użytkownik zostanie pozwany z uwagi na naruszenie praw autorskich lub innych praw osób trzecich.

Rozszerzenie przejęcia odpowiedzialności ma obejmować nie tylko procesy związane z prawem autorskim - także dotyczące patentów, znaków towarowych, tajemnic handlowych, a także prawa do wizerunku.

 


Przejęcie odpowiedzialności w praktyce

Deklaracja weszła w życie 1 października 2023 r., ale rodzi wątpliwości co do jej praktycznego stosowania przez Microsoft.

Samo przejęcie odpowiedzialności będzie uwarunkowane zastosowaniem przez użytkownika odpowiednich filtrów treści i systemów bezpieczeństwa wbudowanych w produkt. Nie obejmuje też przypadków celowych naruszeń.

Nie ma informacji, czy ma obowiązywać bez ograniczeń terytorialnych lub jurysdykcyjnych i czy nie będzie wskazywała na określony limit odpowiedzialności. Nie ma również wskazania, na jakich zasadach powyższe warunki przejęcia odpowiedzialności będą weryfikowane.

Warto też zaznaczyć, że sam system Copilot jest dopiero wdrażany. Produkt ma dodać funkcje wspomagające język naturalny do programów Word, Excel, PowerPoint i innych aplikacji pakietu Office - i jest testowany dotychczas przez dopiero około 600 firm. Copiloty Microsoftu dla SharePoint i OneDrive jeszcze nie istnieją. Security Copilot, który Microsoft ogłosił w marcu, jest nadal wyłącznie testowany, i to w bardzo ograniczonym zakresie. Microsoft wskazuje jednak, że w najbliższym czasie planuje rozszerzyć dostępność produktu.

Co możemy zrobić, żeby zminimalizować ryzyka w naszej organizacji?

Wszystkie powyższe kontrowersje w świetle strategii obranej przez Microsoft z punktu widzenia organizacji, które już zdecydowały się na wykorzystywanie sztucznej inteligencji, ponownie nasuwają pytanie - co można zrobić, żeby zminimalizować ryzyka w odniesieniu do swojego biznesu.

Sztuczna inteligencja - w ciągłym braku konkretnego uregulowania prawnego - to problem wielopoziomowy. Przede wszystkim warto przyjrzeć się między innymi:

  • Warunkom licencyjnym narzędzia AI - kto i jak może korzystać? czy na pewno możemy dalej swobodnie odsprzedawać na wyłączność rezultaty tworzone przy jego pomocy?
  • Umowom z klientami/użytkownikami - czy mamy odpowiednio sformułowane klauzule związane z odpowiedzialnością za rezultaty?
  • Czy rezultaty tworzone przy pomocy AI nie powinny być możliwe do objęcia ochroną patentową?
  • Przepisom sektorowym - czy dana branża nie zawiera specyficznych wymagań dotyczących produktów, które mogą przeszkodzić w użytkowaniu AI?
  • Czy sposób użytkowania AI lub sama wybrana technologia nie umożliwia wycieku informacji poufnych, danych osobowych, danych objętych prawami osób trzecich?
  • Czy polityka wewnętrzna firmy wyraźnie wskazuje procedury zapewniające bezpieczne korzystanie z narzędzi/systemów AI? Czy pracownicy są przeszkoleni w tym zakresie? Do czego ma być wykorzystywany output?
  • Bieżącym zmianom warunków użytkowania danego narzędzia generatywnej AI - okresowo.

Oczywiście pytań nasuwa się więcej, a dotychczas ani AI Act, ani żadne krajowe akty prawne nie rozstrzygają, w jaki sposób podchodzić do rezultatów tworzonych we współpracy” ze sztuczną inteligencją. Przy okazji zastosowania strategii wyjścia naprzeciw” obawom użytkowników przez Microsoft warto przyjrzeć się wszystkim prawnym aspektom ze szczególną ostrożnością i zastanowić się, przed jakimi ryzykami warto się lepiej ochronić.

Barbara Stefanowicz, radca prawny, zespół korporacyjny i prawa IT DSK Kancelaria