Chodzi o propozycję, która znalazła się w projekcie nowelizacji prawa autorskiego, mającego wdrożyć znacząco już opóźnioną dyrektywę o prawie autorskim na jednolitym rynku cyfrowym (tzw. dyrektywa DSM). Przepis dotyczy interpretacji tego, czy wykorzystywanie utworów w ramach dozwolonego użytku będzie dotyczyło również generatywnej sztucznej inteligencji. Projektodawcy postanowili podejść do problemu ambitnie – i zastrzec, że generatywna AI nie będzie mogła wykorzystywać dzieł w ramach dozwolonego użytku, chyba że sam uprawniony wyraźnie zastrzeże, że nie ma nic przeciwko temu. Teoretycznie mogłoby to otworzyć drogę do uzyskiwania wynagrodzeń dla polskich twórców w momencie, gdy ich dzieła zostaną wykorzystane do uczenia algorytmów. Przepis w zaproponowanym brzmieniu wzbudził jednak duże kontrowersje w toku opiniowania – zarówno wśród „cyfrowych gigantów”, jak i organizacji reprezentujących przedsiębiorców.

Ryzyko sprzecznych rozwiązań 

Jedno z negatywnych stanowisk dotyczących propozycji zawartych w przepisie zaprezentowało w swoich uwagach Google. W stanowisku wskazano m.in., że wyłączenie AI z definicji dozwolonego użytku jest sprzeczne z intencją unijnego prawodawcy. Zaznaczono też, że może to przełożyć się negatywnie na konkurencyjność polskich przedsiębiorstw, a dodatkowo – że pośpiech i próby uregulowania kwestii związanych z generatywną sztuczną inteligencją mogą w przyszłości i tak okazać się sprzeczne z unijnym AI Act, który lada moment ma zostać przyjęty.

- Co więcej, projektowane przepisy skutkowałyby utrudnieniem badań naukowych w zakresie sztucznej inteligencji lub z jej wykorzystaniem, a także wypchnięciem innowacji w zakresie sztucznej inteligencji i związanych z nimi inwestycji z Polski do bardziej przyjaznych innowacjom systemów prawnych w Europie i poza nią. Mogłoby to mieć szkodliwy wpływ dla konkurencyjności Polski i utrudniło perspektywy wzrostu gospodarczego dzięki innowacjom technologicznym – podkreślono w przedstawionych uwagach.

Na podobnych argumentach opiera się także stanowisko Mety, do której należy m.in. Facebook. Wskazano w nim, że wprowadzenie przepisu mogłoby uniemożliwić szkolenie dużych modeli językowych, zwłaszcza mniejszym firmom.

- Mogłoby to stworzyć niewłaściwe zachęty dla dostawców sztucznej inteligencji, nieświadomie sprzyjając rozwojowi nieobiektywnych systemów sztucznej inteligencji ze względu na cenę i warunki dostępności danych szkoleniowych – podkreślono.

Dlatego wiele organizacji, które zgłosiły swoje uwagi do projektu, postuluje całkowite wykreślenie wzmianki o generatywnej sztucznej inteligencji z przepisu.

Czytaj też: Dozwolony użytek nie dla AI - ale na wynagradzanie twórców szanse nadal niewielkie

 

Bitwa interesów?

Trzeba jednak zaznaczyć, że kwestie związane z propozycją, która znalazła się w projekcie ustawy, nie jest tak prosta, jak mogłoby się wydawać. Widać to chociażby na przykładzie stanowiska Konfederacji Lewiatan, w którym przedstawiono dwie – całkowicie odmienne – oceny wskazanego przepisu. Wyraźnie zaznaczono przy tym, że projektowane przepisy wzbudzają silne kontrowersje wśród członków organizacji, i z tego względu przedstawiono osobno stanowisko firm reprezentujących branżę technologiczną oraz stanowisko firm z branży reprezentującej media i audiowizualnej.

I tak: firmy reprezentujące branżę technologiczną jednogłośnie postulują wykreślenie fragmentów przepisów, które wskazują na wyłączenie dozwolonego użytku w zakresie tworzenia generatywnych modeli sztucznej inteligencji. Wskazują przy tym, podobnie jak inne organizacje, na sprzeczność przepisów z prawem unijnym.

- Żaden z przepisów, który wprowadza możliwość takiej eksploracji, nie przewiduje wyjątków od tego prawa. Już z samego tego względu wprowadzenie w prawie krajowym zakazu eksploracji, by tworzyć dzięki jej rezultatom modele generatywnej sztucznej inteligencji, jest sprzeczny z prawem unijnym – zaznaczają przedstawiciele firm.

Całkowicie inaczej widzi to branża medialna i audiowizualna. Jej przedstawiciele wskazują, że kierunek zmian jest prawidłowy, zwłaszcza że względu na to, że wciąż nie podjęto systemowych decyzji o rekompensatach finansowych dla autorów za wykorzystywanie ich dzieł dla potrzeb tworzenia generatywnych modeli sztucznej inteligencji. Podkreślono również, że twórca musi mieć możliwość egzekwowania wynagrodzenia od podmiotów dokonujących automatycznej eksploracji, za korzystanie z jego dzieł. W stanowisku znalazł się nawet postulat, zgodnie z którym w przyszłej nowelizacji ustawy powinno się zastosować odwrócenie ciężaru dowodu – polegające na tym, że to dostawcy treści musieliby udowadniać, że nie wykorzystali konkretnych treści.

- Podmioty praw autorskich muszą mieć możliwość dowiedzenia się, czy i w jakim zakresie ich utwory i usługi są wykorzystywane przez podmioty dokonujące eksploracji treści i danych. Dodatkowo, ciężar dowodu co do tego, czy dostawcy sztucznej inteligencji wykorzystali treści podmiotów praw, nie może spoczywać na tych podmiotach. Zamiast tego musi zostać wprowadzone domniemanie prawne, że modele stworzone z wykorzystaniem TDM indeksują treści i wykorzystują treści podmiotów praw – zaproponowano w zgłoszonym stanowisku.

W poszukiwaniu równowagi 

Dr Michał Starczewski, radca prawny w BWHS Wojciechowski Springer i Wspólnicy podkreśla, że prawo autorskie zawsze musiało równoważyć sprzeczne interesy - chronić twórców, ale także producentów, wydawców i samych użytkowników. To do tych ostatnich przede wszystkim odnoszą się przepisy o dozwolonym użytku. Ekspert zaznacza jednak, że jego zdaniem przedstawiony projekt ustawy to wyraźne przesunięcie punktu ciężkości w stronę ochrony twórców. I to kosztem pozostałych podmiotów. Jego zdaniem realne jest również ryzyko, że Polska będzie przegrywać technologiczny wyścig, ucierpią też na tym konkretne projekty. 

- Jednocześnie ochrona twórców może okazać się pozorna. Utwory polskich twórców będą po prostu wykorzystywane poza granicami Polski, czyli tam, gdzie polska ustawa nie obowiązuje. Poza kontrolą polskich instytucji. Ochrona twórców będzie dobrze wyglądać tylko na papierze - ocenia dr Starczewski. 

Ekspert zaznacza jednak, że nie oznacza to oczywiście, że dobrym rozwiązaniem jest brak regulacji i pozwalanie na dowolne korzystanie z utworów przez międzynarodowych gigantów. 

- Zadanie ustawodawcy polega na znalezieniu właściwego punktu równowagi. Żeby rozwiązania były skuteczne, powinny być spójne z rozwiązaniami funkcjonującymi w innych państwach - komentuje prawnik. 

Trzeba rozważyć inne wyjścia 

Martyna Popiołek-Dębska, radca prawny, zaznacza, że pogodzenie sprzecznych interesów jest jak najbardziej możliwe. Wyłączenie trenowania modeli generatywnej sztucznej inteligencji jako wyjątku dotyczącego eksploracji tekstu i danych jednak się temu nie przysłuży. 

- Bez wątpienia za niesłuszne należy uznać wyłączenie trenowania modeli generatywnej sztucznej inteligencji jako wyjątku dotyczącego eksploracji tekstu i danych. Tego rodzaju regulacja prawna nie będzie skutkowała realną możliwością uzyskania przez twórców wynagrodzenia za trenowanie narzędzi AI przy użyciu ich twórczości, a z drugiej strony w bardzo istotny sposób utrudni rozwój tych narzędzi - uważa prawniczka. 

Mec. Popiołek - Dębska zaznacza również, że w projekcie i uzasadnieniu brakuje jasnego wskazania, czy rozważano inne sposoby ochrony interesów twórców, niż przyjęcie wskazanego wyłączenia. Ocenia też, że propozycja przyjęcia odwróconego ciężaru dowodu zdecydowanie wpłynęłoby pozytywnie na możliwości dochodzenia roszczeń przez twórców, i warto ją przemyśleć. 

- Być może dobrym rozwiązaniem jest np. wprowadzenie system opłat dla twórców w taki sposób, aby rekompensować im straty spowodowane przez presję rynkową, której celem jest szybki i intensywny rozwój branży oferującej narzędzia oparte na AI. Wymaga podkreślenia, że dyrektywa DSM nie wyklucza takiego rozwiązania. Jedyne zastrzeżenie, jakie pojawia się w treści dyrektywy, ogranicza możliwość stosowania rekompensat dla autorów tekstów i danych wykorzystanych do trenowania AI. Nic nie stoi jednak na przeszkodzie, aby np. rozważyć opłaty związane z wprowadzaniem już wytrenowanych narzędzi AI na rynek dla twórców, którzy przyczynili się do wytrenowania AI - podsumowuje prawniczka.