Czy chcemy, czy nie, nawet w Polsce Boże Narodzenie nie kojarzy nam się wyłącznie z choinką, karpiem, czy kapustą z grzybami. Miliony, które korporacje każdego roku wykładają na świąteczne kampanie reklamowe, nie poszły na marne - w zbiorowej świadomości na stałe zapisał się wizerunek Świętego Mikołaja wykreowany w 1931 r. na zlecenie Coca-Coli. Ta popkulturowa wersja świętego biskupa z Mirry, co roku pokonuje zaśnieżone drogi czerwoną ciężarówką, by rozdawać ludziom butelki kultowego napoju. Tyle że od dwóch lat ludzie z tą reklamą mają coraz mniej wspólnego - korporacja w tym roku po raz drugi wykreowała reklamę, używając narzędzi opartych na sztucznej inteligencji. Abstrahując od oceny walorów artystycznych - wygenerowanie reklamy oznacza optymalizację kosztów ludzkich. Nie zarabiają aktorzy, reżyser, kamerzyści i wiele osób, które żyją z tego typu produkcji. O ile oczywiście nie możemy, póki co, mówić o masowym, technologicznym bezrobociu, to liczba zleceń w branżach kreatywnych spada. AI pisze teksty, śpiewa piosenki, generuje filmy.

 

Sztuczna inteligencja ukradła głos lektora? Prawnicy o możliwych konsekwencjach>>

 

Zmień pracę, weź kredyt?

W dyskusji na ten temat często padają argumenty, że z robotyzacją trzeba się pogodzić i że, jeżeli na rynku nie ma zapotrzebowania na pewne usługi, to osoby, które do tej pory z nich żyły powinny się przebranżowić. Nie jest to przecież nowe zjawisko - nikt nie załamuje rąk nad szturchaczami (budzili ludzi do pracy), czy latarnikami. Z wyparciem z rynku przedstawicieli zawodów kreatywnych jest jednak pewien problem etyczny - to na ich pracy wyszkoliły się modele, które pozbawiły ich potem zarobku.

 

Bardzo problematyczna jest kwestia, jak big techy wytrenowały swoje modele. Spór toczy się po pierwsze o to, czy sam proces uczenia maszynowego wpisuje się w definicje dozwolonego użytku, a po drugie o to, czy firmy zawsze wykorzystywały legalne kopie przy trenowaniu modeli. Obie kwestie są sporne. W ostatnim czasie pisarze, w tym laureat Nagrody Pulitzera, dziennikarz John Carreyrou, wnieśli pozew o naruszenie praw autorskich, oskarżając sześć gigantów AI o wykorzystywanie pirackich kopii ich książek do trenowania dużych modeli językowych. W pozwie zarzucono, że firmy AI pobrały pirackie kopie książek powodów z „nielegalnych bibliotek cieni”. 

 

Fair czy nie fair?

Spór o to, czy trenowanie modeli, to dozwolony użytek (fair use - tu trzeba zaznaczyć, że to pojęcie ma nieco inny charakter w prawie amerykańskim niż nasz odpowiednik) trwa od miesięcy. W maju Amerykański Urząd ds. Praw Autorskich (United States Copyright Office, USCO) przedstawił obszerny, 108-stronicowy raport analizujący, czy korzystanie z utworów chronionych prawem autorskim bez zgody uprawnionych na potrzeby trenowania generatywnych systemów sztucznej inteligencji może mieścić się w granicach dozwolonego użytku. 

 

  • wykorzystywanie utworów chronionych prawem autorskim do trenowania modeli generatywnej AI może stanowić naruszenie prawa autorskiego,
  • obrona oparta na dozwolonym użytku (fair use) nie ma charakteru automatycznego i zależy od konkretnych okoliczności,
  • trenowanie modeli nie zawsze jest uznawane za działanie transformacyjne, zwłaszcza gdy generowane treści konkurują z oryginalnymi utworami,
  • znaczenie ma źródło danych – korzystanie z pirackich lub nielegalnie pozyskanych materiałów wyraźnie działa przeciwko fair use,
  • stosowanie zabezpieczeń ograniczających ryzyko naruszeń (guardrails) może przemawiać na korzyść twórców modeli.

 

AI Act na rozlane mleko?

Unia Europejska dopuściła zwielokrotnianie utworów na potrzeby eksploracji tekstu i danych (tzw. TDM), co obecnie jest podstawą trenowania modeli na chronionych treściach. W przypadku komercyjnych treści regulujący tę materię AI Act dopuszcza natomiast tzw. klauzulę opt-out. Uprawniony może zaznaczyć, że nie zezwala na wykorzystanie swojego utworu w takich celach. Dodatkowo - to wydawcy i twórcy muszą zadbać o to, by klauzula była wyrażona w zrozumiałej formie (w przypadku treści online, nadającej się do odczytu maszynowego). 

 

Już na pierwszy rzut oka rodzi to jednak kilka problemów - po pierwsze nie rozwiązuje kwestii wynagrodzenia twórcy, który de facto przeszkoli maszynę do wykonywania jego pracy, pozbawiając się tym dalszych zleceń i źródła zarobku. Bez zmian w przepisach, to nie on na ogół ostatecznie zdecyduje, czy jego treści zostaną wykorzystane do trenowania AI, a np. wydawnictwo, z którym podpisze umowę lub portal, na którym udostępni film lub piosenkę. Po drugie mleko się już rozlało - nie rozwiązuje to w żaden sposób kwestii treści, które już wykorzystano do trenowania modeli. Jak widać po przytoczonych wyżej przykładach zza oceanu, na niekoniecznie transparentnych warunkach. 

 

Cena promocyjna: 183.2 zł

|

Cena regularna: 229 zł

|

Najniższa cena w ostatnich 30 dniach: 160.3 zł


System repartycji?

Według profesora Ryszarda Markiewicza obecnie prawo do decydowania o wykorzystaniu utworów do trenowania AI wynika z autorskich praw majątkowych, bo stanowi szczególną postać zwielokrotnienia utworu. Przyznaje przy tym, że oczywiście można rozważyć zmianę tego modelu, ale - jak podkreśla - nie jest zwolennikiem wprowadzenia zbyt dużych ograniczeń w tym zakresie, bo jego zdaniem osłabiłoby to konkurencyjność Europy wobec innych rynków. - Jeżeli wprowadzimy bardzo wysoką ochronę, to inni zrobią to taniej i lepiej, a my przegramy wyścig technologiczny - mówi serwisowi Prawo.pl. Zaznacza przy tym, że nie oznacza to braku wynagrodzeń dla twórców. - Nie da się jednak tego rozwiązać indywidualnie,  dlatego potrzebny jest zbiorowy system redystrybucji, realizowany np. przez organizacje zbiorowego zarządzania - wskazuje. - Pieniądze powinny pochodzić nie z samego trenowania, lecz z zysków generowanych przez AI – licencji, reklam, komercyjnych zastosowań”– wskazuje profesor. Taki system, jak ocenia, powinien funkcjonować co najmniej na poziomie europejskim.

 

Według r.pr. Katarzyny Grajcar, reprezentującej Z.A.W. STOART, zapewnienie twórcom oraz artystom wykonawcom sprawiedliwej gratyfikacji za wykorzystywanie ich dorobku jest jednym z kluczowych wyzwań stojących obecnie przed prawem autorskim. - Trenowanie systemów sztucznej inteligencji na efektach ludzkiej kreatywności nie może odbywać się bez zagwarantowania im godziwego wynagrodzenia, gdyż to właśnie praca twórcza stanowi ,,paliwo’’ umożliwiające funkcjonowanie tych modeli oraz źródło ich rynkowej wartości. Konieczność gratyfikacji jest niemal bezdyskusyjna w sferze etycznej i ekonomicznej - mówi prawniczka.

 

Licencja oraz pośrednictwo organizacji zbiorowego zarządzania

Zdaniem mec. Grajcar najbardziej efektywnym rozwiązaniem wydaje się być wprowadzenie licencji ustawowej, która z jednej strony umożliwiałaby deweloperom dostęp do danych niezbędnych dla rozwoju innowacji, z drugiej zaś nakładałaby na nich jednoznaczny obowiązek zapłaty wynagrodzenia według stawek ustalanych w sposób systemowy.

- Niezbędnym elementem skuteczności takiego modelu jest obowiązkowe pośrednictwo organizacji zbiorowego zarządzania. Indywidualny twórca czy artysta wykonawca nie dysponuje realnymi możliwościami negocjacyjnymi w relacjach z globalnymi podmiotami technologicznymi. Wyłącznie zbiorowy system, oparty na niezbywalnym prawie do wynagrodzenia, jest w stanie zapewnić efektywny pobór należnych środków oraz ich sprawiedliwą dystrybucję - podkreśla mec. Grajcar.

 

Adwokat Andrzej Zorski z Kancelarii PZ również uważa, że konieczne jest systemowe rozwiązanie tej kwestii. - Musi to być mechanizm obowiązkowy, a przy tym rozsądnie skonstruowany tak, aby z jednej strony nie blokować rozwoju AI, a z drugiej nie zostawiać twórców bez ochrony - wskazuje. Dodaje przy tym, że należy zastanowić się kogo i w jakim zakresie obciążyć kosztami na rzecz twórców oraz według jakich kryteriów mają zostać podzielone te pieniądze. - Obecny system opłaty reprograficznej pozostawia w tym zakresie wiele do życzenia, choćby dlatego, że mimo upływu lat wciąż obciąża nośniki, których od dawna nikt nie używa - kwituje mec. Zorski.