Inga Stawicka: 13 marca br. Parlament Europejski zdecydowaną większością głosów przyjął Akt o sztucznej inteligencji (AI Act), który niewątpliwie można uznać za przełomową regulację, ważną i dla zwykłych ludzi, i dla biznesu. Zacznijmy jednak od kwestii, która budzi duże kontrowersje w kontekście samej sztucznej inteligencji, a więc naruszania praw twórców w sytuacji, gdy ich dzieła są wykorzystywane do „uczenia” algorytmów. Czy AI Act ma szansę to zmienić?

Jan Ziomek: Naruszenia praw autorskich w tym zakresie są ogromnym problemem, i to nie tylko w Unii Europejskiej. Coraz bardziej ożywione spory możemy obserwować na przykład w Stanach Zjednoczonych. Twórcy wskazują bowiem, że dostrzegają to, iż sztuczna inteligencja była uczona na ich utworach, dlatego chcieliby, aby – zgodnie z przepisami prawa autorskiego – byli za to wynagradzani. Ważnym aspektem jest też kwestia oznaczania, czym „dzieło” sztucznej inteligencji zostało zainspirowane. Jednocześnie pojawia się problem, ponieważ sztuczna inteligencja nie ma podmiotowości i nie może zostać uznana za twórcę. Rozporządzenie w sprawie sztucznej inteligencji wymusza jednak na dostawcach, aby wykorzystanie materiałów objętych prawami autorskimi odbywało się zgodnie z obowiązującymi w Unii przepisami. Skutkiem tego jest wprowadzanie zmian do regulaminów świadczenia usług wykorzystujących sztuczną inteligencję, aby zapewnić zgodność z AI Act.

Sądzi Pan, że unijny prawodawca dojdzie w przyszłości do wniosku, że to zagadnienie wymaga jednak regulacji w odrębnych przepisach?

Musimy patrzeć na regulację jako coś „żywego”. Dwadzieścia lat temu nie było żadnych regulacji dla takich podmiotów, jak PayU czy BlueMedia na rynku finansowym, a codziennie obracały znacznymi środkami. Druga kwestia jest taka, że regulacje po pewnym czasie wymagają przeglądu, zazwyczaj po dwóch, trzech latach od wdrożenia. Wówczas istnieje możliwość wprowadzenia zmian, jeśli prawodawca dojdzie na przykład do wniosku, że jest problem praktyczny, którego przepisy nie objęły. Być może tak stanie się w tym przypadku, choć generalnie zbyt częste zmiany nie są korzystne. Trzeba też zaznaczyć, że tak naprawdę ideą rozporządzenia w sprawie sztucznej inteligencji jest to, żeby nadać akceptowalne ramy wykorzystania sztucznej inteligencji w obszarach, które charakteryzuje wyższe ryzyko wystąpienia nieprawidłowości a tym samym ewentualnych sporów. Do tego dąży rozporządzenie: żeby danych dotyczących mojego wizerunku, przebytych chorób, miejsc które odwiedziłem, wyglądu, zachowania itd. nie można było w dowolny sposób wykorzystywać i przetwarzać. Ma to z jednej strony dać twórcom wyraźne ramy, w których mogą rozwijać swoje rozwiązania, a osobom fizycznym gwarantować adekwatny poziom ochrony ich praw. To jest główny cel AI Act.

Czytaj też: AI Act wkrótce zmieni firmową rzeczywistość - warto się już przygotowywać

Jest szansa, że sprawdzi się w praktyce?

Sztuczna inteligencja, o której mówimy teraz, znacząco ewoluowała od czasów Alana Turinga. Jeszcze kilkanaście lat temu w Stanach Zjednoczonych przygotowano narzędzie dla sądów, które miało podpowiadać sędziom, jaką karę zaproponować dla konkretnej osoby na podstawie obowiązujących „widełek”. Program przez jakiś czas funkcjonował, ale, jak okazało się później, miał swoje wady wynikające ze sposobu, w jaki nauczono algorytm rozwiązywania problemu. Następczo przeanalizowano, że jeśli sprawcą czynu była osoba, która miała pochodzenie afroamerykańskie, albo mieszkała w konkretnym miejscu, system podpowiadał wobec niej wyższe kary.

Czyli sztuczna inteligencja dopuszczała się rasizmu?

Tak, ale z prostego powodu: baza danych, na podstawie której szkolono narzędzie, w dużej mierze opierała się na danych społeczności z korzeniami afroamerykańskimi. I nie zadbano, by sztuczna inteligencja była obojętna na kwestie rasowe, miejsca zamieszkania czy związane z pochodzeniem. Nie była to więc wina samego narzędzia, tylko sposobu jego wyszkolenia. I na tym właśnie skupia się AI Act: że przykładowo jeśli są systemy wysokiego ryzyka, które istotnie wpływają na nasze życie, to muszą zostać nałożone konkretne obowiązki, które mówią nam, jak system ma być uczony, jakie dane można wykorzystywać, by jak najbardziej ograniczyć ryzyko powtórzenia się takiej sytuacji.

 

Stworzenie sztywnych kategorii ryzyk od początku mocno krytykuje biznes, który obawia się, że wpłynie to na innowacyjność rozwiązań opartych na sztucznej inteligencji w Europie. Pana zdaniem, słusznie?

Powiedzmy sobie szczerze, Unia Europejska jako miejsce, w którym tworzy się innowacje oparte na danych osobowych - w takim sensie jak na przykład profile osobowe i tym podobne -  już dawno przegrała chociażby z Azją i Stanami Zjednoczonymi. Powód jest bardzo prosty: Unia Europejska bardzo mocno stawia na ochronę danych osobowych. A wiemy, że chociażby BigTechy posiadają nasze modele behawioralne określające np. nasze preferencje zakupowe, pozwalające określić, kiedy może nam być potrzebny kredyt. To widać zwłaszcza w przypadku aplikacji bankowych, w których dostajemy spersonalizowane oferty, lub przeglądarki internetowe, które sugerują nam zakup konkretnych rzeczy. Instytucje finansowe na bieżąco monitorują naszą sytuację finansową i jeśli normalnie zarabiamy całkiem nieźle, ale nagle mamy mało środków na koncie, a zbliżają się wakacje, to jest prawdopodobne, że dostaniemy ofertę pożyczki na wakacje. Niestety Unia Europejska tak czy inaczej przegrywa wyścig technologiczny, zwyczajnie ze względu na to, że chce lepiej chronić osoby fizyczne, co w innych rejonach świata nie koniecznie jest takim samym priorytetem. Pozostaje pytanie, czy rzeczywiście jest to negatywne zjawisko oraz czy za kilka, kilkanaście lat będziemy korzystać z usług podmiotów z Unii Europejskiej, czy raczej z dowolnej lokalizacji na świecie (niezapewniającej porównywalnej ochrony jak UE) tylko dlatego, że ich usługi będą prostsze, szybsze i łatwiejsze w obsłudze.

Eksperci wskazują, że AI Act może zostać ostatecznie przyjęty w okolicach maja, choć oczywiście same przepisy zaczną obowiązywać w większości dopiero za dwa lata. W jaki sposób biznes może już teraz zacząć się przygotowywać do zmian?

Musimy pamiętać, że w praktyce AI Act, będzie miał zastosowanie do specyficznej grupy podmiotów, które wykorzystują nowoczesne technologie i już teraz spełniają wiele obowiązków wynikających chociażby z RODO. Aczkolwiek AI Act nakłada tak dużo wymogów, że w pierwszej kolejności instytucje muszą położyć nacisk na budowanie świadomości na temat nowych wymogów. Oznacza to szkolenia i warsztaty na każdym szczeblu w ramach organizacji. Drugim ważnym aspektem jest dokonanie przeglądu posiadanych już rozwiązań, aby ocenić, czy i w jakim zakresie znajdą zastosowanie wymogi AI Act. Niezależnie od dwóch powyższych kroków konieczne wydaje się opracowanie i wdrożenie strategii, która pozwoli całościowo zaadresować wymogi AI Act w organizacji. Dzięki temu poszczególne jednostki w organizacjach będą posiadały jasno zdefiniowane cele, oraz zakresy odpowiedzialności za wdrażanie AI. Działanie, które powinno zostać podjęte przez rynek, to rozpoczęcie prac nad branżowymi standardami wdrożenia AI Act. Pomoże to skonkretyzować wymogi AI Act dla konkretnej grupy podmiotów oraz podejść jednolicie ich stosowania. Takie działanie jest coraz powszechniejsze, ponieważ umożliwia to przełożenie abstrakcyjnych norm prawnych z poziomu Unii Europejskiej na bardziej praktyczny grunt. 

Jan Ziomek, adwokat, partner w kancelarii Kochański& Partners, ekspert w zakresie nowych technologii i FinTech

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź