Jednocześnie z badania EY - "Jak polskie firmy wdrażają AI" - wynika również, że aż 93 proc. ankietowanych planuje zwiększyć wydatki na wdrożenie AI w obszarze compliance w ciągu najbliższych 18 miesięcy, z czego blisko połowa firm – w sposób znaczny. Według EY takie podejście nie powinno dziwić, gdyż głównym motywatorem (63 proc.) dla organizacji wprowadzających AI w obszarze compliance jest usprawnienie procesów wewnętrznych. 

– Rzadsze wykorzystywanie sztucznej inteligencji dla funkcji compliance pokazuje, że w strategicznych obszarach firmy w dalszym ciągu opierają się na wiedzy i doświadczeniu pracowników. Jednak już niedługo sztuczna inteligencja stanie się nieodzownym towarzyszem także dla działów prawnych i podatkowych, wspierając ich działania w zakresie coraz liczniejszych wymogów regulacyjnych. Dodatkowo, wiele przepisów wymusza na organizacjach digitalizację procesów. Dlatego przedsiębiorcy już teraz powinni inwestować w implementację sztucznej inteligencji dla  obszarów prawno-podatkowych, co będzie stanowić istotne wsparcie dla tych działów i odciąży pracowników w ich codziennych obowiązkach –  komentuje Radosław Krupa, Partner EY Polska, Dział Doradztwa Podatkowego.

Co szczególnie ciekawe, jedynie mniej niż co czwarty ankietowany nie analizował lub nie potrafił potwierdzić czy weryfikował możliwości skorzystania z instrumentów dotacyjnych i ulg podatkowych przy implementacji w firmach narzędzi sztucznej inteligencji. Dla porównania kwestię dotacji badało 23 proc. przedsiębiorstw, ulg podatkowych – 19 proc., a obu tych instrumentów – 35 proc. organizacji.

 

Dobra znajomość przepisów

Większość firm w Polsce (61 proc.) oceniła, że dobrze lub bardzo dobrze orientuje się w przepisach prawa dotyczących AI. W tej grupie znajduje się 20 proc. respondentów, którzy są najbardziej zadowoleni z poziomu swojej wiedzy. Na co dzień przeprowadzają analizy zgodności z prawem implementacji i użycia systemów AI przed ich wdrożeniem oraz na bieżąco monitorują zmiany w prawie. Tylko 8 proc. badanych przyznało, że nie wie, jakie regulacje mają zastosowanie do sztucznej inteligencji.

Dobra znajomość przepisów prawa przekłada się na znaczny odsetek respondentów, którzy deklarują implementację narzędzi AI w całości przez swój zespół wewnętrzny. Najbardziej niezależne podejście cechuje firmy wdrażające tę technologię w obszarze compliance (37 proc. odpowiedzi) oraz finansów (35 proc.).  

Czytaj też w LEX: Małobęcka-Szwast Iga, Akt w sprawie sztucznej inteligencji – nowe wyzwania dla prawników >

W Unii Europejskiej wciąż trwają prace nad AI Act, który ustanawia zharmonizowane przepisy dotyczące sztucznej inteligencji, wskazuje zakazane praktyki oraz przedstawia wymogi odnośnie do systemów AI wysokiego ryzyka wraz z obowiązkami spoczywającymi na podmiotach będących ich operatorami. Zmian jest naprawdę dużo i dla wielu przedsiębiorstw będą one oznaczały rewolucję. Po uchwaleniu AI Act każdy system AI udostępniony na terenie UE po dacie wejścia w życie AI Act, co do zasady, będzie musiał być z nim zgodny. Oznacza to, że wzrośnie liczba wyzwań regulacyjnych z którymi będą się mierzyć zarówno prawnicy jak i klienci. Jednym z nich będzie ocena czy dany system jest już systemem sztucznej inteligencji czy jeszcze nie. Ocena ta będzie determinowała stosowanie do danego rozwiązania technologicznego przepisów wynikających z AI Act. Proponowana definicja jest bardzo szeroka, a spodziewam się, że w praktyce organy krajowe i unijne ds. AI, a także sądy będą ją podawać różnym interpretacjom. Zatem poziom regulacyjnych ryzyk znacząco wzrośnie, stanowiąc kolejne wyzwanie dla wielu organizacji oceniających swój stan wiedzy przez pryzmat aktualnej a nie nadchodzącej legislacji – zauważa Justyna Wilczyńska-Baraniak, Partnerka EY, Liderka Zespołu Prawa Własności Intelektualnej, Technologii, Danych Osobowych w Kancelarii EY Law.

Czytaj w LEX: Akt o sztucznej inteligencji [projekt UE] >

 

Globalne trendy regulacyjne w AI

Dynamiczny rozwój sztucznej inteligencji sprawia, że decydenci coraz pilniej pracują nad tym, aby implementacja tego rozwiązania minimalizowała główne ryzyka z nim związane. Zespoły EY przeanalizowały podejścia regulacyjne ośmiu jurysdykcji, które odgrywają istotną rolę w opracowywaniu zasad korzystania z AI. Obejmują one Chiny, Japonię, Kanadę, Koreę Południową, Singapur, Stany Zjednoczone, Unię Europejską i Wielką Brytanię. Na tej podstawie namierzyli pięć głównych trendów, które wpływają na kształt aktów prawnych dotyczących sztucznej inteligencji.

Trend 1. Zasady OECD jako punkt odniesienia

Wytyczne dotyczące sztucznej inteligencji, przyjęte w 2019 r. przez OECD i grupę G-20, służą jako globalny punkt odniesienia, pomagając rządom i organizacjom w kształtowaniu zorientowanego na człowieka podejścia do AI. Obejmują one takie aspekty, jak szerokie rozpowszechnianie korzyści płynących ze sztucznej inteligencji w społeczeństwie, brak łamania zabezpieczeń społecznych, ochronę praw człowieka oraz odpowiednie ramy zarządzania i odpowiedzialności wśród firm korzystających z AI.

Polecamy nagranie szkolenia: Prawne aspekty sztucznej inteligencji >

Trend 2. Podejście oparte na ryzyku

Każda z analizowanych jurysdykcji dostosowuje lub modyfikuje swoje przepisy do ryzyka stwarzanego przez określone działania związane z AI, aby znaleźć złoty środek między ograniczaniem ryzyka a zachęcaniem do innowacyjności i odpowiedzialnego rozwoju. Główną zaletą takiego podejścia jest to, że umożliwia ono wczesną interwencję regulacyjną przy jednoczesnym zachowaniu wymogów dotyczących compliance i kosztów proporcjonalnych do potencjalnych negatywnych skutków.

Trend 3. Wprowadzanie przepisów sektorowych

Regulatorzy uwzględniają aspekty specyficzne dla danego sektora, gdyż wykorzystanie AI może stwarzać odmienne ryzyka w zależności od obszaru. Przykładowo, pojazdy autonomiczne powinny być objęte dodatkowymi wytycznymi, a organy nadzoru bankowego muszą minimalizować ryzyko przy udzielaniu kredytów konsumenckich w oparciu o rekomendacje AI. Wytyczne sektorowe są uzupełnieniem ogólnych regulacji, które zapewniają podstawowe ramy zabezpieczeń.

Polecamy nagranie szkolenia: DORA a sztuczna inteligencja – jak SI wpływa na cyberbezpieczeństwo w sektorze finansowym? >

Trend 4. Analizowanie wpływu na inne obszary

Ustanawianie przepisów dotyczących sztucznej inteligencji skłania regulatorów do tworzenia nowych lub reinterpretacji istniejących polityk w innych obszarach, takich jak własność danych, tożsamość cyfrowa, cyberbezpieczeństwo czy przepływ treści cyfrowych.

Trend 5. Stosowanie piaskownic regulacyjnych

Piaskownice regulacyjne umożliwiają bezpieczne testowanie innowacji związanych z AI w nadzorowanym środowisku, w którym przepisy mogą być ograniczone w czasie i/lub zakresie. Takie podejście przynosi wiele korzyści, w tym rozwój bardziej ukierunkowanych i skutecznych regulacji, wspieranie inwestycji venture capital, ułatwianie konkurencji i zachęcanie do lepszej komunikacji między organami regulacyjnymi a firmami.

Badanie - Jak polskie firmy wdrażają AI - zostało przeprowadzone na zlecenie EY Polska przez Cube Research w okresie sierpień – wrzesień 2023 roku na próbie 501 dużych i średnich przedsiębiorstw działających w branżach produkcyjnej, usługowej i handlowej.