Włącz wersję kontrastową
Zmień język strony
Włącz wersję kontrastową
Zmień język strony
Prawo.pl

Czy sztuczna inteligencja udzieli nam kredytu?

Ocena zdolności kredytowej jest procesem przeprowadzanym przed zawarciem umowy kredytu, do którego banki często wykorzystują nowe technologie. Obecnie w tym celu coraz częściej stosuje się także rozwiązania oparte na sztucznej inteligencji. Czy rosnąca popularność AI spowoduje, że niedługo o udzieleniu kredytu będzie decydował algorytm - piszą o tym Przemysław Janczak i Hubert Łączkowski z kancelarii Traple Konarski Podrecki i Wspólnicy.

Czy sztuczna inteligencja udzieli nam kredytu?
Źródło: iStock

W artykule omawiamy aktualne oraz nadchodzące regulacje w zakresie oceny zdolności kredytowej przy użyciu sztucznej inteligencji.

 

Wykorzystanie AI do oceny zdolności kredytowej w odniesieniu do Prawa bankowego

Choć obecnie polskie przepisy nie posługują się pojęciem sztucznej inteligencji, jej stosowanie do oceny zdolności kredytowej klientów można kwalifikować jako zautomatyzowaną ocenę zdolności kredytowej, o której mowa w art. 105a ust. 1a ustawy z dnia 29 sierpnia 1997 r. – Prawo bankowe („PrBank”). Zgodnie z tym przepisem banki mogą w celu przeprowadzenia oceny zdolności kredytowej i analizy ryzyka kredytowego podejmować decyzje, opierając się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, danych osobowych, jak również informacji objętych tajemnicą bankową. To, co charakteryzuje zautomatyzowane przetwarzanie i profilowanie danych, to brak aktywności ze strony człowieka. Można zatem uznać, że możliwym jest korzystanie w tym celu także z rozwiązań sztucznej inteligencji. 

Nie oznacza to jednak, że ocena zdolności kredytowej przy użyciu AI może przebiegać w sposób dowolny. Przede wszystkim osoba, wobec której decyzja kredytowa została podjęta w sposób zautomatyzowany, uprawniona jest do uzyskania wyjaśnień co do podstaw podjętej decyzji, możliwości uzyskania interwencji ludzkiej w celu podjęcia ponownej decyzji oraz wyrażenia własnego stanowiska. Dodatkowo banki zobowiązane są do zapewnienia kredytobiorcy pisemnych wyjaśnień w zakresie dokonanej oceny zdolności kredytowej. Osoby, wobec których dokonuje się oceny, muszą zostać w sposób jasny i zrozumiały pouczone o przysługującym im pawie do złożenia wspomnianego wniosku.

Z racji, że obecnie powszechną praktyka jest korzystanie przez banki z usług zewnętrznych dostawców technologii, w tym z obszaru AI, należy pamiętać, że korzystanie z usług takich zewnętrznych dostawców może wiązać się z koniecznością spełnienia wymogów dotyczących outsourcingu bankowego, wynikających z art. 6a-6dc PrBank. Ponadto, jeżeli stosowane systemy sztucznej inteligencji wspierane są przez rozwiązania chmury obliczeniowej publicznej lub hybrydowej, banki powinny także rozważyć konieczność stosowania tzw. Komunikatu chmurowego UKNF (tj. Komunikatu UKNF z dnia 23.01.2020 r. dotyczącego przetwarzania przez podmioty nadzorowane informacji w chmurze obliczeniowej publicznej lub hybrydowej).  

Czytaj w LEX: Flisak Damian, Akt w sprawie sztucznej inteligencji >

 

Ocena zdolności kredytowej a nowe regulacje w zakresie AI

W kontekście nadchodzących zmian aktem prawnym o największym znaczeniu z perspektywy podmiotów stosujących AI do oceny zdolności kredytowej jest AI Act, czyli rozporządzenie Parlamentu Europejskiego i Rady (UE) w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (Akt w sprawie sztucznej inteligencji). Na gruncie AI Act systemy sztucznej inteligencji służące do oceny zdolności kredytowej osób fizycznych lub ustalania ich scoringu kredytowego zostały, zgodnie z art. 6 rozporządzenia, zakwalifikowane jako systemy AI wysokiego ryzyka. Stosowanie przez banki systemów AI wysokiego ryzyka do oceny zdolności kredytowej będzie się wiązało z koniecznością spełnienia wymogów przewidzianych bezpośrednio dla takich systemów, wynikających zwłaszcza z art. 26 AI Act. Do obowiązków tych zalicza się korzystanie z systemu AI zgodnie z instrukcją dostawcy, zapewnienie adekwatności i reprezentatywności kontrolowanych danych wejściowych, zapewnienie nadzoru nad systemem przez wykwalifikowaną osobę. Dodatkowo banki będą zobowiązane do przechowywania rejestrów zdarzeń wygenerowanych przez system AI, monitorowania oraz niezwłocznego informowania dostawcy i właściwego organu nadzoru, a w niektórych przypadkach, nawet do zawieszenia korzystania z systemu AI. Konieczne stanie się również spełnienie obowiązku informacyjnego w stosunku do osób, wobec których decyzja kredytowa będzie podejmowana przy użyciu AI.

Zobacz w LEX: DORA a sztuczna inteligencja – jak SI wpływa na cyberbezpieczeństwo w sektorze finansowym? >

Ponadto w przypadku systemów AI wysokiego ryzyka, wykorzystywanych przy ocenie zdolności kredytowej, na bankach będzie spoczywał obowiązek przeprowadzenia oceny skutków systemu AI wysokiego ryzyka dla praw podstawowych, o której mowa w art. 27 AI Act. Ocena ta musi poprzedzać wdrożenie systemu AI wysokiego ryzyka i obejmować opis procesów, przy których korzysta się z systemu AI oraz informacje o okresie i częstotliwości stosowania tego systemu. W przeprowadzanej ocenie powinny zostać także wskazane kategorie osób, wobec których będzie stosowany system AI wysokiego ryzyka, opis wdrożenia środków nadzoru ze strony człowieka oraz środki podejmowane w przypadku urzeczywistnienia się ryzyk dotyczących systemu. Instytucje finansowe po przeprowadzeniu wspomnianej oceny będą zobligowane do przedstawienia jej wyników właściwemu organowi nadzoru. 

Zobacz w LEX: Przesłanki udzielenia kredytu podmiotom nieposiadającym zdolności kredytowej >

 

Podkreślenia wymaga, że chociaż AI Act wszedł w życie w dniu 1 sierpnia 2024 r., to przepisy dotyczące systemów AI wysokiego ryzyka zaczną być stosowane w pełni dopiero po trzech latach od tej daty. Niemniej banki oraz inne instytucje udzielające kredytów już teraz powinny podjąć działania w celu zapewnienia zgodności z nowymi przepisami.

Zobacz w LEX: Zakres udzielanych wyjaśnień z art. 70a i 105a ust. 1a prawa bankowego z perspektywy systemów „sztucznej inteligencji” >

Dyrektywa o kredycie konsumenckim

Kolejnym aktem wartym wymienienia jest dyrektywa Parlamentu Europejskiego i Rady (UE) 2023/2225 z dnia 18 października 2023 r. w sprawie umów o kredyt konsumencki oraz uchylająca dyrektywę 2008/48/WE, nazywana potocznie dyrektywą CCD2 lub drugą dyrektywą o kredycie konsumenckim. Zgodnie z CCD2, w przypadku stosowania AI do oceny zdolności kredytowej, konsument powinien mieć możliwość uzyskania interwencji ludzkiej ze strony kredytodawcy, uzyskać rzeczowe i zrozumiałe wyjaśnienie w zakresie dokonanej oceny oraz mieć możliwość wyrażania własnego stanowiska, a nawet wystąpienia z wnioskiem o ponowną ocenę zdolności kredytowej i rozpatrzenie decyzji w sprawie kredytu. Implementacja dyrektywy przez państwa członkowskie powinna nastąpić do 20 listopada 2025 r., a jej przepisy powinny być stosowane rok później, tj. od dnia 20 listopada 2026 r.

Odpowiadając na pytanie, czy sztuczna inteligencja udzieli nam kredytu, z pewnością należy stwierdzić, że wesprze ona procesy obecnie stosowane w bankach. Już teraz możliwe jest dokonywanie oceny zdolności kredytowej w sposób zautomatyzowany, przy użyciu algorytmów sztucznej inteligencji. Banki stosujące takie rozwiązania powinny jednak pamiętać o potencjalnych ryzykach, charakterystycznych dla technologii AI. Jednym z nich jest ryzyko dyskryminacji kredytobiorcy, wynikające z zastosowania niewłaściwych danych na etapie „trenowania” systemu AI.

Czytaj też: Prof. Adamus: Czy byty cybernetyczne trzeba uregulować w kodeksie cywilnym? >

Warto również wspomnieć o problemach dotyczących black-box, czyli niemożności wytłumaczenia decyzji podjętej przez sztuczną inteligencję, jak również ryzyka niedostępności i niedopasowania danych do potrzeb banku. Powszechnie mówi się również o tzw. „halucynacjach” czyli zachwianiach systemu AI, polegających na tym, że generuje on niedokładne lub zupełnie błędne odpowiedzi. Często wynika to ze specyfiki samych systemów AI, zwłaszcza dużych modeli językowych, które są zaprojektowane w taki sposób, aby zawsze udzielać odpowiedzi na zadane pytania. W związku z tym banki, wdrażając rozwiązania oparte o sztuczną inteligencję, powinny wziąć pod uwagę nie tylko ryzyka i wymogi prawne, ale również wyzwania sfery technologicznej związane z systemami AI. 

Autorzy: 


Przemysław Janczak, Radca prawny, Senior Associate, kancelaria Traple Konarski Podrecki i Wspólnicy 


Hubert Łączkowski, Aplikant radcowski, Junior Associate, kancelaria Traple Konarski Podrecki i Wspólnicy

 

----------------------------------------------------------------------------------------------------------------------------------------------

Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów LEX jest zależny od posiadanych licencji.

Polecamy książki biznesowe