Rozmowa z dr Maciejem Kaweckim, dyrektorem Departamentu Zarządzania Danymi w Ministerstwie Cyfryzacji.

Katarzyna Żaczkiewicz-Zborska: Od 10 maja 2019 r. rząd Estonii wprowadza sztuczną inteligencję do sądownictwa. Czy to oznacza, że sztuczna inteligencja wykorzystywana w wymiarze sprawiedliwości nie jest bajką futurystyczną?

Maciej Kawecki: To nie jest fikcja. Byłem niedawno na posiedzeniu Rady Europy w Helsinkach, gdzie spotkałem się z przedstawicielami Ministerstwa Transportu i uzyskałem informację, że tamtejsze Ministerstwo Sprawiedliwości pracuje nad systemem sztucznej inteligencji w wymiarze sprawiedliwości.

Natomiast Estonia do końca tego roku planuje wdrożenie sztucznej inteligencji w pierwszej instancji sądownictwa cywilnego w sprawach, w których wartość przedmiotu sporu nie przekracza 7 tys. euro. Jednak będzie można odwołać się do człowieka.

Czytaj: Prawnicy przegrywają ze sztuczną inteligencją>>
 

Zresztą w 2016 r. brytyjski University College wraz z innymi uczelniami opracował raport na temat wdrożenia sztucznej inteligencji w sądownictwie. A w oparciu o ten raport powstało oprogramowanie IBM. Wykorzystano w tym celu ponad 600 orzeczeń Europejskiego Trybunału Praw Człowieka, które są jednymi z bardziej skomplikowanych. Przewidziało ono wyroki z 80 procentowym prawdopodobieństwem. Pozostałe 20 proc. to sprawy, w których w identycznych lub podobnych stanach faktycznych sztuczna inteligencja "orzekała" odmiennie niż sędziowie. Pytanie, czy sztuczna inteligencja nie jest bardziej obiektywna od człowieka?

 

Czy Ministerstwo Cyfryzacji także zajmuje się wykorzystaniem sztucznej inteligencji?

Tak. Pracujemy teraz nad wprowadzeniem sztucznej inteligencji w administracji publicznej, w podejmowaniu decyzji, ale też przygotowywane jest wbudowanie sztucznej inteligencji w system elektronicznego obiegu dokumentów. Po to, aby dokumenty mogły być automatycznie dekretowane do właściwych jednostek, aby nie trzeba było w urzędach tworzyć kancelarii ogólnych. Urzędnicy powinni zająć się bardziej twórczymi, innowacyjnymi rozwiązaniami.

Czy automat zajmowałby się formalnymi wymogami składanych pism?

Nie. Wyobraźmy sobie, że pismo wpływa do Ministerstwa Cyfryzacji do kancelarii ogólnej i kancelaria w oparciu o lekturę pisma decyduje, który departament wewnątrz ministerstwa sprawą będzie się zajmował. Jeżeli wprowadzimy sztuczną inteligencję, to na podstawie słów kluczowych będzie ona kierowała pisma do departamentów.

Słowo sztuczna inteligencja jest zabarwione fantazją, powinno się mówić o machine learningu, uczeniu maszynowym. Mamy z nią do czynienia w prostych czynnościach na co dzień, np. poczta outlook, która ma wbudowane algorytmy. To nic innego jak inteligencja pozwalająca wyszukiwanie treści maili w oparciu o słowa-klucze.

Wracając do prawa, czy automat potrafi dokonać subsumpcji?

Kontrowersja wokół wprowadzenia sztucznej inteligencji w wymiarze sprawiedliwości polega na tym, że należałoby najpierw "nakarmić" system ogromną liczbą wyroków zawierającą stany faktyczne. To jest kontrowersyjne, bo to są dane wrażliwe. Ale od tego uzależniona jest efektywność takiego systemu. Im więcej stanów faktycznych pozyska algorytm, tym jest "mądrzejszy". Wszystko jest powtarzalne. Algorytmy szukają identycznych spraw i na tej podstawie wydają orzeczenie.

Jakie widzi pan minusy wykorzystana algorytmu?

Niektóre czynności musi wykonywać człowiek. Na przykład automatyczne systemy lądowania samolotów. Od dawna wynaleziono automat, ale ze względów bezpieczeństwa robi to człowiek. Ufamy bardziej człowiekowi. A czy w wypadku wymiaru sprawiedliwości powinien wygrać obiektywizm, który gwarantuje algorytm, czy powinien wygrać element ludzki?

W sprawach karnych algorytm nie zadziała, gdzie skrucha i przyznanie się do winy wpływa na wymiar kary.

Nie słyszałem o przypadku rozstrzygania spraw karnych przez sztuczną inteligencję. To musiałyby być najbardziej zaawansowane systemy.

 

Wojciech Rafał Wiewiórowski, Grzegorz Wierczyński

Sprawdź