Z algorytmów korzystają nie tylko banki, ubezpieczyciele, czy sklepy internetowe, ale również instytucje publiczne. W Polsce systemy decydują na przykład o:

  • blokowaniu konta podejrzanych firm przez skarbówkę, tzw. STIR;
  • przydziale sędziów do konkretnych spraw (System Losowego Przydzielania Spraw);
  • ukaraniu mandatem za wykroczenia drogowe dzięki fotoradarom, tzw. CANARD, czyli Centrum Automatycznego Nadzoru nad Ruchem Drogowym;
  • profilowaniu bezrobotnych i dystrybucji pomocy dla nich;
  • przydzieleniu miejsca w żłobku czy szkole.

Mimo wpływu takich algorytmów na prawa człowieka, nie opracowano całościowej polityki gwarantującej bezpieczeństwo ich wdrażania, a wiedza na temat ich funkcjonowania pozostaje, w znacznej mierze, niejawna. Tak wynika z raportu pt. „alGOVrithms state of play” przygotowanego przez Fundację ePaństwo wspólnie z partnerami z Czech, Gruzji, Serbii, Słowacji i Węgier. - Nie tylko obywatele, ale i sami sędziowie mają problem z dostępem do informacji na temat funkcjonowania losowych systemów przydzielania ich do spraw, a polski system zawiera błędy – mówi Krzysztof Izdebski, dyrektor programowy fundacji ePaństwo. Podobne sytuacje występują również w Serbii, Słowacji, Gruzji i w Czechach, gdzie algorytmy wykorzystuje się m.in. do preselekcji oferentów w zamówieniach publicznych. Zdaniem autorów raportu państwa powinny zmienić politykę wykorzystywania zautomatyzowanego podejmowania decyzji (z ang. ADM, ​automated decision making). 

Zobacz: System losowego przydziału spraw w praktyce >

 


 

Brak dostępu do kodu źródłowego

Z raportu wynika, że w większości przypadków, brak jest dostępu do kodu źródłowego z powodów ochrony praw autorskich,a w niektórych krajach nie jest uznawany za informację publiczną. Na przykład polskie Ministerstwo Finansów poinformowało, że system teleinformatyczny automatycznie blokujący podejrzane przepływy finansowe (STIR) należy do zewnętrznego podmiotu, a umowa na jego wykonanie jest dokumentem prywatnym. Z kolei Minister Sprawiedliwości stwierdził, że algorytm w systemie losowego przydziału sędziów składa się z informacji technicznych i nie jest informacją publiczną w rozumieniu polskiej ustawy o dostępie do publicznego Informacje, a zatem nie podlegają ujawnieniu.

Zobacz: Rozszerzenie zakresu informacji przesyłanych przez banki za pośrednictwem STIR - nowelizacja Ordynacji podatkowej >

Brak nadzoru i weryfikacji poprawności działania

Autorzy raportu nie odnotowali ani jednej instytucji, która nadzoruje lub choć posiada kompleksową wiedzę o tym, jakie systemy zautomatyzowanego podejmowania decyzji istnieją w danym kraju. Każda organizacja rządowa może tak naprawdę opracować dowolne oprogramowanie zgodnie ze swoimi potrzebami i programami.  Jedynie w Serbii został dokonany audyt systemu przydzielania spraw sędziom, bo wymusiła go Unia Europejska, która finansowała jego powstanie. W innych sytuacjach nie są planowane żadne zewnętrzne i niezależne audyty mające monitorować poprawność i rzetelność funkcjonowania rozwiązań opartych o algorytmy.

Potrzebne są zmiany w obronie praw obywateli

Autorzy raportu rekomendują m.in. ustanowienie organu koordynującego wdrażania systemów do zautomatyzowanego podejmowania decyzji, wdrożenie jasnych i możliwie kompleksowych regulacji, wprowadzanie oceny skutków algorytmów oraz wprowadzanie klauzul przejrzystości w umowach ze spółkami dostarczającymi  programowanie i jawność dostępu do kodu źródłowego, opracowywanie systemu kontroli poprawności działania algorytmów. Krzysztof Izdebski podkreśla, że taki system powinien zawierać informację, kto w konkretnym urzędzie publicznym jest odpowiedzialny za poprawność i rzetelność algorytmu.