Opublikowane w marcu 2024 rekomendacje Grupy Roboczej ds. Sztucznej Inteligencji (GRAI) przy Ministerstwie Cyfryzacji dotyczące m.in. wykorzystania AI w tłumaczeniach ustnych i pisemnych w sądach i prokuraturze wzbudzają kontrowersje w środowisku tłumaczy. Analiza punktów 18 i 19 dokumentu wskazuje na brak zrozumienia praktycznych aspektów tłumaczenia poświadczonego oraz pominięcie głosu branży usług językowych.

 

Pominięty głos praktyków i realia tłumaczeń sądowych                                      

Wyraźnie widoczny jest brak konsultacji z praktykami branży tłumaczeniowej oraz naukowcami z dziedziny tłumaczeń prawniczych na etapie opracowania rekomendacji. W efekcie przedstawiają one wizję oderwaną od realiów – proponowane rozwiązania są nierealistyczne organizacyjnie i ryzykowne prawnie.

Punkt 18 rekomendacji proponuje system AI do tłumaczenia rozpraw na żywo. Rola tłumacza miałaby sprowadzać się do nadzoru nad maszyną, a uzasadnieniem tego rozwiązania jest rzekome spowalnianie postępowań przez tłumaczenia konsekutywne oraz domniemane zniekształcanie wypowiedzi przez tłumaczy.

Jest to przedstawienie pracy tłumacza w krzywym zwierciadle. Sugestia, że AI zapewni lepszą wierność przekładu, nie znajduje oparcia w dowodach i pomija kluczową rolę tłumacza w wychwytywaniu kontekstu kulturowego czy tonu wypowiedzi. Tłumacz ustny musi jednocześnie śledzić wypowiedzi wszystkich uczestników postępowania, interpretować kontekst prawny i uwzględniać niuanse kulturowe.

Przedstawiona w rekomendacjach propozycja monitorowania i korygowania tłumaczenia AI przez tłumacza oznacza w praktyce podwójną pracę za mniejszą płacę – własne tłumaczenie plus weryfikacja wersji maszynowej. To zwiększa obciążenie kognitywne i ryzyko błędów po stronie tłumaczy. Paradoksalnie, system mający usprawnić pracę, w rzeczywistości ją komplikuje przy jednoczesnym obniżeniu wynagrodzenia.

 

Nowość
Bestseller
Kodeks etyki radcy prawnego. Komentarz
-30%
Nowość
Bestseller

Włodzimierz Chróścik

Sprawdź  

Cena promocyjna: 174.3 zł

|

Cena regularna: 249 zł

|

Najniższa cena w ostatnich 30 dniach: 174.3 zł


Technologiczne ograniczenia i ryzyko halucynacji AI

Autorzy rekomendacji pomijają kluczowe zagrożenia typowe dla systemów AI:

  • Halucynacje – tendencja do generowania nieistniejących informacji. W kontekście sądowym oznacza to ryzyko „dopisywania" fikcyjnych zeznań, dat czy okoliczności, co może zmienić obraz sprawy i kierunek rozstrzygnięcia.
  • Uprzedzenia kulturowe – modele AI trenowane na danych z zachodniego kręgu kulturowego nie radzą sobie z interpretacją wypowiedzi osób z odmiennych kultur, których różnice w postrzeganiu rodziny czy hierarchii społecznej wpływają na sposób komunikacji.
  • Brak zrozumienia kontekstu – sarkazm, ironia, aluzje, żargon czy slang pozostają wyzwaniem dla AI. W emocjonalnej atmosferze sali sądowej, gdzie świadkowie działają pod wpływem silnych emocji, a korzystanie ze slangu nie jest niczym nadzwyczajnym, systemy automatyczne bywają bezradne.

Modele AI radzą sobie najlepiej z wypowiedziami standardowymi, nieodbiegającymi od normy językowej, lecz w specjalistycznych, żargonowych, slangowych czy spontanicznych wypowiedziach łatwo o błąd znaczeniowy. Ryzyko błędów może przewyższyć hipotetyczne korzyści. Tymczasem rekomendacje zakładają wyższość AI nad człowiekiem bez żadnych dowodów czy testów na rzeczywistych materiałach sądowych.

Zobacz również: Język prawniczy - czyli jak pisać, by klient zrozumiał

 

Prawo do tłumacza jako fundament sprawiedliwego procesu

Prawo do tłumacza jest chronione na gruncie prawa międzynarodowego i krajowego. Europejska Karta Praw Człowieka (art. 6 ust. 3 lit. e) oraz Międzynarodowy Pakt Praw Obywatelskich i Politycznych gwarantują oskarżonym nieodpłatną pomoc tłumacza. Na poziomie unijnym Dyrektywa 2010/64/UE wymaga tłumaczeń o jakości umożliwiającej skuteczną obronę i wskazuje na konieczność udziału wykwalifikowanych specjalistów.

W Polsce ustawa o zawodzie tłumacza przysięgłego określa wysokie standardy – państwowy egzamin, przysięga, tajemnica zawodowa (art. 14), szczególna staranność (art. 15). Kodeks zawodowy (par. 27) zakazuje korzystania z internetowych systemów tłumaczenia niezapewniających poufności danych, co zostało całkowicie pominięte przez autorów rekomendacji.

 

Kodeks postępowania karnego (art. 72) i kodeks postępowania cywilnego (art. 5) gwarantują bezpłatnego tłumacza osobom niewładającym językiem polskim. Brak tłumacza to naruszenie mogące skutkować uchyleniem wyroku.

System gwarancji opiera się na założeniu, że tłumaczy wykwalifikowany specjalista. Dyrektywa nie przewiduje tłumaczeń automatycznych bez udziału kompetentnej osoby. Wdrażając AI, państwo nie może obniżyć tych standardów.

 

AI Act i klasyfikacja systemów wysokiego ryzyka

AI Act klasyfikuje systemy AI w wymiarze sprawiedliwości jako systemy wysokiego ryzyka ze względu na ich „potencjalnie istotny wpływ na demokrację, praworządność, wolności osobiste". Tłumaczenie rozpraw i dokumentów sądowych, wpływając na ustalenie faktów i prawo do obrony, niewątpliwie mieści się w tej kategorii.

Klasyfikacja jako system „wysokiego ryzyka" oznacza obowiązek: oceny zgodności, certyfikacji przed wdrożeniem, zarządzania ryzykiem, monitorowania działania i transparentności algorytmu. Sądy i prokuratury będą musiały zapewnić certyfikat zgodności z AI Act oraz możliwość wyjaśnienia działania systemu.

 

Problem odpowiedzialności za błędy w tłumaczeniu

Kluczowym problemem jest alokacja odpowiedzialności za błędy AI w tłumaczeniu. Obecnie tłumacz przysięgły ponosi odpowiedzialność zawodową za rzetelność przekładu, a Skarb Państwa – odszkodowawczą wobec stron. Tłumacz odpowiada ponadto za naruszenie tajemnicy zawodowej i należytej staranności.

Wdrożenie AI fundamentalnie komplikuje tę strukturę. Przy błędnym tłumaczeniu skutkującym np. niesłusznym skazaniem – kto odpowiada: tłumacz nadzorujący system, dostawca oprogramowania czy Skarb Państwa?

Systemy AI nie mają podmiotowości prawnej. Dostawcy standardowo wyłączają odpowiedzialność w regulaminach świadczenia usług. Przypisanie tłumaczowi odpowiedzialności za błędy systemu, którego działania nie może w pełni kontrolować, byłoby niesprawiedliwe i prawnie wątpliwe.

Prawdopodobnie odpowiedzialność przyjmie Skarb Państwa, skoro to organy wymiaru sprawiedliwości decydują o wdrożeniu AI. Taki model generuje jednak znaczące ryzyko finansowe wymagające uwzględnienia w analizie kosztów. Zastanawiająca jest beztroska autorów rekomendacji, którzy pomijają fundamentalną kwestię odpowiedzialności za błędy, polegając na domniemanej nieomylności AI.

 

Aspekty kulturowe

Współczesne przemiany geopolityczne skutkują rosnącą różnorodnością kulturową podsądnych w polskim wymiarze sprawiedliwości. Systemy AI, trenowane na tekstach z zachodniego kręgu kulturowego, mają ograniczoną zdolność interpretacji wypowiedzi osób z odmiennych kultur.

Różnice kulturowe w postrzeganiu rodziny, hierarchii społecznej czy religii determinują wzorce komunikacyjne uczestników postępowań. Przekładają się one na strukturę wypowiedzi, figury retoryczne i niewypowiedziane intencje – elementy kluczowe dla interpretacji zeznań. Systemy AI, pozbawione kompetencji interkulturowej, nie uwzględniają tych aspektów komunikacji.

 

Deficyt tłumaczy języków rzadkich – technologia jako wsparcie w obliczu realnych wyzwań

Polskie sądy borykają się z chronicznym niedoborem tłumaczy przysięgłych wielu języków. Znalezienie tłumacza języków rzadkich bywa niezwykle trudne, co prowadzi do przewlekłości postępowań. W takich sytuacjach AI może służyć jako narzędzie awaryjne – do wstępnego rozpoznania treści lub podstawowej komunikacji do czasu przybycia tłumacza.

Przestrogą jest wyrok WSA w Białymstoku (II SA/Bk 558/22), który zaakceptował wykorzystanie automatycznych translatorów przez Straż Graniczną w procedurach azylowych. To pokazuje, jak łatwo rozważania teoretyczne mogą przekształcić się w praktykę naruszającą gwarancje procesowe.

Technologia musi pozostać narzędziem pomocniczym, stosowanym wyjątkowo i zawsze pod nadzorem tłumacza. W przeciwnym razie ryzykujemy wprowadzenie systemu, gdzie efektywność administracyjna przeważa nad sprawiedliwością proceduralną.

 

Bezpieczeństwo danych i suwerenność technologiczna

Autorzy rekomendacji pomijają fundamentalne ryzyko związane z bezpieczeństwem danych. Komercyjni dostawcy systemów AI standardowo retencjonują i analizują przetwarzane dane w celu udoskonalania algorytmów, co pozostaje w sprzeczności z zasadami poufności postępowań sądowych. Nawet jeśli pojawiają się zapewnienia o braku wykorzystania danych do trenowania swoich narzędzi, to wprowadzają szereg wyjątków i zastrzeżeń dotyczących szeroko pojętych aspektów bezpieczeństwa narodowego oraz nakazów sądowych.

Amerykańskie przepisy jak CLOUD Act czy FISA umożliwiają służbom USA dostęp do danych przechowywanych przez amerykańskie firmy technologiczne – niezależnie od lokalizacji serwerów. Oznacza to, że dane z polskich postępowań sądowych mogą zostać ujawnione bez wiedzy polskich władz.

Problem nabiera krytycznego znaczenia w sprawach osób ubiegających się o azyl, ofiar handlu ludźmi czy świadków objętych ochroną. Ujawnienie ich danych może bezpośrednio zagrozić ich bezpieczeństwu.

Z tego względu niezbędne jest oparcie systemu na infrastrukturze krajowej, pozostającej pod kontrolą państwa polskiego. Tylko taki model gwarantuje poufność danych procesowych i niezależność od decyzji zagranicznych podmiotów.

 

Konieczność kompleksowego przygotowania infrastrukturalnego

Implementacja AI wymaga fundamentalnej modernizacji infrastruktury technicznej sądów i prokuratur. Obecnie występują podstawowe braki – niewystarczająca jakość systemów audio czy niestabilne połączenia sieciowe. W takich warunkach wdrażanie zaawansowanych systemów AI jest przedwczesne. Równolegle konieczne są systematyczne szkolenia personelu, który musi nie tylko obsługiwać narzędzia, ale przede wszystkim rozumieć ograniczenia AI i krytycznie oceniać jej rezultaty. Tylko na fundamencie odpowiedniej infrastruktury i wykwalifikowanej kadry możliwe będzie kontrolowane wdrażanie technologii.

 

Ekonomiczny aspekt wdrożenia – pozorne oszczędności

Autorzy rekomendacji zakładają, że AI przyspieszy postępowanie i obniży koszty, nie przedstawiając żadnych kalkulacji. Propozycja obniżenia wynagrodzeń tłumaczy przy zwiększeniu ich obciążenia (nadzór nad AI) jest niesprawiedliwa i doprowadzi do odpływu specjalistów.

Rekomendacje pomijają rzeczywiste koszty: infrastruktura serwerowa, centra danych, oprogramowanie, personel IT oraz rosnące zużycie energii. Korzystanie z krajowych rozwiązań ze względów bezpieczeństwa dodatkowo zwiększy wydatki.

Obecne roczne wydatki na usługi tłumaczy przysięgłych ponoszone przez polskie sądownictwo wynoszą około 26 mln zł. Koszty wdrożenia AI – inwestycje, szkolenia, utrzymanie infrastruktury – mogą znacząco przekroczyć ten poziom, zwłaszcza że tłumacze nadal będą otrzymywać wynagrodzenia za nadzór. Autorzy gołosłownie zakładają oszczędności bez jakiejkolwiek analizy kosztów.

 

Wnioski i rekomendacje na przyszłość

Wdrażanie AI w sądownictwie jest nieuchronne, jednak wymaga kompleksowego podejścia uwzględniającego wszystkie ryzyka. Analiza rekomendacji GRAI ujawnia poważne braki wynikające z pominięcia perspektywy praktyków i ignorowania ograniczeń technologicznych.

Optymalna strategia wdrożeniowa powinna opierać się na trzech fundamentach:

Po pierwsze, niezbędna jest modernizacja infrastruktury. Bez stabilnych systemów audio i połączeń internetowych wprowadzanie AI jest przedwczesne. Równolegle konieczne są pilotaże w obszarach niskiego ryzyka – wsparcie przy dokumentach administracyjnych czy w sytuacjach braku tłumaczy języków rzadkich.

Po drugie, kluczowe jest powołanie interdyscyplinarnych zespołów obejmujących tłumaczy przysięgłych, naukowców z obszaru lingwistyki i translatoryki, sędziów, prokuratorów i ekspertów IT. Tylko taka współpraca zapewni uwzględnienie praktycznych aspektów i realnych potrzeb wymiaru sprawiedliwości.

Po trzecie, ze względu na bezpieczeństwo danych priorytetem muszą być rozwiązania krajowe i suwerenność technologiczna w obszarze wymiaru sprawiedliwości.

AI może wspierać pracę tłumaczy, ale nie może ich zastąpić. W wymiarze sprawiedliwości, gdzie błędy w tłumaczeniu mogą mieć wpływ na niesłuszne skazanie, utratę praw rodzicielskich, prawo do azylu lub istotne interesy majątkowe, nie ma miejsca na technologiczny optymizm pozbawiony empirycznego uzasadnienia.

 

Wojciech Wołoszyk – przewodniczący Związku Pracodawców Branży Tłumaczeniowej POLOT, członek Kolegium Ekspertów Polskiego Towarzystwa Tłumaczy Przysięgłych i Specjalistycznych, biegły sądowy z zakresu lingwistyki prawniczej języka angielskiego, prawnik lingwista w TSUE i Międzynarodowym Trybunale Karnym w Hadze, prezes zarządu IURIDICO Legal & Financial Translations sp. z o.o., wykładowca tłumaczeń specjalistycznych na Wydziale Humanistycznym Politechniki Koszalińskiej