Wyrok KIO (o kilku sygnaturach, w tym KIO 3347/25) stał się głośny, pokazuje bowiem, jakie skutki może nieść bezkrytyczne zaufanie do sztucznej inteligencji czy korzystanie z niewłaściwych narzędzi.

 

Halucynacje AI w dokumencie przetargowym

Firma, która odwołała się od wyników przetargu, zarzuciła wybranemu wykonawcy, że ten w wyjaśnieniach przekazał zamawiającemu tekst pełen błędów merytorycznych, a nawet sprzeczny z wcześniejszymi własnymi twierdzeniami. Przykładowo, podał błędne kody PKWiU, w tym dotyczące usług, które w ogóle nie występowały w postępowaniu, a także w niezasadny sposób odwołał się do usługi kompleksowej przy VAT. Wykonawca nieprawidłowo zakwalifikował również usługi zimowego i letniego utrzymania dróg – jako usługi związane z zagospodarowaniem terenów zieleni, a nie jako usługi zamiatania śmieci i usuwania śniegu. Na dodatek błędne informacje znalazły się w cytatach z interpretacji indywidualnych dotyczących VAT, które, jak się okazało, w ogóle nie istniały.

Czytaj też w LEX: Słownik pojęć ze świata sztucznej inteligencji >

Firma, o którą chodziło, w swoim stanowisku procesowym wprawdzie zaprzeczała zarzutom odwołującego, ale nie przedstawiła dowodów wykazujących, że kwestionowane treści są prawdziwe. Nie zaprzeczała, że posłużyła się sztuczną inteligencją, stwierdziła jednak, że nie ma przepisu, który by tego zabraniał.

Izba wykluczyła wykonawcę z przetargu. Uznała, że informacje wytworzone przez AI wprowadzały w błąd co do przyjęcia przez niego ustalonej w ofercie stawki VAT. Dodała, że nie ma znaczenia, czy było to wynikiem ludzkich błędów, czy niewłaściwego wykorzystania narzędzi AI. Z wyroku KIO wynika, że prawo zamówień publicznych (dalej: Pzp) nie zabrania użycia takich programów. Ale, jak wyjaśnia Izba: „problem jednak ‎w tym, że wbrew obiegowej, potocznej nazwie, narzędzia te mają niewiele wspólnego ‎z inteligencją, co jest szczególnie widoczne na gruncie prawnym. Pozbawione należytego nadzoru programy AI nie rozróżniają podstawowych pojęć z zakresu prawa, czy stanu prawnego aktualnego na określony moment. Stąd też pojęcie ‘halucynacji’ czyli charakterystycznego dla narzędzi AI zjawiska "dotwarzania" informacji w miejsce brakujących. Posługiwanie się tego typu oprogramowaniem wymaga szczególnej uwagi ‎i staranności po to, by uniknąć sytuacji jak ta wskazana w odwołaniu”. W konsekwencji Izba uznała, że doszło do wypełnienia przesłanek z art. 109 ‎ust. 1 pkt 10 Pzp i zarzut uwzględniła.

Badanie, czy zachodzą fakultatywne przesłanki wykluczenia wykonawców z postępowania - zobacz procedurę w LEX >

 

Cena promocyjna: 215.2 zł

|

Cena regularna: 269 zł

|

Najniższa cena w ostatnich 30 dniach: 188.3 zł


Użycie AI nie jest poważnym naruszeniem obowiązków

Natomiast łagodniej Izba podeszła do kolejnego zarzutu - z art. 109 ust. 1 pkt 5 Pzp. Przepis ten pozwala wykluczyć z postępowania o udzielenie zamówienia wykonawcę, który w sposób zawiniony poważnie naruszył obowiązki zawodowe, co podważa jego uczciwość, w szczególności gdy wykonawca w wyniku zamierzonego działania lub rażącego niedbalstwa nie wykonał lub nienależycie wykonał zamówienie, ‎co zamawiający jest w stanie wykazać za pomocą stosownych dowodów. Izba uznała, że odwołujący postawił zarzut idący zdecydowanie zbyt daleko. „Art. 109 ust. 1 pkt 5 Pzp to przepis dotyczący poważnych naruszeń obowiązków zawodowych skutkujących podważeniem uczciwości wykonawcy. Błąd wynikający wedle wszelkiego prawdopodobieństwa z lekkomyślności lub niedbalstwa nie może zostać zakwalifikowany jako podstawa wykluczenia wykonawcy z tak restrykcyjnego przepisu” – czytamy w uzasadnieniu do wyroku KIO.

Czytaj też w LEX: Wykluczenie wykonawcy na podstawie art. 109 ust. 1 pkt 8 i 10 PZP >

- Sztuczna inteligencja popisała się elokwencją i wykonała kilkaset stron opisu. Ale podane przez nią informacje nie odzwierciedlały rzeczywistości. Przy czym wykonawca został wykluczony nie dlatego, że użył AI, ale dlatego, że informacje, które podał, były nierzetelne – podsumowuje Agnieszka Trojanowska, rzecznik prasowy Krajowej Izby Odwoławczej. Jak dodaje, wyjaśnienia dotyczące realności ceny podlegają rygorystycznej ocenie Izby, stąd nawet niezamierzone przedstawienie zamawiającemu informacji, które okazały się nieprawdziwe ma poważne skutki dla wykonawcy.

- Tymczasem AI może się oprzeć na informacjach do których ma dostęp, ale może też wytworzyć je samodzielnie w oparciu o własny zasób danych – dodaje Agnieszka Trojanowska.

Czytaj też w LEX: Ubezpieczenia OC osób wykonujących wybrane zawody prawnicze w kontekście odpowiedzialności za korzystanie z rozwiązań AI >

Rzeczniczka wskazuje też na skutki na przyszłość. Przede wszystkim w tych postępowaniach, w których wykonawca zechce brać udział w przyszłości, będzie musiał dokonywać samooczyszczenia, zgodnie z art. 110 ust 2 ustawy Prawo zamówień publicznych.

Jak przestrzega zaś Tomasz Zalewski, radca prawny prowadzący kancelarię Zalewski Legal, Pzp zawiera przepis, który nabiera szczególnego znaczenia w erze sztucznej inteligencji - art. 109 ust. 1 pkt 10, dotyczący przedstawienia informacji wprowadzających w błąd w wyniku lekkomyślności lub niedbalstwa. Jak mówi, jest to przesłanka fakultatywna, zamawiający musi ją wyraźnie wskazać w ogłoszeniu lub dokumentach zamówienia. Jednak coraz więcej zamawiających świadomie włącza tę podstawę wykluczenia do swoich SWZ. Uważa, że rosnące zagrożenie związane z nieweryfikowanym wykorzystaniem AI przyczyni się do zwiększenia popularności tej możliwości.

>> Zobacz: Poprawmy prawo - zgłoś przepisy do zmiany, wygraj dostęp do LEX z nowym AI

 

Używam, ale sprawdzam

- Sztuczna inteligencja to tylko narzędzie, nie można jej ufać, tak jak sobie – mówi dr hab. Włodzimierz Dzierżanowski, prokurent w Grupie Doradczej Sienna, były wiceprezes UZP. - Jeżeli coś napisze, to po prostu trzeba po niej sprawdzać. Można też wskazać jej źródła, z których ma korzystać. Chodzi o to, żeby nie korzystała z ogólnych zasobów internetu, w tym rożnych blogów, niesprawdzonych publikacji itp., które mogą być nierzetelne. I wtedy ona zupełnie nieźle pisze – wskazuje. - Sam używam AI, uważam, że jest pomocna. Ale dokładnie weryfikuję, czy nie kłamie - dodaje.

- Zgadzam się, że sztuczna inteligencja może być ogromnym wsparciem, ale nie zastąpi odpowiedzialności człowieka. Zmienia sposób, w jaki pracujemy, ale nie zmienia tego, kto ponosi konsekwencje. Dlatego tak ważne jest korzystanie z rzetelnych i sprawdzonych źródeł informacji. To podstawa jakości i zaufania. Nie możemy opierać się na otwartych modelach, które czerpią dane z ogólnych zasobów Internetu, bo to zawsze niesie ryzyko błędów i utraty poufności. Dlatego stworzyliśmy rozwiązanie, które dostarcza wartość klientom w oparciu o zamknięty, bezpieczny ekosystem, bazujący na autorskich treściach i zweryfikowanych źródłach. Dzięki temu wiemy, skąd pochodzą dane i możemy zagwarantować ich wiarygodność. AI ma wspierać ludzi, a nie działać w oderwaniu od nich – to my nadajemy jej kierunek i kontrolujemy wyniki– podkreśla Marcin Kleina, prezes zarządu Wolters Kluwer Polska.

Czytaj też w LEX: Odpowiedzialność cywilna za szkody wyrządzone klientom w wyniku wykorzystywania przez radców prawnych systemów sztucznej inteligencji >

Podobnego zdania jest mec. Zalewski. - Jeżeli używamy narzędzia AI, to po prostu musimy sprawdzać wyniki. Nie jest nowością, że do pracy wykorzystujemy różnorodne narzędzia. Przecież od kiedy korzystamy z komputerów, możliwe jest kopiowanie całych fragmentów tekstów. I może się zdarzyć, że w kopiowanym tekście jest błąd. Jeżeli zamiast kopiowania użyję Chata GPT, to jaka to jest różnica? Trzeba być po prostu starannym i sprawdzać, czy to, co kopiujemy jest prawidłowe i ewentualnie dokonać poprawek – mówi prawnik.

Ale uważać powinni też zamawiający, bo wykluczenie może też ich dotyczyć. - Takim błędem po stronie zamawiających może być próba opisu przedmiotu zamówienia z wykorzystaniem AI. Może się ona zainspirować opisem konkretnego rozwiązania i wtedy wykonawcy mogą tę specyfikację zaskarżyć. Ale takiego rozstrzygnięcia do tej pory nie mamy - mówi Agnieszka Trojanowska.

 

 

Warto kwestię AI uregulować w firmie

Jak przekonuje mec. Zalewski lepiej wprowadzać w firmie elementy edukacyjne i zasady posługiwania się AI, niż udawać, że problem nie istnieje. - Z AI można korzystać z prywatnego czy bezpłatnego konta. To naraża firmę na szereg różnych niebezpieczeństw, zwłaszcza, jeśli w ramach prywatnych kont wpisywane są prompty zawierające dane osobowe czy tajemnice przedsiębiorstwa, co jest oczywistym złamaniem prawa. Żeby uniknąć takich sytuacji, trzeba przygotowywać wewnętrzne polityki czy procedury określające w jaki sposób postępować z narzędziami AI – wskazuje.

Jego zdaniem w zależności od firmy, mogą być one albo bardzo proste albo skomplikowane. Zależnie od tego do czego te narzędzia mogą być wykorzystywane, powinny z nich wynikać proste wskazówki, zrozumiałe dla pracowników. Może to być np. zakaz korzystania z innych systemów AI niż te, które dostarcza firma, trzeba się jednak wówczas liczyć z tym, że trzeba pracownikom dostarczyć takie narzędzia, które są płatne.

Czytaj także: Sztuczna inteligencja ukradła głos lektora? Prawnicy o możliwych konsekwencjach

Jeśli ktoś chce korzystać z bezpłatnych, ogólnie dostępnych AI, od strony formalno-prawnej nie ma ku temu przeszkód. Trzeba jednak pamiętać, żeby do takich systemów nie wprowadzać żadnych danych osobowych ani tajemnic przedsiębiorstwa.

- Jednak wykorzystujemy wtedy niewielki procent potencjału, który daje na sztuczna inteligencja. Jeżeli chcemy lepiej ją wykorzystać, to musimy mieć możliwość dodania dokumentów, w których mogą być jakieś tajemnice. Oczywiście można je zanonimizować, usuwać informację objęte tajemnicą, ale na to potrzeba czasu. I zawsze istnieje ryzyko, że coś się przegapi – kwituje mec. Zalewski.

Czytaj też w LEX: Sztuczna inteligencja w administracji samorządowej >