W praktyce oznacza to, że ważniejsze od efektów generatywnych będą pochodzenie materiału, rozkład ciężaru dowodu oraz możliwość uzyskania informacji i logów od dostawców i podmiot składający produkt z komponentów pełni funkcję producenta systemów.

Po publikacji rozporządzenia (UE) 2024/1689 (AI Act) w 2024 r. stosowanie przepisów jest rozłożone w czasie — najpierw wchodzą w życie zakazy (art. 5), następnie obowiązki dla modeli ogólnego przeznaczenia (GPAI – modele ogólnego przeznaczenia, Tytuł V), a dalej obowiązki przejrzystości z Tytułu IV (w tym art. 50). Ten kalendarz już dziś wpływa na układ procesowy, bo część uczestników rynku podlega reżimom ujawnieniowym wcześniej, inni - później. Dla porządku dodajmy, że zakazy z art. 5 AI Act stosuje się od 2 lutego 2025 r., obowiązki dla GPAI od 2 sierpnia 2025 r., a większość pozostałych wymogów, w tym art. 50, od 2 sierpnia 2026 r.

Czytaj: AI puka do sądów i prokuratur – a tam na razie standardów brak>>

AI w sądach sprawdzi się jako asystentka, ale sędziego nie zastąpi​>>

 

Co wynika z dyrektywy? 

Dyrektywa (UE) 2024/2853 w sprawie odpowiedzialności za wadliwe produkty (PLD – dyrektywa 2024/2853 o odpowiedzialności za wadliwe produkty) obejmuje także oprogramowanie i systemy AI. 

Poza klasyczną triadą (wada–szkoda–związek przyczynowy) wprowadza: (1) obowiązek ujawnienia dowodów na żądanie sądu oraz (2) wzruszalne domniemania, w tym domniemanie wady lub związku przyczynowego, gdy pozwany nie ujawnia wymaganych informacji. Brak logów, dzienników audytu, informacji o wersji modelu czy sposobie wdrożenia może przechylić szalę procesu na niekorzyść pozwanego, przy jednoczesnej ochronie tajemnicy przedsiębiorstwa (np. zawężone postanowienia, oględziny in camera, anonimizacja). Na gruncie PLD 2024/2853 sąd może nakazać ujawnienie dowodów zgodnie z art. 9, a brak ujawnienia skutkuje domniemaniem wady zgodnie z art. 10 ust. 2 lit. a. Sąd chroni tajemnicę przedsiębiorstwa na etapie ujawniania.

 

Punkt ciężkości z treści na pochodzenie

Spory o autentyczność obrazów, nagrań i dokumentów (tworzonych lub edytowanych z użyciem AI) będą częstsze niż spory „o algorytm”. Punkt ciężkości przesuwa się z treści na pochodzenie. Standard C2PA/Content Credentials umożliwia kryptograficzne udokumentowanie źródła oraz łańcucha modyfikacji pliku, tworząc weryfikowalną historię. Nie przesądza to mocy dowodowej, ale porządkuje minimum weryfikacyjne. Standard C2PA, znany jako Content Credentials, pozwala kryptograficznie opisać pochodzenie i historię edycji. Adopcja rośnie, choć nie wszędzie jest jednolita. Gdy łańcuch poświadczeń zostaje przerwany przy eksporcie albo edycji bez zapisu metadanych, weryfikacja się zawęża.

Przestroga zza oceanu to oczywiście halucynacje i należyta staranność. Sprawa Mata v. Avianca pokazała dobitnie, że „halucynacje” generatywne mają konsekwencje etyczne i dyscyplinarne, sąd nałożył sankcje za powołanie nieistniejących orzeczeń. W polskiej praktyce standard należytej staranności oznacza, że AI może wspierać, ale nie zastępuje weryfikacji źródeł, subsumpcji i oceny adekwatności.

Asymetria informacyjna, wiedza o działaniu systemu po stronie dostawcy/podmiot składający produkt z komponentów pełni funkcję producenta , będzie regułą. Instrumenty AI Act (zwłaszcza Tytuł IV) i PLD (art. 9–10) mają tę asymetrię redukować: obowiązki informacyjne i mechanizmy ujawnieniowe pozwalają domykać materiał dowodowy przy zachowaniu proporcjonalności oraz ochrony tajemnicy przedsiębiorstwa.

Czytaj też w LEX: Rozstrzyganie sporów cywilnych związanych z wykorzystaniem systemów AI – problemy utrudniające orzekanie >

 

AI w sądzie pozostanie narzędziem

Na uwagę zasługuje także kwestia odpowiedzialności w łańcuchu i ryzyko „rozmycia winy”. PLD poszerza krąg potencjalnie odpowiedzialnych — producent, importer, upoważniony przedstawiciel, dystrybutor, a w określonych sytuacjach także podmiot składający produkt z komponentów pełni funkcję producenta. W ekosystemie AI, gdzie model, aplikacja i wdrożenie są rozdzielone, postępowanie powinno zmierzać do podmiotu faktycznie kontrolującego ryzyko i decyzje konfiguracyjne. Kluczowe staje się skrupulatne określenie ról w tym łańcuchu.

Jaki jest punkt dojścia? AI w sądzie pozostanie narzędziem. Jej wartość to szybkość dotarcia do materiału i wsparcie analizy, nic więcej. Ostatecznie liczą się pochodzenie treści, kontrolowalność procesu i transparentność uczestników rynku. Spory „o AI” są w istocie sporami o dowód, jawność i rozkład ryzyka, kategorie znane polskiemu prawu procesowemu i europejskim ramom odpowiedzialności.

Czytaj też w LEX: Odpowiedzialność cywilna za szkody wyrządzone klientom w wyniku wykorzystywania przez radców prawnych systemów sztucznej inteligencji >