Jednym z takich obszarów, wymienionych w załączniku III do AI ACT jest obszar zatytułowany - sprawowanie wymiaru sprawiedliwości i procesy demokratyczne. W zakresie procesów demokratycznych AI ACT doprecyzowuje, że chodzi tu o systemy AI przeznaczone do wykorzystywania w celu wywierania wpływu na wynik wyborów lub referendum lub na zachowanie osób fizycznych podczas głosowania w wyborach lub referendach. Nie obejmuje to systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji lub strukturyzowania kampanii politycznych z administracyjnego lub logistycznego punktu widzenia.

Pojęcie wyborów i referendum definiowane jest w ustawie z 5 stycznia 2011 r. Kodeks wyborczy. Zgodnie z art. 5 pkt 1 tej ustawy przez wybory należy rozumieć wybory do Sejmu i do Senatu, wybory Prezydenta Rzeczypospolitej, wybory do Parlamentu Europejskiego w Rzeczypospolitej Polskiej, wybory do organów stanowiących jednostek samorządu terytorialnego oraz wybory wójtów, burmistrzów i prezydentów miast. Natomiast zgodnie z art. 5 pkt 2 ustawy przez referenda należy rozumieć referenda ogólnokrajowe i referenda lokalne.

Nie budzi zdziwienia, że wykorzystywanie systemów AI w obszarze procesów demokratycznych tworzy dodatkowe ryzyka, w tym możliwość wpływania na wynik wyborczy lub referendalny. Stosowanie systemów AI w takim celu nie jest zabronione, niemniej systemy AI powinny spełniać wszystkie wymogi z AI ACT zastrzeżone dla systemów wysokiego ryzyka. AI ACT wiąże również klasyfikowanie takich systemów jako systemów wysokiego ryzyka z art 39 Karty praw podstawowych Unii Europejskiej, który dotyczy prawa do głosowania i kandydowania w wyborach do Parlamentu Europejskiego.   

 

Wywieranie wpływu na wynik wyborów a wywieranie wpływu głosujących

Przedstawienie listy obowiązków, jakie powinien spełniać system AI wysokiego ryzyka, jest bardzo ważne i zasługuje na odrębne opracowanie, do którego wstępem powinno być w pierwszym rzędzie ustalenie, jakie kryteria będą decydowały, czy w ogóle mamy do czynienia z system AI wysokiego ryzyka w obszarze procesów demokratycznych. Powstaje zatem praktyczne pytanie, jak stwierdzić, że mamy do czynienia z systemem AI wysokiego ryzyka w obszarze procesów demokratycznych.  

Pierwszym wyróżnikiem jest określenie przeznaczenia działania systemu AI. System AI musi być przeznaczony do wywierania wpływu, co oznacza, iż skutek w tej postaci, że taki wpływ faktycznie został wywarty nie jest kluczowym elementem dla uznania systemu AI za system wysokiego ryzyka. Chodzi o cel i przeznaczenie działania systemu, tj. ukierunkowanie systemu AI na wywarcie takiego wpływu. Z treści przepisu wynika także, że sam proces wywierania wpływu nie jest zabroniony, co oczywiście jest spójne z powszechnym podejściem do udziału w wyborach, gdzie wywieranie wpływu na wynik wyborczy jest immanentnym elementem prowadzenia kampanii wyborczych i na zasadach określonych przepisami prawa jest dozwolone.

Kolejno AI ACT wyróżnia dwa ośrodki wywierania wpływu, wskazując, że dany system AI może wpływać na wynik wyborów/referendum lub na zachowanie osób fizycznych podczas głosowania w wyborach lub referendach.

Wywieranie wpływu na wynik wyborów i referendów można odczytywać precyzyjnie, tj. w ten sposób, że działanie systemu AI docelowo skoncentrowane jest na zmianie wyniku wyborów/referendum. Wywieranie wpływu na zachowanie osób fizycznych nie jest już bezpośrednio powiązane z wynikiem wyborów i referendum, ale dotyczy procesu głosowania. Oznacza to, że sam wpływ systemu AI na zachowanie osoby podczas głosowania, niezależnie czy zmiana tego zachowania przez system AI będzie miała wpływ na wynik wyborów/referendum, stanowi o obowiązku zakwalifikowania takich systemów jako systemów wysokiego ryzyka.

Z tej perspektywy kwalifikację systemów wysokiego ryzyka będą miały nie tylko systemy AI „zatrudnione” do udziału w prowadzeniu kampanii wyborczej sensu stricte, ale również każde inne, które oddziałują na zachowanie osoby fizycznej podczas dającego się wyodrębnić procesu głosowania.

Próbując wyodrębnić proces głosowania, należałoby posiłkować się przepisami ustawy z 5 stycznia 2011 r. Kodeks wyborczy, w szczególności rozdziałem 6, rozdziałem 6a i 7, które odpowiednio stanowią m. in. o głosowaniu osobistym, głosowaniu korespondencyjnym i głosowaniu przez pełnomocnika, z zastrzeżeniem przepisów dotyczących referendów ogólnokrajowych i lokalnych.

Zobacz w LEX:  AI w praktyce prawniczej – krok w nowoczesność czy skok w przepaść? > >

 

Kodeks wyborczy podpowiada, co może być systemem wysokiego ryzyka

Kolejnym wyzwaniem jest określenie procesów, które mogą być uznane jako mające wpływ (lub podejmowane są w celu wywierania wpływu) na wynik wyborów lub referendum lub mające wpływ (lub podejmowane w celu wywarcia wpływu) na zachowanie osoby fizycznej podczas głosowania.

Identyfikacja takich procesów będzie pomocna dla dalszego badania, tj. ustalania czy przy tych procesach stosowane są systemy AI. Z pomocą znów przychodzi ustawa Kodeks wyborczy, która definiuje pojęcie agitacji wyborczej. Zgodnie z jej art. 105 agitacją wyborczą jest publiczne nakłanianie lub zachęcanie do głosowania w określony sposób, w tym w szczególności do głosowania na kandydata określonego komitetu wyborczego.

Przeczytaj także:  Nielegalny „Deepfake” wymaga zmian w polskim prawie

Wpływanie na wynik wyborów to jednak pojęcie szersze, obejmujące również działania, które nie stanowią agitacji wyborczej. Za przykład takiego działania może być uznane np. kreowanie i rozpowszechnianie publicznego przekazu mającego zachęcać do udziału w wyborach i oddania swojego głosu, niekoniecznie oddania go na konkretnego kandydata. Ścisła interpretacja zakresu pojęcia agitacji wyborczej wskazuje, że za taką nie uchodzi np. nakłanianie do samego wzięcia udziału w wyborach. W rezultacie każdy proces (w tym np. niebędący nawet agitacją wyborczą),  którego skutkiem może być zmiana wyniku wyborczego lub referendalnego, a przy którym stosowany jest system AI, może prowadzić do wniosku, że system AI stosowany w takim procesie będzie systemem wysokiego ryzyka.

Pomocnym w zakreślaniu coraz to węższego zbioru takich procesów jest dalsza analiza AI ACT, który stanowi, że klasyfikacja ta nie obejmuje systemów AI, na których wyniki osoby fizyczne nie są bezpośrednio narażone, takich jak narzędzia wykorzystywane do organizowania, optymalizacji lub strukturyzowania kampanii politycznych z administracyjnego lub logistycznego punktu widzenia. Punktem wyróżniającym jest tutaj relacja pomiędzy określonym procesem a osobą, na którą ten proces może mieć wpływ. Jakkolwiek działania organizacyjne lub logistyczne w ramach kampanii wyborczych wpływają na jej skuteczność, ergo przekładają się pośrednio na wynik wyborczy, to jednak nie ma tutaj bezpośredniego oddziaływania na osobę, która głosuje w wyborach lub na wynik wyborów.

Każde działanie z wykorzystaniem systemów AI, którego wynikiem ma być zmiana wyniku wyborów lub zmiana zachowania osoby podczas głosowania, winno być zatem oceniane z tej perspektywy, czy zachodzi bezpośredni związek pomiędzy danym działaniem i systemem AI, będącym elementem tego działania, a odpowiednio wynikiem wyborów lub zachowaniem wyborcy podczas głosowania.   

Oczywistym jest, że zabronione jest wykorzystywanie systemów AI w działaniach, które zabronione są w Kodeksie wyborczym. Zabronione jest również stosowanie tzw. zakazanych praktyk, o których mowa w art. 5 AI ACT, tj. m.in takiego wykorzystywania systemów AI, które stosują celowe techniki manipulacyjne lub wprowadzające w błąd. Przy ocenie poszczególnych procesów, w których systemy AI są wykorzystywane, należy mieć również na uwadze przepisy ustaw regulujących referenda ogólnokrajowe i lokalne.

Sprawdź również w LEX:  Akt w sprawie sztucznej inteligencji > >

 

Audyt systemów przed kampanią wyborczą

Skrupulatne stosowanie AI ACT, bazujące na jego wykładni językowej, wymagać będzie, by, w szczególności w czasie przedwyborczym, dokonać drobiazgowej analizy używanych technologii, szczególnie przez komitety wyborcze, aby uniknąć surowych kar z AI ACT. Warto dodać, że zasady dotyczące klasyfikowania systemów AI wysokiego ryzyka w obszarach wskazanych w załączniku III do AI ACT, a wiec również w obszarze „procesów demokratycznych” stosować się będą już od 2 sierpnia 2026 r.

Zobacz także w LEX:  Sztuczna inteligencja: zrozumieć, opanować, zastosować. Prawne aspekty funkcjonowania > >

 

Nowość
Nowość

Dominik Lubasz

Sprawdź  

Cena promocyjna: 199 zł

|

Cena regularna: 199 zł

|

Najniższa cena w ostatnich 30 dniach: 149.25 zł