Prof. Dobrzaniecki w swoim wystąpieniu zwrócił uwagę na wpływ nowych technologii, w tym sztucznej inteligencji, na prawo, szczególnie od momentu pojawienia się GPT-4. Jego argumenty skupiały się na związku między prawem nowych technologii a informatyką prawniczą.

 

Potrzebne regulacje

Profesor podkreślił, że sztuczna inteligencja powinna przyczyniać się do wzrostu dobrobytu, zrównoważonego rozwoju, zwiększania możliwości ludzkich, rozwijania kreatywności, a także umożliwiania integracji grup wykluczonych. W kontekście prawnym, te aspekty odnoszą się do praw politycznych, cywilnych, socjalnych, a także do praw zbiorowości ludzkich.

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

W swojej wypowiedzi, profesor zwrócił uwagę na potencjalne konsekwencje wprowadzenia sztucznej inteligencji w obszarach prawniczych. Konsekwencje te obejmują:

  1. Kwestie odpowiedzialności: Dotyczy to odpowiedzialności za decyzje podejmowane przez sztuczną inteligencję. Kto ponosi odpowiedzialność, jeśli AI podejmie decyzję prowadzącą do szkód?
  2. Zagadnienia prywatności i ochrony danych: Sztuczna inteligencja będzie przetwarzać ogromne ilości danych, co stawia pytania o zasady dotyczące prywatności i ochrony tych danych.
  3. Konsekwencje dla zatrudnienia: AI może prowadzić do automatyzacji niektórych zadań prawniczych, co mogłoby mieć wpływ na zatrudnienie w sektorze prawniczym.

- Ostatecznie, naszym celem powinno być zapewnienie, że wprowadzanie sztucznej inteligencji do prawa przynosi korzyści dla społeczeństwa jako całości, a nie tylko dla nielicznych. Powinniśmy dążyć do tego, aby technologia była używana w sposób, który zwiększa sprawiedliwość, równość i poszanowanie praw człowieka. Przede wszystkim, powinniśmy dążyć do tego, aby wszyscy obywatele mogli w pełni korzystać ze swoich praw podmiotowych, niezależnie od tego, jak technologia będzie kształtować zawody prawne w przyszłości – mówił prof. Dobrzaniecki.

Czytaj w LEX: Wpływ rozwoju sztucznej inteligencji na proces stanowienia prawa w Polsce >>

AI pomocne w  codziennej pracy

O wykorzystaniu AI mówił też prof. ALK dr hab. Aleksander Maziarz w prelekcji: „Problematyka wykorzystania generatorów tekstu w badaniach naukowych z zakresu nauk prawnych”. Wskazywał, że modele językowe posiadają potencjał do wspomagania, a nawet zastępowania ludzkich badaczy w prowadzeniu badań naukowych. Już teraz wykazują one zdolność do generowania treści na wysokim poziomie, zdawania egzaminów prawniczych czy asystowania w tworzeniu artykułów naukowych. W praktyce mogą one przyspieszyć takie procesy jak przegląd literatury, generowanie hipotez, redakcja tekstów czy komunikacja z publicznością.

Tłumaczył jednak, że posiadają istotne ograniczenia, takie jak problem z generowaniem składnych i specyficznych odpowiedzi, brak możliwości weryfikacji źródeł informacji, kwestie prywatności danych czy ryzyko dyskryminacji. Te bariery uniemożliwiają pełne zastąpienie badacza przez model językowy.

- Wykorzystanie ich w praktyce naukowej wymaga ciągłego nadzoru, krytycznego myślenia i odpowiedzialnego podejścia do etyki i prywatności danych. Warto też pamiętać, że technologia ta jest ciągle w fazie rozwoju i przyszłe modele językowe będą stawiać przed nami nowe wyzwania i pytania etyczne – wskazywał prof. Maziarz.

Mimo że modele językowe, takie jak GPT, wykazują obiecujący potencjał w zakresie badań naukowych, istotne jest kontynuowanie badań nad ich możliwościami i ograniczeniami. Poniżej znajdują się kilka obszarów, które mogą wymagać dalszej eksploracji.

  1. Rozumienie kontekstu: Modele językowe, mimo że potrafią przetwarzać duże ilości informacji, nadal mają trudności z pełnym zrozumieniem kontekstu. Potrzebne są dodatkowe badania, które pozwolą na lepsze zrozumienie, jak modele mogą poprawić swoje zdolności do interpretowania kontekstu.
  2. Etyka i prywatność: Zastosowanie modeli językowych w badaniach naukowych stwarza istotne pytania dotyczące etyki i prywatności. Należy przeprowadzić więcej badań, które pozwolą na zrozumienie, jak te modele mogą być używane w sposób bezpieczny i etyczny.
  3. Interakcja z ludźmi: Modele językowe będą coraz częściej interakcji z ludźmi w różnych kontekstach, w tym w badaniach naukowych. Wymaga to dalszego badania, jak te modele mogą efektywnie i bezpiecznie współdziałać z ludźmi.