Monika Sewastianowicz: Czy w obliczu rewolucji, którą spowoduje sztuczna inteligencja, uczelnie nie są zbyt analogowe? Rewolucja związana z rozwojem sztucznej inteligencji wymusi zmiany w programach uczelni?

Marcin Wujczyk: Na pewno – zwłaszcza że obecnie jest z tym pewien problem. Nowe obszary usług bardzo powoli wchodzą uniwersyteckich programów nauczania. Moja macierzysta uczelnia, czyli Uniwersytet Jagielloński, jest tu wyjątkiem, bo wykład ze sztucznej inteligencji się na niej pojawił w ostatnich latach. Niemniej uważam, że uniwersytety powinny kłaść większy nacisk na tę materię, bo brakuje takich obszarów, które są istotne - np. prawa farmaceutycznego, czy choćby blockchainów. W kwestii formy uczelnie powoli się zmieniają - tu znów pochwalę swój uniwersytet, bo ostatnia reforma studiów wiele w tej kwestii zmieniła. Weszły rozwiązania, które pozwalają na nauczanie online, tutoring oraz wprowadzają praktyczne elementy, jak choćby symulacja rozpraw. To są jednak chlubne wyjątki - bo faktycznie, cały czas program jest nieco skostniały i blisko mu raczej do XIX w. pojmowania nauczania. Trzeba jednak podkreślić, że oczekiwania studentów są motorem zmian, bo są oni jednak żądni omawiania nowinek technicznych.

Czytaj: 
Sztuczna inteligencja to dla kancelarii szanse i zagrożenia>>
Czat GPT doskonały nie jest – profesjonalistów tak szybko nie zastąpi>>

Nie dziwi mnie to, bo przy tak gwałtownym rozwoju technologii, będą one ich codziennością. Czy polskie uczelnie płynnie dostosują się do nowych wymagań i będą kształtować w studentach potrzebne na rynku pracy kompetencje?

Nie mają wyjścia, za chwilę wszyscy będziemy musieli sprawnie korzystać z tych narzędzi, zatem wprowadzenie trzeba też wprowadzać do programów nauczania elementy, które pozwolą się do tych wymagań dostosować i z nowych narzędzi skutecznie korzystać. Myślę jednak, że to akurat jest kwestią bardziej techniczną, większym wyzwaniem będzie określenie, gdzie należy oprzeć się na wsparciu takich narzędzi, a gdzie należy wyznaczyć granicę tego, co możemy, a czego nie powinniśmy powierzać sztucznej inteligencji. Będzie to wymagało pogłębionej analizy i być może właśnie dojdziemy do wniosku, że powinniśmy pozostać przy tradycyjnych metodach nauczania, by nie zatracić pewnych umiejętności. Moim zdaniem uczelnie powinny skupić się na kształtowaniu umiejętności racjonalnego i pogłębionego myślenia. 

Czytaj w LEX: Pułapki sztucznej inteligencji >>

 

Nowość
Nowość

Bogdan Fischer, Adam Pązik, Marek Świerczyński

Sprawdź  

A jak kadra uniwersytecka podchodzi do tych nowinek?

Z tym bywa różnie - części w ogóle tą problematyką się nie zajmuje czy te ze względu na brak czasu czy też, niestety, czasami kompetencji. Natomiast wielu prawników chce się tym zajmować i uważają to za ważny temat. 

Czy faktycznie w sądach upowszechni się stosowanie narzędzi opartych na AI?

Sądy już ją stosują - myślę, że w pewnych sprawach AI będzie działał jako odpowiednik biegłego, czyli będzie podawał odpowiedź albo będą przypadki, gdzie będzie ona rozstrzygała sprawę i zastępowała w tej materii sędziego. Nie przewiduję, by stało się tak w ciągu najbliższych pięciu lat, ale w perspektywie dziesięciu, czy piętnastu bardzo możliwe.

Chat GPT poradził sobie ze zdaniem egzaminu adwokackiego, co oznacza, że prawnicy są na liście zawodów zagrożonych w przyszłości przynajmniej częściową automatyzacją. Czy sądzi Pan Mecenas, że faktycznie tak jest? Grozi im technologiczne bezrobocie?

Nie umiem odpowiedzieć na to pytanie inaczej, niż: to zależy. Na pewno AI nieźle poradzi sobie z wykonywaniem powtarzalnych czynności, tworzeniem podstawowych umów, czy dokumentów korporacyjnych. Myślę, że w przyszłości będą one przygotowywane właśnie przez te narzędzia, zresztą w pewnym zakresie już tak się właśnie dzieje. Natomiast oczywiście nie uważam, że AI zastąpi prawników, ani w pracy z klientem, ani w pracy koncepcyjnej i dokonywaniu pogłębionych analiz. Uważam, że na razie możemy spać spokojnie. 

Czytaj w LEX: Sztuczna inteligencja w unijnej koncepcji e-sprawiedliwości – teoria i możliwy wpływ na praktykę >>

Chat GPT już pisze proste pisma procesowe...

Ale ktoś jeszcze musi weryfikować ich prawidłowość i to wciąż będą robić ludzie.

Zatem - zakładając, że AI będzie wkrótce wykorzystywane przez urzędników i w sądach do wydawania prostych rozstrzygnięć, prawnicy powinni brać udział w tworzeniu algorytmów, które będą w ten sposób wykorzystywane?

Myślę oczywiście, że to ważne, żeby byli zaangażowani, natomiast jeszcze ważniejsze jest to, by istniał sposób weryfikacji tych procedur. To będzie główna rola prawników i wykrystalizuje się w chwili, gdy te narzędzia wejdą do powszechnego stosowania, wtedy prawnicy powinni wkroczyć, by uregulować ten rynek i wpłynąć na ile to możliwe na sposób uczenia tej sztucznej inteligencji tak, by zostały uwzględnione kwestie, które są ważne z punktu widzenia prawa, a w sytuacji, gdyby faktycznie sztuczna inteligencja miała przejąć pewne obowiązki wymiaru sprawiedliwości, by był to system wolny od wypaczeń. Czyli podsumowując - konieczne jest stworzenie procesu weryfikacyjnego i ewentualnie ustalenie, kiedy AI sama może rozstrzygać sprawę, a kiedy powinna trafić ona do człowieka.

Czy dyrektywa unijna nieco ureguluje ten rynek? Nie ma obaw, że jeżeli będą to nazbyt restrykcyjne przepisy, wstrzyma to rozwój AI na terenie UE?

Dyrektywa zawiera uregulowania, dotyczące tego, w jaki sposób będzie weryfikowana ewentualna konsekwencja decyzji sztucznej inteligencji, ale również obszarów, jakich nie może ona dotyczyć. Chodzi o zagwarantowanie prywatności i poufności danych, a także o stworzenie skutecznych procedur egzekwowania ewentualnych naruszeń. Określone mają zostać też zasady informowania podmiotu, którego dane mogą być przedmiotem analiz sztucznej inteligencji, żeby wiedziały, że coś takiego się dzieje. 

Czytaj w LEX: O problemach prawa autorskiego w kontekście twórczości sztucznej inteligencji >>>

Ale to jak z plikami cookies, będziemy bezrefleksyjnie klikać okej...

Nie jest to oczywiście wykluczone, natomiast tak czy inaczej kwestia ta wymaga doprecyzowania.

A nasz polski prawodawca dostrzegł już ten problem?

Myślę, że to może jeszcze chwile potrwać, ale na pewno z czasem pojawią się przepisy regulujące przynajmniej te podstawowe kwestie, tym bardziej, że – jak wspomnieliśmy – systemy oparte na AI mogą upowszechnić się w wymiarze sprawiedliwości. Polski ustawodawca będzie się niewątpliwie zmierzyć z tymi wyzwaniami, zwłaszcza z kwestią weryfikacji rozstrzygnięć dokonanych przez AI, bo nasza kultura prawna nie pozwala na zupełne zawierzenie tych kwestii tego rodzaju systemom.

Czytaj w LEX: RODO w IT: sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML? >>