Rozwój sztucznej inteligencji ma pchnąć badania naukowe (i w pewnym zakresie już się to stało) na nowy, nieosiągalny do tej pory poziom. AI pozwala na szybsze analizowanie ogromnej ilości danych – w rękach zdolnego i zaangażowanego naukowca jest narzędziem nieocenionym. Ciekawostką z ostatnich dni jest np. odtworzenie babilońskiego hymnu sprzed trzech tysięcy lat, dzięki poskładaniu przez narzędzie AI rozproszonych po całym świecie fragmentów. Problem w tym, że nie każdy naukowiec jest zaangażowanym pasjonatem, przez co to samo narzędzie przyczynia się do spadku jakości badań i publikacji.

 

Prawo goni AI. Ustawa o sztucznej inteligencji na finiszu

 

Oczywiście! Przeanalizujmy to krok po kroku

Jeden z portali przeanalizował angielskojęzyczne teksty pod kątem fragmentów wygenerowanych przez AI. Twierdzi, że już w listopadzie zeszłego roku ponad połowa (52 proc.) wygenerowana została przez sztuczną inteligencję. Podobne badania dotyczące tekstów naukowych przeprowadził dr hab. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach. Analizował on artykuły indeksowane w bazach naukowych pod kątem fragmentów wygenerowanych przez AI. (wyniki opisał w artykule: „As of my last knowledge update’: How is content generated by ChatGPT infiltrating scientific papers published in premier journals?”).

 

Interesujące jest przy tym, co zdradziło naukowców korzystających z AI i nie zaznaczających tego w przypisach. Były to mianowicie nieusunięte przez autora, charakterystyczne dla ChataGPT frazy np.: „według stanu mojej wiedzy na rok 2021…", „oczywiście, oto dalsze dane dotyczące…, „wygeneruj odpowiedź ponownie”. Badacz wykazał, że artykuły z tego rodzaju wstawkami, pojawiały się w uznanych, recenzowanych czasopismach, indeksowanych w bazach Scopus i Web of Science.

"Analiza 89 artykułów pokazuje, że aż 28 z nich ukazało się w czasopismach o wartości percentylowej Scopus na poziomie 90 lub wyższym. Dwa czasopisma osiągają 99. percentyl, co oznacza, że należą do absolutnej czołówki w swoich dziedzinach” – wskazuje prof. Strzelecki w artykule. Dodaje, że łącznie 64 artykuły znaleziono w czasopismach uznawanych za Q1, w najlepszych czasopisma w swoich dyscyplinach. Kolejne dwadzieścia pięć ukazało się w periodykach należących do kolejnego przedziału – Q2 (kolejne 25 proc. pod względem renomy w danej dyscyplinie). „Dziewiętnaście artykułów zaklasyfikowano do dziedziny Medycyny, 17 do Informatyki, 16 do Inżynierii, 10 do Nauk o środowisku, po siedem umieszczono w kategoriach Socjologia, Edukacja oraz Zarządzanie, a sześć przyporządkowano do dziedziny Ekonomii” – wskazuje autor badania.

 

Ze studentami trzeba pracować inaczej

Fakt pójścia na łatwiznę przez wielu uznanych badaczy i to w recenzowanych czasopismach pozwala przypuszczać, że na niższych szczeblach może być jeszcze gorzej.

- Wciąż brakuje jasnych standardów dotyczących korzystania z AI na uczelniach – mówi Prawo.pl prof. Grzegorz Krawiec z Uniwersytetu Komisji Edukacji Narodowej w Krakowie. -  U nas takich zasad jeszcze nie ma i wiem, że wiele innych uczelni również ich nie wypracowało. Studenci korzystają i będą korzystać z AI, dlatego zmieniłem swój sposób pracy z nimi. Część zadań, które kiedyś miały sens, dziś mogłaby zostać wykonana przez AI w kilka sekund. Przestałem więc zlecać studentom prace polegające jedynie na porównywaniu przepisów czy prostych zestawieniach, bo robi to za nich AI. Teraz muszą samodzielnie wyszukiwać orzeczenia w bazie orzeczeń NSA, czytać je, analizować i przedstawiać najważniejsze ustalenia na forum grupy – podkreśla. Dodaje, że na seminariach magisterskich zmienił kolejność zadań i najpierw każe studentom przedstawić źródła (książki, artykuły, monografie), a potem dopiero plan pracy, co niweluje ryzyko generowania szkicu bez przemyślenia tematu.

-  Nie jestem wrogiem korzystania z AI, by ułatwiać sobie pracę, ale nie można tego narzędzia traktować jako substytut myślenia – mówi prof. Krawiec. – Natomiast spotykam studentów, którzy korzystają z modeli językowych całkowicie bezrefleksyjnie, nawet nie czytając „wyplutej” przez nie treści. Powstają wtedy teksty ogólnikowe, pozbawione sensu, często przypominające brudnopis – mówi.

10 błędów pisania pozwu cywilnego, których nie chcesz popełnić - zobacz w LEX >

W teorii uczelnie mają narzędzie, które ma zapobiegać bronieniu prac dyplomowych wygenerowanych przez AI. Służy do tego Jednolity System Antyplagiatowy wzbogacony o detektor treści wygenerowanych przez sztuczną inteligencję. - Korzystam z niego, ale muszę przyznać, że nie jestem zadowolony z jego działania – mówi prof. Krawiec. - System potrafi wskazać zupełnie nieadekwatne wyniki — zdarzały się prace, które w całości oznaczał jako wygenerowane przez AI, mimo że wiem na pewno, iż zostały napisane samodzielnie, bo były szczegółowo omawiane ze studentami. Podobne doświadczenia mają moi koledzy. Dlatego podchodzę do tego modułu z dużą ostrożnością – mówi.

Czytaj też w LEX: Procedury antyplagiatowe na uczelniach wyższych – obowiązki i konsekwencje >

 

Kluczowa rola promotora i recenzenta

Prof. Grzegorz Wierczyński z Uniwersytetu Gdańskiego, wskazuje, że nie ma nic przeciwko temu, żeby jego studenci korzystali z narzędzi AI do opracowywania szkicu, korekty, redakcji, czy innych zadań,  których uproszczenie może pomóc poszerzyć wiedzę i lepiej uargumentować swoją tezę. Pod warunkiem, że robią to w sposób jawny i weryfikują poprawność tekstu wygenerowanego przez AI.
-  Oczywiście, w przypadku prac dyplomowych powinniśmy mieć narzędzia, które pozwalają zweryfikować, czy całość nie została wygenerowana przez sztuczną inteligencję. Tyle że ta technologia w pewnym sensie obnaża słabości, które w środowisku akademickim istniały od dawna. Przecież skanowanie prac nie wyeliminowało plagiatów. Wbrew pozorom wiele się tu nie zmienia - nierzetelni promotorzy nadal będą przepuszczać nierzetelne prace – mówi prof. Wierczyński. 
Póki co – jak wskazuje – niewiele da się zrobić również, gdy da się udowodnić, że wygenerowany przez AI artykuł ukazał się w punktowanym czasopiśmie.
– Obecnie nawet ewidentne plagiaty, które potwierdzono w sądzie, nie są retraktowane przez redakcje polskich czasopism prawniczych. Nie liczyłbym zatem, że inaczej traktowane będą w najbliższej przyszłości treści wygenerowane przez AI – mówi.

Czytaj też w LEX: "Plagiat wyników" we współautorskich utworach naukowych z perspektywy prawa autorskiego i Kodeksu cywilnego >

 

Marcin Kleina, Prezes Zarządu Wolters Kluwer Polska, wskazuje, że profesjonaliści coraz częściej traktują AI jak codzienne narzędzie pracy, dziś z AI korzysta już ponad trzy czwarte z nich. - To pokazuje, że sztuczna inteligencja to nie eksperyment, lecz wsparcie w wykonywaniu zadań. W sektorze prawniczym AI musi sprostać wyjątkowo wysokim standardom. Liczy się merytoryczna wiarygodność, bezpieczeństwo danych, odpowiedzialność zawodowa i pełna transparentność. Te same zasady powinny obowiązywać także w środowisku akademickim. Zarówno studenci, jak i prawnicy muszą dokładnie wiedzieć, jak przetwarzane są dane i na czym opierają się ich analizy. To bardzo ważne - podkreśla. Dodaje, że prawdziwa wartość z korzystania z narzędzi AI, pojawia się dopiero wtedy, gdy za technologią stoją autorskie, sprawdzone treści, które gwarantują bezpieczeństwo danych i pełną przejrzystość źródeł.

 

Trzeba rozważyć zmianę w przepisach

Nie jest oczywiście tak, że uczelnie nie podejmują żadnych działań, by poradzić sobie z problemem nadużywania AI i jego nieetycznego wykorzystywania. Część wprowadziła standardy dotyczące pracy z AI. Niektóre wymagają od studentów przedstawienia promotorowi promptów i wyników działania modeli, inne żądają wcześniejszej zgody prowadzącego i określenia zakresu, w jakim AI wspiera proces pisania. Niemniej, wygenerowanie pracy przy pomocy sztucznej inteligencji - pomijając oczywiste przykłady, przytoczone w artykule prof. Strzeleckiego – są trudne do udowodnienia. Detektory są zawodne, a wiele z nich, nawet jeżeli uzna, że tekst prawdopodobnie wygenerowało AI, oferuje opcje „uczłowieczenia”, czyli mechanicznej eliminacji łatwo wykrywalnych fraz lub konstrukcji zdań.

- Myślę, że należy zastanowić się nad stworzeniem jednolitych regulacji prawnych, które określą konsekwencje za nieuczciwe wykorzystywanie AI w pracach naukowych. Autonomia szkół wyższych w wielu obszarach jest potrzebna, ale niesie też ryzyko, że powstaną skrajnie różne standardy, które będą godzić w równość i w zaufanie do systemu akademickiego – mówi prof. Krawiec. Jego zdaniem konsekwencje przyłapania kogoś na wygenerowaniu pracy przy pomocy AI powinny być analogiczne do tych, które ponoszą osoby popełniające plagiat. Ale podobnie jak prof. Wierczyński wskazuje, że kluczowa w tej materii jest rola promotora.

Zobacz też w LEX: Prawo w praktyce, czyli kazusy dla studentów >

- Coraz częściej słyszę od kolegów: „ja tam nie sprawdzam, bo i tak się nie da”. To wygodne podejście, ale prowadzi do tego, że za pięć lat będziemy mieli na rynku tysiące magistrów i doktorów, którzy w życiu nie napisali samodzielnie ani jednego sensownego akapitu. I to my, promotorzy, będziemy za to odpowiadać bo to my podpisujemy się pod tymi pracami. Ja nie chcę mieć na sumieniu osoby, która za parę lat będzie sędzią albo radcą prawnym i nie będzie potrafiła przeczytać ze zrozumieniem wyroku Trybunału Konstytucyjnego - mówi. - Jeżeli nie zatrzymamy tej fali teraz, za 10–15 lat będziemy mieli całe pokolenie specjalistów z dyplomami, którzy nie będą w stanie samodzielnie rozwiązać żadnego nietrywialnego problemu. To nie jest tylko problem akademicki to zagrożenie dla całego systemu prawnego, administracji publicznej i zaufania społecznego do zawodów regulowanych - podkreśla prof. Krawiec.

Czytaj też w LEX: Przypisanie autorstwa treści wygenerowanych z wykorzystaniem AI - perspektywa prawnoautorska >

 

AI niekoniecznie czyni nas mądrzejszymi

Dodaje, że wrogiem nie jest sztuczna inteligencja, a lenistwo intelektualne i przyzwolenie na nie. - Dopóki uczelnie będą udawać, że wystarczy kupić droższy detektor, zamiast wymagać od studentów myślenia – będziemy przegrywać z maszyną, która nawet nie wie, że z nami rywalizuje - mówi. 

Na koniec warto - ku przestrodze dla osób, które za bardzo zachłysnęły się nowymi możliwościami - przytoczyć badanie naukowców z Massachusetts Institute of Technology (opublikowane latem tego roku, jeszcze niezrecenzowane). Naukowcy sprawdzili aktywność mózgu 54 osób podczas pisania eseju. Część z nich pisała samodzielnie, część mogła używać wyszukiwarki, a pozostali mogli generować odpowiedzi za pomocą AI.

Wyniki elektroencefalogramów, według badaczy, wskazują nie tylko na to, że aktywność mózgu jest słabsza podczas generowania tekstów za pomocą ChataGPT, ale także wtedy, gdy osoba, która z niego korzystała, musi potem wykonać zadanie samodzielnie. Badacze nazywają to długiem poznawczym. Skłania to do refleksji nad kwestią włączania narzędzi opartych na AI do procesu kształcenia, choć może w większym stopniu na wcześniejszych etapach edukacji niż szkolnictwo wyższe.

Czytaj też w LEX: Wykorzystanie narzędzi opartych o sztuczną inteligencję w pracy sędziego, asystenta sędziego i referendarza sądowego >

 

Przedsprzedaż
AI dla prawników. Sztuczna inteligencja w praktyce zawodów prawniczych [PRZEDSPRZEDAŻ]
-15%

Cena promocyjna: 126.64 zł

|

Cena regularna: 149 zł

|

Najniższa cena w ostatnich 30 dniach: 104.3 zł