Zlecenie komuś napisania pracy magisterskiej i oddanie jej jako swojej jest zachowaniem nieetycznym, ale nie tylko - dopuszczając się takiego czynu, student naraża się na odpowiedzialność dyscyplinarną, a nawet karną z art. 272 KK, bo taki czyn może zostać potraktowany jako wyłudzenie poświadczenie nieprawdy (wprowadza w błąd pracownika uniwersytetu, by przystąpić do obrony nieswojej pracy i otrzymać nienależny tytuł magistra). ChatGPT nawet w udostępnionej, darmowej wersji pozwala wygenerować prawidłowo napisane teksty, kwestią czasu jest więc wykorzystywanie go przez studentów - w bardziej lub mniej etyczny sposób. 

Zakaz nie tylko nic nie da, ale zburzy zaufanie do uczelni

Na przykład do napisania całej pracy dyplomowej. - Na razie myślę, że te narzędzia są za słabe do tego, żeby napisać całą pracę magisterską i doktorską, ale już pewnie teraz mogą stworzyć jakieś fragmenty. Ale tak, myślę, że ten problem wraz z rozwojem sztucznej inteligencji będzie się pogłębiał - mówił Prawo.pl prof. Ryszard Markiewicz. Zauważa, że będzie to oszustwo o wiele trudniejsze do zwalczania, niż plagiat, bo programy antyplagiatowe nie sprawdzą, w jakim stopniu pracę napisała AI, a w jakim stopniu student. Zwiększy się zatem rola promotora, bo to on najlepiej będzie znał poziom wiedzy swoich studentów.

Czytaj: ​Markiewicz: Tekst sztucznej inteligencji na razie bez ochrony prawnoautorskiej>>

 

- Pozostawiając na boku kwestie ściśle etyczne, czy już raczej moralne wydaje się, że jak na razie daje się - tak jak w muzyce czy w sztukach pięknych - odróżnić od siebie twory SI (gładkie i na swój sposób bezbłędne, a za to jakoś tak nudne) od tworów człowieka (zawsze jakoś topornych i z takimi czy innymi błędami) - mówi Prawo.pl prof. Hubert Izdebski. - Zapewne też możliwe jest stworzenie systemów anty-SI na wzór antyplagiatowych, standardowo używanych w odniesieniu do prac dyplomowych i doktorskich. Jeżeli będą, warto z nich skorzystać - wskazuje. Podobnie jednak, jak prof. Markiewicz uważa, że kluczową rolę odegrają osoby, które będą weryfikować wiedzę studenta. - Trzeba zadawać pytania wprost dotyczące pracy i jej materii. Rzadko się zdarza, aby ten, kto sam pracy nie napisał, tak się jej nauczył, że panuje nad jej układem i treścią. Zdarzyło mi się, prawda że nieczęsto, że tak pytany magistrant poległ na egzaminie. Inna sprawa, że z jednej strony mógł (mogła) poprawiać egzamin dyplomowy, ale z drugiej strony mógł jednocześnie mieć problem z rzecznikiem dyscyplinarnym - podkreśla prof. Izdebski.

Czytaj w LEX: Ghostwriting i pokrewne zjawiska nieprawidłowej atrybucji autorstwa w świetle polskiego prawa >

Wyzwanie globalne

Nie każde wykorzystanie sztucznej inteligencji przy pisaniu pracy będzie jednak nieetyczne - to narzędzie, które mocno ułatwi wyszukiwanie informacji i - najprawdopodobniej - przyszłość wyszukiwarek internetowych. Nasuwa się pytanie, na które uczelnie i ustawodawca będą musiały odpowiedzieć - gdzie postawić granicę.

- Oczywiście, zdolny człowiek może wykorzystać SI do pisania, ale pracy nadać własny "sznyt" i tym samym nad nią zapanować - i na to chyba nie tylko nie ma rady, ale, byle w rozsądnych, a tylko takie powinniśmy akceptować, granicach, może się to stać kwestią nawet bliskiej już przyszłości. Dlatego też tym bardziej potrzebne są wszelkie formy bezpośredniej weryfikacji wiedzy i umiejętności (w perspektywie może także dotyczące korzystania z SI). Myślę, że nie tylko warto, ale będzie trzeba - bo praca ma być oryginalna, a zatem to, co nie pochodzi bezpośrednio od autora musi być odpowiednio oznaczone z wykazaniem źródła - uważa prof. Izdebski.

Sprawdź w LEX: Czy instytut badawczy jest uprawniony do udostępnienia dokumentacji medycznej studentowi w celu napisania przez niego pracy magisterskiej? >

 


Uczelnia ma rekomendacje

W ten sposób do sprawy podeszła Akademia Leona Koźmińskiego, która wydała rekomendacje dotyczące wykorzystywania sztucznej inteligencji, wskazując między innymi,  że musi być ono oparte na uczciwości i transparentności. Koniecznością jest dokładne oznaczanie miejsc, gdzie generatory posłużyły za wsparcie.

- Uznaliśmy, że konieczne jest zabranie głosu, bo to najszybciej rozpowszechniająca się technologia w historii ludzkości - mówi Prawo.pl prof. Grzegorz Mazurek, rektor Akademii Leona Koźmińskiego. - Zyskuje popularność szybciej, niż działo się to w przypadku Netflixa czy Youtube’a. Nie jest to zatem problem, a nowa rzeczywistość, z którą trzeba się zmierzyć i odpowiedzialne na nią odpowiedzieć. Gdy mówimy o wykorzystaniu na przykład Chata GPT w szkolnictwie wyższym czy edukacji, to hasło student, praca zaliczeniowa, jest tak naprawdę malutkim wycinkiem wpływu tego narzędzia na edukację. Dostrzegając to, chcieliśmy poprzez nasze rekomendacje zasygnalizować całej społeczności, że Akademia Leona Koźmińskiego jest otwarta na innowacje - podkreśla. Wskazuje też, że stworzenie konkretnych regulacji to nie rola uczelni, a instytucji odpowiedzialnych za jakość edukacji w Polsce i na świecie, bo jest to wyzwanie globalne.

- Wiem że, problematyka wpływu AI na kreowanie wiedzy jest przedmiotem wielkiego zainteresowania ze strony KRASP czy European University Association. Ustalenie twardych reguł wymaga czasu i roztropności - zauważa prof. Mazurek.

Sprawdź w LEX: Czy szpital może udostępnić dokumentację medyczną hospitalizowanych pacjentek na wniosek studenta prawa w celu napisania pracy magisterskiej? >

Generator fake newsów?

Rektor ALK podkreśla przy tym, że wprowadzanie zakazów korzystania z nowych narzędzi na uczelniach nie ma sensu. - Proszę sobie wyobrazić sytuację, gdy ktoś na co dzień wykorzystuje takie narzędzie, a potem przychodzi do instytucji, która z założenia ma go rozwijać, a ta zakazuje mu korzystania z takich technologii. Powodowałoby to u takiej osoby spory dysonans poznawczy i podkopywałaby zaufanie do takiej instytucji - mówi.

 

Innym problemem może być natomiast nieskończony potencjał sztucznej inteligencji do powielania nieprawdziwych, a wręcz zwyczajnie głupich informacji, na co i system edukacji, i system szkolnictwa wyższego powinien w większym stopniu uczulać. Prof. Grzegorz Mazurek podkreśla, że na ALK wszyscy studenci mają zajęcia z krytycznego myślenia - tam uczą się m.in. weryfikowania informacji uzyskanych za pomocą narzędzi w rodzaju Chatu GPT.

- Powielanie nieprawdziwych informacji, to jest dokładnie to samo, co dzieje się od wielu lat w social mediach - ludzie bezrefleksyjnie powielają treści stworzone przez innych ludzi. Nie jest więc to problem samego AI, a podejścia do weryfikacji informacji.Fenomen Chata GPT i masowość jego wykorzystania, będzie być może kroplą, która przeleje czarę goryczy i zmusi ludzi do tego, by nauczyli się krytycznego myślenia i nietraktowania wszystkich treści w internecie jako prawd objawionych - tłumaczy prof. Mazurek.

Czytaj w LEX: Absolutorium - wpływ uzyskania na wymiar urlopu wypoczynkowego i obowiązek odprowadzania składek >