1920x60_lex_testy_x_2025
Włącz wersję kontrastową
Zmień język strony
Włącz wersję kontrastową
Zmień język strony
Prawo.pl

Zakaz używania AI na studiach nic nie da

Odgórny zakaz wykorzystywania narzędzi bazujących na AI nie jest i nie będzie skuteczny. Środowisko akademickie nie może udawać, że problem nie istnieje, należy więc stworzyć odpowiednie standardy korzystania z aplikacji opartych na AI. Problematyczne jest natomiast wykrywanie, czy ktoś korzystał z Chata GPT, bo nie ma skutecznych programów, które wykrywałyby jego użycie.

blockchain bitcoin kryptowaluty
Źródło: iStock

Studenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 r. – powiedział  dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA Krzysztof Rychlicki-Kicior. Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.

 

Praca dyplomowa od ChataGPT to kwestia czasu>>

 

Programy antyplagiatowe bezradne

Wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów. -To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne – zaznaczył Rychlicki-Kicior. W celu weryfikacji pracy, wg. Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. - To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności - dodał.

 

Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.

- W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023 - powiedział.

 

Uczelnie przygotowują standardy

W ten sposób do sprawy podeszła Akademia Leona Koźmińskiego, która wydała rekomendacje dotyczące wykorzystywania sztucznej inteligencji, wskazując między innymi,  że musi być ono oparte na uczciwości i transparentności. Koniecznością jest dokładne oznaczanie miejsc, gdzie generatory posłużyły za wsparcie.

 

- Miliony użytkowników na świecie testują potencjał i ograniczenia ChatGPT do pisania maili, wierszy, a nawet tworzenia całych rozpraw naukowych. Oparty na sztucznej inteligencji generator tekstu jest dziś w stanie napisać pracę albo opracować odpowiedzi na pytania egzaminacyjne. Nic dziwnego, że podejście do technologii tej generacji jest poruszane i dyskutowane zarówno w środowisku biznesowym, jak i w przestrzeniach uczelni – wskazywano komunikacie Akademii Leona Koźmińskiego.

Uczelnia rekomenduje, by wykładowcy stosowali takie metody zaliczeń i egzaminów, które umożliwią właściwe weryfikowanie wiedzy i umiejętności. Zalecane jest też korzystanie z detektorów wykrywających treści wytworzone przez ChatGPT. Wskazuje też, że treść wygenerowana przez ChatGPT nie jest uznawana za samodzielną pracę studentów.(ms/PAP)

 

----------------------------------------------------------------------------------------------------------------------------------------------

Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów LEX jest zależny od posiadanych licencji.

Polecamy książki prawnicze dla studentów