Opracował je zespół naukowców z konsorcjum naukowo-dydaktycznego Cyber Science, tworzonego przez Uniwersytet Śląski w Katowicach, Naukową i Akademicką Sieć Komputerową – Państwowy Instytut Badawczy NASK, Uniwersytet Ekonomiczny w Katowicach oraz Politechnikę Śląską. 

Transparentność i odpowiedzialność

Autorzy rekomendacji, na potrzeby ich opracowania, przyjęli definicję „generatorów treści” typu ChatGPT jako aplikację, która jest w stanie, po zadaniu jej odpowiednich kryteriów, samodzielnie wygenerować treść, np. w formie tekstu, obrazu, która może sprawiać wrażenie stworzonej przez człowieka. W swoich propozycjach naukowcy z Cyber Science podkreślili, że uczelnie powinny gwarantować otwartość naukową i dydaktyczną na nowoczesne narzędzia informatyczne, wskazują też, że należy ujawniać, że korzystało się z generatywnego AI przy tworzeniu pracy.

Czytaj w LEX: Ganczar Małgorzata, The Obligations of Entrepreneurs Providing Services by Electronic Means >>

 

Jednocześnie, uczelnie powinny zalecać krytyczne podejście do źródeł internetowych (w tym – do wiedzy pozyskanej z generatorów treści), a także do wyników uzyskanych przez generatory treści, uwzględniając ryzyko ich stronniczości, podatności na wadliwość źródeł czy błędy w odpowiedziach. - Wykorzystujący generatory treści ponosi osobiście odpowiedzialność za dane opublikowane, a wcześniej wygenerowane przez generator – czytamy.

Czytaj w LEX: Przetwarzanie danych osobowych na potrzeby wypowiedzi literackiej, artystycznej lub akademickiej >

Weryfikowanie prac

Kolejne punkty odnoszą się do poszanowania zasad etycznych, praw autorskich i innych obowiązujących praw. W tym kontekście naukowcy z Cyber Science postulują konieczność każdorazowego wskazywania użycia generatora treści, ponieważ powstałe w ten sposób dzieło nie jest autorstwa osoby, która skorzystała z tego narzędzia. Nauczyciele akademiccy powinni uwzględniać możliwość wykorzystywania przez studentów generatorów treści, a co za tym idzie, powinni tak opracowywać testy, egzaminy i inne formy zaliczeń, by umożliwiały one weryfikację rzeczywistej wiedzy studentów. Naukowcy z Cyber Science zalecają także weryfikowanie np. dyplomowych prac studentów, pod względem wykorzystania w nich treści wygenerowanych przez aplikacje.

Czytaj w LEX: Pułapki sztucznej inteligencji >>