Monika Sewastianowicz: Akademia Leona Koźmińskiego przygotowała rekomendacje dotyczące używania sztucznej inteligencji na uczelniach. Czy to próba poradzenia sobie z problemem, jakim jest używanie AI do generowania publikacji naukowych czy prac studenckich?

Grzegorz Mazurek: Osobiście nie użyłbym słowa problem - na Koźmińskim na AI patrzymy z zupełnie innej perspektywy. Chat GPT traktujemy nie jako problem, a jedno z wielu narzędzi już dostępnych na rynku - zresztą nie chodzi tu tylko o Chata GPT, a także o inne generatywne AI, bo takich narzędzi jest już kilkanaście, jeżeli nie kilkadziesiąt i już mają ogromny wpływ na świat - np. w zarządzaniu wiedzą lub w automatyzacji grafik komputerowych. Nasze rekomendacje dotyczą całego nurtu technologii wschodzących związanych z generatywnym AI - w szczególności Chatem GPT, który jest dla AI tym, czym Facebook stał się swego czasu dla mediów społecznościowych. Chat GPT jest przykładem wiele szerszego trendu.

Czytaj: Praca dyplomowa od ChataGPT to kwestia czasu>>

Czytaj w LEX: Sztuczna inteligencja a dane osobowe - czy RODO definiuje AI oraz ML?

Wynika to zapewne z jego powszechnej dostępności...

Uznaliśmy, że rodzi to konieczność zabrania głosu, bo jest to najszybciej rozpowszechniająca się technologia w historii ludzkości. Zyskuje popularność szybciej, niż działo się to w przypadku Netflixa czy Youtube’a. Nie jest to zatem problem, a nowa rzeczywistość, z którą trzeba się zmierzyć i odpowiedzialne na nią odpowiedzieć.

Pracujemy teraz w zespole nad nowym artykułem naukowym i zamiast przeszukiwać bazy danych artykułów naukowych, przepytałem Chata GPT z pewnych teorii, koncepcji teoretycznych związanych z zarządzaniem wiedzą.  Zatem gdy mówimy o wykorzystaniu na przykład Chata GPT w szkolnictwie wyższym czy edukacji, to hasło student, praca zaliczeniowa jest tak naprawdę malutkim wycinkiem wpływu tego narzędzia na edukację. Dostrzegając to, chcieliśmy poprzez nasze rekomendacje zasygnalizować całej społeczności, że Akademia Leona Koźmińskiego jest otwarta na innowacje. Jednocześnie nasze rekomendacje są ogólne, bo nie uważam, by naszą rolą jako uczelni było arbitralne określanie, czy określony procent zawartości pracy wygenerowanej przez sztuczną inteligencje to za dużo czy za mało. W sprawie konkretnych regulacji w tej materii z pewnością zajmą się instytucje odpowiedzialne za jakość edukacji w Polsce i na świecie, bo jest to wyzwanie globalne. Wiem że, problematyka wpływu AI na kreowanie wiedzy jest przedmiotem wielkiego zainteresowania ze strony KRASP czy European University Association. Ustalenie twardych reguł wymaga czasu i roztropności.

Strojny Mariusz: Technologia w zarządzaniu wiedzą >>>

 


My na pewno jako szkoła nie będziemy stali na stanowisku, że trzeba zakazać wykorzystywania AI, bo byłby to kontrproduktywne.  Proszę sobie wyobrazić sytuację, gdy ktoś na co dzień wykorzystuje takie narzędzie, a potem przychodzi do instytucji, która z założenia ma go rozwijać, a ta zakazuje mu korzystania z takich technologii. Powodowałoby to u takiej osoby spory dysonans poznawczy i podkopywałaby zaufanie do takiej instytucji. My tą drogą pójść nie zamierzamy i poprzez nasze rekomendacje wyrażamy otwartość na stosowanie AI w nauce, edukacji i szkolnictwie wyższym. Obecnie przechodzimy natomiast etap - nazwijmy to - operacjonalizacji, to znaczy np., że wykładowcy korzystają z tego narzędzia na zajęciach z krytycznego myślenia i wykorzystywania źródeł informacji, dzielą się najlepszymi praktykami dotyczącymi wykorzystania AI. Chcemy wypracować pewne standardy, czekamy też na głosy Innych uczelni oraz instytucji regulacyjnych.

Czytaj w LEX: Perspektywy wykorzystania sztucznej inteligencji w postępowaniu sądowym >>>

Ale to nie widzi pan problemu z tym, że AI napisze studentowi pracę licencjacką lub magisterską? Może należałoby jakoś zreformować sposób, w jaki uzyskuje się te tytuły?

Sztuczna inteligencja nie zrobi za autora badań empirycznych, które są zawsze oryginalne. Nie da się ot tak usiąść do komputera i poprosić Chat GPT o "wyplucie" 15 stron własnych badań np. o funkcjonowaniu firm, powiedzmy, z regionu podkarpackiego, z wypowiedziami prezesów tych firm pod kątem danego problemu badawczego. Właśnie w Chacie GPT widzę szansę na wykreowanie czegoś nowego, bo stare metody w stylu przeklejania tekstów po prostu nie będą miały już sensu. Jeśli ktoś stawia równoważnik pomiędzy pracą magisterską czy licencjacką, a bezrefleksyjnym przeklejaniem tekstu czy "patchworkowaniem” tego, co inni już napisali, to niestety nie rozumie, czym jest taka praca i gdzie jest jej największa wartość – w badaniach własnych!

Czy przy całej otwartości na korzystanie ze sztucznej inteligencji, istnieje zdaniem pana możliwość jej wykorzystania w sposób nieetyczny? Co w tym kontekście postrzega Pan jako nadużycie?

Po pierwsze nieweryfikowanie źródeł, po drugie nieujawnienie, że wykorzystano materiał wygenerowany przez Chat GPT i oddanie tego, jako własnej, oryginalnej pracy. W naszych rekomendacjach kładziemy ogromny nacisk na odpowiedzialne etyczne i moralne wykorzystanie AI.

Irytowska Katarzyna: Pułapki sztucznej inteligencji >>>

Czyli kluczowa jest transparentność – ujawniamy, co zrobiła za nas AI…

Uważam, że taki fragment należy opatrzyć przypisem, dokładnie tak jak w przypadku innych źródeł, z których korzysta się przy pisaniu pracy. Tu zresztą akurat ważniejsza będzie odpowiedź na pytanie, na ile taki tekst jest oryginalny - ale to bardziej nie problem jakiejś pojedynczej instytucji, a problem natury prawnej.

 

 

Wracając jednak do prac licencjackich czy magisterskich, nie wszystkie opierają się na wywiadach terenowych, niektóre są analizą jakiejś koncepcji, czy w przypadku prawa np. wykładni czy zastosowania danego przepisu.  Jeżeli na potrzeby takiej pracy zapytam sztuczną inteligencję o zdanie na temat tego, jak rozumie dany przepis i jak powinno się go stosować i AI wygeneruje mi gotowe opracowanie, to na ile będzie to moja oryginalna koncepcja?

Na zajęciach krytycznego myślenia zadajemy pytania AI, a potem staramy się wychwycić istotę odpowiedzi, w kontekście faktycznego wykreowania rozwiązania danego problemu. Czyli odpowiedź, jaką uzyskujemy, nie jest sama w sobie odpowiedzią, a jedynie przyczynkiem do dalszych rozważań. Konieczne jest, by - nie tylko studenci - ale każdy z nas krytycznie podchodził do informacji uzyskanych od AI i umiejętnego wyszukania dodatkowej informacji, która potwierdzi albo zaprzeczy temu, co powiedział nam Chat GPT.

Właśnie – jeżeli to narzędzie uczy się na podstawie wszystkich treści zawartych w Internecie, istnieje spore niebezpieczeństwo, że będzie zwielokrotniało zasób wszelkiej ludzkiej głupoty - fake newsów, pseudonaukowych treści. Jak sobie z tym radzić?

To jest dokładnie to samo, co dzieje się od wielu lat w social mediach - ludzie bezrefleksyjnie powielają treści stworzone przez innych ludzi. Nie jest więc to problem samego AI, a podejścia do weryfikacji informacji. Fenomen Chata GPT i masowość jego wykorzystania, będzie być może kroplą, która przeleje czarę goryczy i zmusi ludzi do tego, by nauczyli się krytycznego myślenia i nietraktowania wszystkich treści w internecie jako prawd objawionych.

Czytaj w LEX: II SA/Wa 773/20, Zastosowanie k.p.a. w odniesieniu do stwierdzenia nieważności dyplomu ukończenia studiów. Delikt plagiatu jako dodatkowa przesłanka stwierdzenia nieważności dyplomu ukończenia studiów - Wyrok WSA w Warszawie >>

  

Tyle że nie wydaje się, by nas system edukacji sobie z tym dobrze radził, tendencja wydaje się zgoła odwrotna...

Jest i nie jest - to dla mnie tak jak z edukacją online w czasie pandemii. Przed 2020 nikt zdalnego nauczania nie traktował poważnie i nie widziano potrzeby jego wdrażania. Przyszedł COVID-19 i to przestało być opcją, a stało się koniecznością.  Może jestem idealistą, ale uważam, że Chat GPT i narzędzia generatywnego AI spowodują, że tak samo będzie z uczeniem krytycznego myślenia. Nie jest to już opcja, ale konieczność.

Ja nie jestem taką optymistką, obawiam się też,  że sporo osób pożegna się z pracą...

Maszyny nie wyeliminują człowieka, przynajmniej takiego, który wie, jak je umiejętnie wykorzystywać. Znam wielu grafików, którzy są zachwyceni możliwościami, jakie daje im AI. To narzędzia, jak każde inne - o swoją pracę muszą obawiać się raczej ci, którzy nie będą uczyli się, jak z nich korzystać, jak z ich pomocą wytworzyć unikatową wartość dodaną. Przykładowo dziennikarz przyszłości to taki, który będzie miał biegłość w posługiwaniu się właściwymi pytaniami i potraktuje je jako research, by potem wykreować wartość dodaną, która będzie wyjątkowa. Tego Chat GPT za niego nie zrobi. Zatem tak jak musimy dziś znać angielski aby normalnie funkcjonować w życiu, tak konieczne jest nauczenie się sprawnego wykorzystania AI do pracy. Uczymy wyszukiwania informacji i - jak wspomniałem - krytycznego myślenia, czyli przede wszystkim zaszczepiamy w studentach przyzwyczajenie do weryfikowania informacji i wskazujemy, jak to robić. Docelowo chcemy, by każdy student Koźmińskiego nie tylko wiedział, co to jest Chat GPT i umiał z niego korzystać w pracy zawodowej, ale znał jego wszystkie zalety i wady oraz prawne, etyczne i moralne konsekwencje jego stosowania

Krajewski Jacek: Czy roboty zabiorą pracę rekruterom? >>>

Czy da się wykryć, że dany tekst wygenerowało AI?

Istnieją detektory, które umożliwiają wychwycenie tego, ale - jak zwykle - w odpowiedzi na nie pojawiły się narzędzia, które utrudniają ich działanie. Oczywiście na razie ekspert, który zna się na temacie, bardzo szybko wychwyci, że dany tekst nie jest napisany przez człowieka. Chat GPT nie tworzy kontekstów, nie wykorzystuje anegdot, niuansów. To teksty, które śmiało można określić jako dostateczne, poprawne, „płaskie”.

Czytaj w LEX: Problematyka sztucznej inteligencji w świetle prawa autorskiego >>>

Wracając na koniec do systemu oświaty - co powinno się w nim zmienić, by przychodzili do państwa studenci, którzy krytycznego myślenia nie musieli uczyć się od podstaw?

System szkolnictwa stoi przed ogromnymi wyzwaniami. Świat przyśpiesza i się gwałtownie zmienia – podstawy programowe są „sztywne”. W szkolnictwie wyższym – z racji pewnej elastyczności w kształtowaniu programów kształcenia jest łatwiej niż w szkolnictwie podstawowym czy średnim.

Jeżeli klasyczny system edukacji nie będzie odpowiadał na te wyzwania, to pogłębiać będzie się to - co już się dzieje - czyli obejście tego systemu. Uczniowie będą po prostu wieczorami bawić się tymi narzędziami sami i w ramach wirtualnych grup. Będą rozpracowywali jak ich właściwie używać albo będą uczestniczyli w szkolnictwie alternatywnym, gdzie tego typu kompetencje będą kształtowane. Zamożniejsi rodzice zadbają natomiast o to, by ich dzieci zdobywały nowe umiejętności na korepetycjach lub w szkołach, które wprowadzają autorskie programy kształcenia. Wzrosną dysproporcje w kompetencjach i wykształceniu osób, które stać na dokształcenie alternatywne, a uczniami korzystającymi wyłącznie z ”narzędzi i metod starego świata”. To wielkie niebezpieczeństwo dla tworzenia nowoczesnego społeczeństwa i liczę, że jest ono przedmiotem dyskusji w kluczowych gremiach odpowiadających za edukację.

Prof. Grzegorz Mazurek – rektor Akademii Leona Koźmińskiego na kadencję 2020–2024, teoretyk i praktyk zarządzania i marketingu, profesor nauk społecznych, dyrektor Centrum Badań Transformacji Cyfrowej Gospodarki i Społeczeństwa – CYBERMAN