Rankingi szkół wyższych i ich programów nauczania są zjawiskiem globalnym. Są wszechstronnie wykorzystywane przez instytucje zainteresowane szkolnictwem wyższym oraz samych studentów. Również polskie szkoły wyższe pojawiają się w ogólnoświatowych rankingach – w Szanghajskim rankingu z 2009 roku są tylko dwa polskie uniwersytety - Warszawki i Jagielloński, które zajęły miejsca w czwartek setce rankingu. Uzasadnione wydają się wątpliwości oraz pytania stawiane przez polskich studentów – czy aby na pewno jest u nas aż tak źle?

Tego typu badania i porównania z pewnością rzutują na postrzeganie danej uczelni. Świadczą o jakości studiów, pomagają w wyborze wydziałów niezdecydowanym, bywają nawet podstawą przy podejmowaniu decyzji o przyznaniu pomocy finansowej.

Dlatego tak ważne jest aby były tworzone obiektywnie, a kryteria oceny były jednolite dla wszystkich uczelni biorących udział w danym rankingu.

W związku z powyższym, rankingi szkół wyższych, ich jakość i metoda tworzenia, będą kontrolowane przez nową międzynarodową organizację IREG Observatory.

IREG Observatory (pełna nazwa: IREG Observatory on Academic Ranking and Exellence) jest międzynarodową organizacją z siedzibą w Warszawie, utworzoną w październiku 2009 r. Jej celem jest podnoszenie jakości międzynarodowych i krajowych rankingów szkół wyższych. Wywodzi się z Grupy IREG (International Ranking Expert Group), która po raz pierwszy spotkała się w Warszawie w 2002 r. „Wartość uczelnianych rankingów musi być poddana kontroli. To jest ważne nie tylko dla wyborów edukacyjnych kandydatów na studia, ale także dla rządowych decyzji finansowych w zakresie szkolnictwa wyższego" - powiedział szef IREG Observatory dr Jan Sadlak. W jego opinii, w Polsce, ale także w wielu innych krajach Europy i świata, istnieje problem jakości rankingów szkół wyższych, których przyjęta metodologia jest nierzetelna. "To jest tak, że niektóre rankingi są wzięte z sufitu. Ta czy inna gazeta je publikuje, a nie wiemy dla kogo są robione, w jakim celu, a przede wszystkim na jakiej podstawie wyróżnia się dane uczelnie" - tłumaczył Sadlak.

Zaznaczył też, że sensem istnienia IREG Observatory, w skład której wchodzą zagraniczni eksperci od badania jakości rankingów akademickich, będzie podanie reguł ich jak najlepszego tworzenia oraz poprawnej interpretacji.

Jak poinformował wiceszef IREG Observatory Waldemar Siwiński z Fundacji Edukacyjnej Perspektywy, na pierwszym posiedzeniu IREG Observatory przyjęto zasady kontroli rankingów, tzw. Berlińskie Zasady dotyczące Rankingu Szkół Wyższych. Zasady te sformułowano w 2006 r. w Berlinie na konferencji Grupy IREG (International Ranking Expert Group), z której wywodzi się IREG Observatory.

Cele i zadania rankingów
  • Rankingi powinny być jedną z kilku różnych metod służących ocenie stanów wyjściowych, procesów i wyników.
  • Powinny w sposób jasny przedstawiać cele i potencjalnych adresatów.
  • Powinny odzwierciedlać różnorodny charakter uczelni, uwzględniając różne misje i cele, jakie im przyświecają.
  • Powinny w sposób jasny przedstawić zakres źródeł informacji służących opracowaniu rankingów oraz rodzaj informacji, jakie każde źródło generuje.
  • Powinny określić językowe, kulturowe, gospodarcze i historyczne ramy systemu szkolnictwa wyższego, którego ranking ma dotyczyć.

Projektowanie i ważenie wskaźników

  • Przestrzeganie transparentności w zakresie metodologii stosowanej podczas tworzenia rankingów.
  • Wskaźniki powinny być dobierane zgodnie z ich znaczeniem i adekwatnością.
  • O ile to możliwe, należy mierzyć efekty a nie sytuację wyjściową.
  • Wagi przypisywane różnym wskaźnikom (jeśli są w ogóle stosowane) należy wyraźnie wyszczególnić i ograniczać zmiany, jakim mają podlegać.

Zbieranie i przetwarzanie danych

  • Należytą uwagę należy zwracać na normy etyczne i zalecenia zawarte w modelowych rozwiązaniach określonych w Zasadach.
  • O ile to możliwe, należy używać sprawdzonych i sprawdzalnych danych.
  • Uwzględniać należy tylko takie dane, które zostały zebrane według procedur właściwych dla naukowego zbierania danych.
  • Do samego procesu tworzenia rankingu powinno się stosować procedury służące zapewnieniu jakości.
  • Należy stosować rozwiązania organizacyjne zwiększające wiarygodność rankingów.

Przedstawianie wyników rankingów

  • Należy jasno wytłumaczyć wszystkie uwarunkowania towarzyszące tworzeniu rankingów i zaproponować odbiorcom różne możliwości prezentacji rankingów.
  • Rankingi powinny być opracowywane w sposób, który wyeliminuje lub ograniczy błędy w danych początkowych i powinny być tak zorganizowane i opublikowane, aby błędy i niedociągnięcia można było korygować.

Źródło: http://www.ireg-observatory.org/; Serwis Nauka w Polsce - PAP

Marta Osowska

 

]]>