<p><b>Rankingi szkół wyższych i ich programów nauczania są zjawiskiem globalnym. Są wszechstronnie wykorzystywane przez instytucje zainteresowane szkolnictwem wyższym oraz samych studentów. Również polskie szkoły wyższe pojawiają się w ogólnoświatowych rankingach – w Szanghajskim rankingu z 2009 roku są tylko dwa polskie uniwersytety - Warszawki i Jagielloński, które zajęły miejsca w czwartek setce rankingu. Uzasadnione wydają się wątpliwości oraz pytania stawiane przez polskich studentów – czy aby na pewno jest u nas aż tak źle? </b><br /><br />Tego typu badania i porównania z pewnością rzutują na postrzeganie danej uczelni. Świadczą o jakości studiów, pomagają w wyborze wydziałów niezdecydowanym, bywają nawet podstawą przy podejmowaniu decyzji o przyznaniu pomocy finansowej. <br /><br />Dlatego tak ważne jest aby były tworzone obiektywnie, a kryteria oceny były jednolite dla wszystkich uczelni biorących udział w danym rankingu. <br /><br />W związku z powyższym, rankingi szkół wyższych, ich jakość i metoda tworzenia, będą kontrolowane przez nową międzynarodową organizację IREG Observatory. <br /><br />IREG Observatory (pełna nazwa: IREG Observatory on Academic Ranking and Exellence) jest międzynarodową organizacją z siedzibą w Warszawie, utworzoną w październiku 2009 r. Jej celem jest podnoszenie jakości międzynarodowych i krajowych rankingów szkół wyższych. Wywodzi się z Grupy IREG (International Ranking Expert Group), która po raz pierwszy spotkała się w Warszawie w 2002 r. „Wartość uczelnianych rankingów musi być poddana kontroli. To jest ważne nie tylko dla wyborów edukacyjnych kandydatów na studia, ale także dla rządowych decyzji finansowych w zakresie szkolnictwa wyższego" - powiedział szef IREG Observatory dr Jan Sadlak. W jego opinii, w Polsce, ale także w wielu innych krajach Europy i świata, istnieje problem jakości rankingów szkół wyższych, których przyjęta metodologia jest nierzetelna. "To jest tak, że niektóre rankingi są wzięte z sufitu. Ta czy inna gazeta je publikuje, a nie wiemy dla kogo są robione, w jakim celu, a przede wszystkim na jakiej podstawie wyróżnia się dane uczelnie" - tłumaczył Sadlak. <br /><br />Zaznaczył też, że sensem istnienia IREG Observatory, w skład której wchodzą zagraniczni eksperci od badania jakości rankingów akademickich, będzie podanie reguł ich jak najlepszego tworzenia oraz poprawnej interpretacji. <br /><br />Jak poinformował wiceszef IREG Observatory Waldemar Siwiński z Fundacji Edukacyjnej Perspektywy, na pierwszym posiedzeniu IREG Observatory przyjęto zasady kontroli rankingów, tzw. Berlińskie Zasady dotyczące Rankingu Szkół Wyższych. Zasady te sformułowano w 2006 r. w Berlinie na konferencji Grupy IREG (International Ranking Expert Group), z której wywodzi się IREG Observatory. <br /><br />Cele i zadania rankingów</p><ul><li>Rankingi powinny być jedną z kilku różnych metod służących ocenie stanów wyjściowych, procesów i wyników.</li><li>Powinny w sposób jasny przedstawiać cele i potencjalnych adresatów.</li><li>Powinny odzwierciedlać różnorodny charakter uczelni, uwzględniając różne misje i cele, jakie im przyświecają.</li><li>Powinny w sposób jasny przedstawić zakres źródeł informacji służących opracowaniu rankingów oraz rodzaj informacji, jakie każde źródło generuje.</li><li>Powinny określić językowe, kulturowe, gospodarcze i historyczne ramy systemu szkolnictwa wyższego, którego ranking ma dotyczyć.</li></ul><p>Projektowanie i ważenie wskaźników</p><ul><li>Przestrzeganie transparentności w zakresie metodologii stosowanej podczas tworzenia rankingów.</li><li>Wskaźniki powinny być dobierane zgodnie z ich znaczeniem i adekwatnością.</li><li>O ile to możliwe, należy mierzyć efekty a nie sytuację wyjściową.</li><li>Wagi przypisywane różnym wskaźnikom (jeśli są w ogóle stosowane) należy wyraźnie wyszczególnić i ograniczać zmiany, jakim mają podlegać.</li></ul><p>Zbieranie i przetwarzanie danych</p><ul><li>Należytą uwagę należy zwracać na normy etyczne i zalecenia zawarte w modelowych rozwiązaniach określonych w Zasadach.</li><li>O ile to możliwe, należy używać sprawdzonych i sprawdzalnych danych.</li><li>Uwzględniać należy tylko takie dane, które zostały zebrane według procedur właściwych dla naukowego zbierania danych.</li><li>Do samego procesu tworzenia rankingu powinno się stosować procedury służące zapewnieniu jakości.</li><li>Należy stosować rozwiązania organizacyjne zwiększające wiarygodność rankingów.</li></ul><p>Przedstawianie wyników rankingów</p><ul><li>Należy jasno wytłumaczyć wszystkie uwarunkowania towarzyszące tworzeniu rankingów i zaproponować odbiorcom różne możliwości prezentacji rankingów.</li><li>Rankingi powinny być opracowywane w sposób, który wyeliminuje lub ograniczy błędy w danych początkowych i powinny być tak zorganizowane i opublikowane, aby błędy i niedociągnięcia można było korygować.</li></ul><p>Źródło: <a href="http://www.ireg-observatory.org/" rel="nofollow">http://www.ireg-observatory.org/</a>; Serwis Nauka w Polsce - PAP</p><p>Marta Osowska</p><p> </p>