1
Politechnika Poznańska
Wydział Inżynierii Zarządzania
mgr Joanna Jakuszewicz
ANALIZA I OCENA PRODUKTYWNOŚCI
JEDNOSTEK NAUKOWYCH
rozprawa doktorska
Promotor:
prof. dr hab. inż. Joanicjusz Nazarko
Poznań 2015
2
Spis treści
WPROWADZENIE ..................................................................................................................................... 4
1. ASPEKTY ZARZĄDZANIA W SEKTORZE BADAŃ NAUKOWYCH ................... 12
1.1. Rola jednostek naukowych w gospodarce opartej na wiedzy .............................................. 12
1.2. Mechanizmy i narzędzia kreowania polityki naukowej ....................................................... 20
1.3. Ewaluacja instytucjonalna badań naukowych ......................................................................... 31
2. PRODUKTYWNOŚĆ NAUKI ...................................................................................................... 38
2.1. Paradygmat produktywności ........................................................................................................ 40
2.2. Istota i determinanty produktywności jednostek naukowych ............................................. 49
2.3. Metody pomiaru produktywności nauki ................................................................................... 57
3. ANALIZA METOD OCENY JEDNOSTEK NAUKOWYCH ........................................ 72
3.1. Uwarunkowania systemów oceny jednostek naukowych w Europie ............................... 72
3.2. Przegląd narodowych systemów oceny jednostek naukowych ......................................... 83
4. SYSTEM OCENY JEDNOSTEK NAUKOWYCH W POLSCE ................................. 112
4.1. System badań naukowych w Polsce ...................................................................................... 112
4.2. Metodyka oceny parametrycznej jednostek naukowych ................................................... 123
4.3. Krytyczna analiza oceny parametrycznej ............................................................................... 133
5. ZAŁOŻENIA METODYCZNE BADANIA PRODUKTYWNOŚCI
METODĄ DATA ENVELOPMENT ANALYSIS ............................................................. 145
5.1. Propedeutyka metodyki Data Envelopment Analysis ........................................................ 145
5.2. Przegląd modeli Data Envelopment Analysis ....................................................................... 156
5.3. Przykłady zastosowań metody Data Envelopment Analysis w ocenie wyników
działalności naukowej ................................................................................................................. 167
6. BADANIA PRODUKTYWNOŚCI JEDNOSTEK NAUKOWYCH ........................... 182
6.1. Analiza danych źródłowych ........................................................................................................ 182
6.2. Wybór zmiennych do oceny produktywności jednostek naukowych ............................ 201
6.3. Klasyfikacja jednostek i wybór modelu Data Envelopment Analysis ............................ 209
6.4. Obliczenia produktywności ......................................................................................................... 222
6.5. Testy odporności i stabilności modelu Data Envelopment Analysis ............................. 227
7. REKOMENDACJE DO METODYKI DATA ENVELOPMENT ANALYSIS
W OCENIE JEDNOSTEK NAUKOWYCH ......................................................................... 233
7.1. Porównanie produktywności jednostek naukowych .......................................................... 233
7.2. Aplikacja metody Data Envelopment Analysis w ocenie parametrycznej .................. 246
3
ZAKOŃCZENIE ...................................................................................................................................... 252
ANEKS ......................................................................................................................................................... 256
Załącznik 1. Kryteria oceny parametrycznej w 1999 roku .................................................... 257
Załącznik 2. Kryteria oceny parametrycznej w 2003 roku .................................................... 259
Załącznik 3. Kryteria oceny parametrycznej w 2006 roku .................................................... 262
Załącznik 4. Kryteria oceny parametrycznej w 2010 roku .................................................... 264
Załącznik 5. Kryteria oceny parametrycznej i grupy wzajemnej oceny w 2013 roku .. 267
Załącznik 6. Liczebność jednostek oraz rozpiętość przedziałów poszczególnych
kategorii względem wskaźnika efektywności E ............................................. 272
Załącznik 7. Zestawienie publikacji na temat zastosowań metody DEA w Polsce ....... 273
Załącznik 8. Współczynniki korelacji cech wraz z poziomem ich istotności
w poszczególnych grupach jednostek naukowych .......................................... 282
Załącznik 9. Lista jednostek naukowych w badaniach autorki i ich podział w grupy
jednorodne ................................................................................................................... 286
Załącznik 10. Wyniki oceny jednostek naukowych metodą DEA ........................................ 300
BIBLIOGRAFIA ...................................................................................................................................... 313
SPIS RYSUNKÓW .................................................................................................................................. 333
SPIS TABEL .............................................................................................................................................. 336
4
WPROWADZENIE
Francuski noblista, fizyk L. de Broglie (1892-1987), analizując tempo rozwoju nauki
wnioskował, że zarówno kadrowy, instytucjonalny, jak i informacyjny rozwój nauki odbywa
się w sposób wykładniczy1. Budowane na tej podstawie nieosiągalne prognozy tempa wzrostu
pracowników naukowych skłoniły do refleksji, że rozwój nauki zostanie przy pewnym
poziomie zahamowany z braku dostatecznego przyrostu wiedzy naukowej. Rozwiązania tego
problemu upatrywano już wtedy w zwiększeniu produktywności w sektorze nauki.
Problematyka produktywności w sektorze badań naukowych początkowo rodziła wiele
wątpliwości, ponieważ z jednej strony pojęcie produktywności często było utożsamiane
jedynie z działalnością produkcyjną2, z drugiej zaś argumentowano stwierdzenie, że nie można
obiektywnie zmierzyć poziomu i wartości pracy naukowej3. Mimo to, wciąż trwały prace
nad doskonaleniem metod pomiaru i oceny efektów pracy naukowej.
Produktywność nauki, rozpatrywana w kategoriach poznawczych, jako nowa wiedza,
i użytkowych, jako bezpośrednie korzyści społeczne i ekonomiczne wynikające ze stosowania
rezultatów badań, jest szczególnie ważna w warunkach presji rozwoju społeczno-
gospodarczego. W ciągu ostatnich kilkudziesięciu lat na całym świecie obserwuje się
przyspieszony rozwój, związany w dużej mierze z efektem coraz szerszego zrozumienia roli
nauki oraz jej kluczowego znaczenia dla budowy gospodarki opartej na wiedzy. Rozwój
krajów jest w głównym stopniu zależny od poziomu i rozwoju badań naukowych
oraz od wykorzystania ich wyników jako siły modernizacyjnej – wzorem najbardziej
rozwiniętych państw na świecie.
Wzrastająca rola nauki spowodowała konieczność przeprowadzenia analiz samego
przebiegu procesu poznawczego. Identyfikacja i zdefiniowanie tych czynników jest
szczególnie istotne z punktu widzenia kształtowania systemowych instrumentów polityki
naukowej. Dobrze umotywowana, sformułowana i przygotowana polityka ma podstawowe
znaczenie dla osiągnięcia publicznej wartości z badań naukowych, szczególnie, gdy sfera
badań i innowacji stale się zmienia i rozwija4.
1 W. Leszek, B. Wojciechowicz, Analiza pewnych możliwości podniesienia efektywności badań naukowych,
Politechnika Poznańska, Poznań 1975, s. 5. 2 A. Kosieradzka, Zarządzanie produktywnością w przedsiębiorstwie, Wydawnictwo C.H. Beck, Warszawa
2012, s. 20. 3 A. Guena, B.R. Martin, University research evaluation and funding: and international comparison, “Minerva”
2003, t. 41, nr 4, s. 278. 4 Shaping science and technology policy: the next generation of research, D. Guston, D. Sarewitz (red.),
The University of Wisconsin Press, Madison 2006, s. 7.
5
Jednym z ważniejszych instrumentów polityki naukowej jest publiczne finansowanie
badań naukowych. W latach sześćdziesiątych XX wieku panowało przekonanie, że większe
nakłady na badania i rozwój przynosiły większe korzyści, szybszy rozwój i większe
możliwości. W ostatnich latach publiczne jednostki naukowe zostały poddane presji
finansowej w związku ze zmniejszeniem interwencji rządowej w kierunku alokacji zasobów
opartej na wynikach5. W związku z tym pojawiła się potrzeba analizy racjonalności
wydatków publicznych na badania naukowe6. Oznacza to wyjście poza paradygmat
dotychczasowego sposobu zarządzania w sektorze publicznym i dokonywanie oceny
osiągnięć jednostek naukowych, aby zapewnić efektywniejsze zarządzanie i skuteczniejsze
inwestycje w badania i rozwój.
Systematyczna ocena jednostek naukowych jest przeprowadzana w wielu krajach
Europy i świata. Dorobek i prestiż naukowy jednostek naukowych podlega różnorodnej
ocenie. Należy jednak zauważyć, że ze względu na złożoność działalności naukowej ocena
jednostek naukowych jest wyjątkowo trudna i skomplikowana. Powinna pokazywać ogólny
obraz poziomu nauki w danej dziedzinie, określać stan piśmiennictwa, stan innowacyjności,
identyfikować kluczowe obszary badań, stopień ich zaawansowania. Specjalną uwagę powinna
skupiać na poszukiwaniu tego, co w danej dziedzinie najnowsze, najbardziej przodujące.
Tradycyjnie, ocena poziomu i znaczenia dorobku naukowego wyrażana jest w sposób
jakościowy i opiera się na opisowych opiniach specjalistów. Budzi to często wiele zastrzeżeń
odnośnie subiektywizmu i braku jasnych zasad oceny. Równolegle, rozwijają się ilościowe
metody oceny działalności naukowej oparte na wskaźnikach liczbowych zdefiniowanych
przez oceniającego. Również one podlegają silnej krytyce.
Najnowsze podejście do oceny poziomu działalności naukowej zakłada zapewnienie
naukowych podstaw wspomagania procesów decyzyjnych w sektorze nauki (ang. science
of science policy, SoSP). Sukces polityki naukowej zależy w dużej mierze od dostępu
do wiarygodnych i dobrze zdefiniowanych danych. Dąży się zatem do opracowania narzędzi
naukowych, które będą wyjaśniały implikacje dające wkład do kształtowania polityki
naukowej, a szczególnie wsparcia procesu decyzyjnego w odniesieniu do alokacji zasobów7.
Nowy interdyscyplinarny obszar badawczy rozwija się w odpowiedzi na pilną potrzebę
opracowywania wielowymiarowych analiz, bardziej informacyjnych modeli implikacyjnych,
5 A. Muscio, D. Quaglione, G. Vallanti, Does government funding complement or substitute private research
funding to universities?, “Research Policy” 2013, t. 42, s. 64. 6 I. Feller, A policy-shaped research agenda, [w:] The new economics of technology policy, D. Foray (red.),
Edward Elgar, Cheltenham-Northampton 2009, s. 101-102. 7 C. Antonelli, C. Franzoni, A. Geuna, The contributions of economics to a science of science policy,
[w:] Science and innovation policy for the new knowledge economy, M.G. Colombo, L. Grilli, L. Piscitello,
C. Rossi-Lamastra (red.), Edward Elgar, Cheltenham-Northampton 2011, s. 32.
6
pokonujących ograniczenia i słabości wskaźników czy szeregów czasowych jednej zmiennej.
Ukierunkowany jest na opracowywanie modeli wyjaśniających, niezbędnych do zrozumienia
współzależności między różnymi wielkościami mierzalnymi, które będą również wyjaśniały
przyczyny, skutki i implikacje polityki naukowej8.
Dlatego istnieje potrzeba lepszego zrozumienia instytucjonalnych i organizacyjnych
uwarunkowań rozwoju nauki dla poprawy efektywności systemu badań9. Wsparcie
analityczne decyzji politycznych powinno koncentrować się na konkretnych kwestiach
poprzez dążenie do syntezy i integrowania wiedzy uzyskanej na temat różnych elementów
systemu nauki, a szczególnie jednostek naukowych. W zakresie narzędzi analizy istnieje
potrzeba, aby wyjść poza skonsolidowany zestaw technik bibliometrycznych na rzecz
pomiaru produktywności10
.
Produktywność nauki powinna zatem stanowić centralny element dyskusji na temat
działalności jednostek naukowych. Pomiar produktywności dostarcza pełniejszej analizy
i oceny niż tradycyjnie stosowane wskaźniki11
. Pozwala wielowariantowo analizować
i oceniać rezultaty działalności jednostki naukowej w odniesieniu do efektywności
wykorzystania jej zasobów materialnych i niematerialnych przy uwzględnieniu wpływu
uwarunkowań środowiskowych. Z punktu widzenia zarządzania sektorem publicznym,
analiza produktywności pozwala badać poziom systemu nauki w różnych wymiarach12
.
Punktem wyjścia do prowadzonych rozważań nad pomiarem produktywności nauki
jest założenie, że jednostki naukowe, jako fundament systemów naukowo-badawczych,
wykazują zdolność do przekształcania zasobów w efekty i jest to proces dynamiczny.
To oznacza, że ulega doskonaleniu, poprawianiu i przez odpowiednie instrumenty polityczne
można wpływać na uzyskiwane przez jednostki naukowe wyniki i stymulować odpowiednio
ukierunkowany pożądany rozwój.
W polskim piśmiennictwie do niedawna nie było odniesień do problematyki
produktywności nauki i nadal brak jest systematycznych opracowań na ten temat.
Podejmowana tematyka odnosi się głównie do analiz bibliometrycznych13
. Ponadto,
8 J. Marburger, The science of science and innovation technology, [w:] Science, technology and innovation
indicators in a changing world. Responding to policy needs, OECD, 2007, s. 27-32; C. Antonelli, C. Franzoni,
A. Geuna, dz. cyt., s. 31. 9 S. van den Besselaar, K. Börner, A. Scharnhorst, Science policy and the challenges for modeling science,
[w:] Models of science dynamics, A. Scharnhorst, K. Börner, S. van den Besselaar (red.), Springer 2012, s. 262. 10
C. Antonelli, C. Franzoni, A. Geuna, dz. cyt., s. 33. 11
T. Sullivan, C. Mackie, W.F. Massy, E. Sinha (red.), Improving measurement of productivity in higher
education, The National Academies Press, Washington 2012, s. 2. 12
S. Gates, A. Stone, Understanding Productivity In Higher Education, Prepared for California Education
Roundtable, 1997, s. 5. 13
J. Wolszczak-Derłacz, A. Parteka, Produktywność naukowa wyższych szkół publicznych w Polsce.
Bibliometryczna analiza porównawcza, Ernst&Young, Warszawa 2010; R. Siemienska, Research productivity
in Polish universities and its determinants at the beginning of the 21st century, [w:] Universities as centres
7
zauważyć można pewien chaos metodologiczny w obrębie produktywności, który może
wynikać z nieścisłości stosowanej terminologii. Według wiedzy autorki – brak jest
poglądowych, oryginalnych lub polemicznych publikacji na temat sposobu adaptacji
koncepcji produktywności na potrzeby oceny badań naukowych.
Celem wypełnienia tej luki metodycznej, autorka rozprawy podejmuje problematykę
kształtowania instrumentów zarządzania w sektorze badań naukowych oraz pomiaru
produktywności jednostek naukowych w Polsce, w kontekście oceny parametrycznej
Ministerstwa Nauki i Szkolnictwa Wyższego (MNiSW).
W Polsce większość środków na badania naukowe i prace rozwojowe jest przekazywana
w postaci dotacji podmiotowej z budżetu państwa do prawie tysiąca jednostek prowadzących
programy badawcze i prace rozwojowe. Mimo rozdrobnionej struktury podmiotowej nauki
polskiej, nie istnieje żaden mechanizm koordynacji finansowania i oceny efektywności
nakładów. Przesłanki metodyczne oceny parametrycznej wskazują na możliwość
udoskonalenia systemu oceny jednostek naukowych przez adaptację koncepcji
produktywności jednostek naukowych i wykorzystanie do jej pomiaru metod naukowych.
Zasadniczy problem badawczy niniejszej rozprawy zawiera się w analizie możliwości
wykorzystania koncepcji produktywności do wartościowania i porównywania dorobku
jednostek naukowych oraz zastosowanie tej koncepcji w zarządzaniu organizacją
i finansowaniem badań naukowych.
Zakładane cele rozprawy umieszczono w trzech obszarach: poznawczym,
metodycznym i utylitarnym.
Cele poznawcze rozprawy to:
dyskusja nad porównywaniem i wartościowaniem dorobku instytucji naukowych;
analiza i ocena istniejących modeli systematycznej oceny jednostek naukowych;
krytyczna analiza metodyki oceny parametrycznej stosowanej przez MNiSW.
Celem metodycznym jest opracowanie metodyki oceny działalności jednostek
naukowych opartej na koncepcji produktywności z wykorzystaniem metody Data
Envelopment Analysis (DEA).
Celem utylitarnym jest zaprojektowanie modyfikacji procedury oceny parametrycznej
jednostek naukowych stosowanej przez MNiSW.
of research and knowledge creation: an endangered species, H. Vessuri, U. Teichler (red.), Sense Publishers,
Rotterdam/Taipei, 2008, s. 161-178.
8
Przeprowadzone studia literaturowe i badania rozpoznawcze pozwoliły sformułować
następujące hipotezy badawcze będące przedmiotem weryfikacji teoretycznej i empirycznej
w rozprawie:
1. Analiza produktywności jednostek naukowych daje możliwość oceny wykorzystania
ich zasobów materialnych i niematerialnych.
2. Zastosowanie metody DEA zwiększa obiektywność ewaluacji działalności naukowej
przez możliwość zaakcentowania indywidualnych charakterystyk poszczególnych
ocenianych jednostek oraz uwzględnienia ich uwarunkowań środowiskowych.
3. Ocena parametryczna MNiSW wykazuje w jej dotychczasowym kształcie wiele słabości
i istnieje konieczność jej dalszego doskonalenia merytorycznego i formalnego.
4. Ocena produktywności działalności naukowej może być podstawą do kształtowania
instrumentów zarządzania organizacją i finansowaniem badań naukowych.
Konfirmacja powyższych hipotez wskaże na możliwości wykorzystania wyników
badań przeprowadzonych w rozprawie do rozwoju metodyki pomiaru i analizy porównawczej
produktywności jednostek naukowych oraz rozszerzy ewaluację o możliwość oceny
efektywności gospodarowania zasobami. W szczególności, przedstawione w rozprawie
koncepcje i propozycje mogą przyczynić się do doskonalenia polityki naukowej.
W celu konfirmacji hipotez rozprawy zaprojektowano i zrealizowano logiczny ciąg
następujących po sobie zadań badawczych:
prace studialne z zakresu zarządzania sektorem nauki, kreowania polityki naukowej,
ewaluacji instytucjonalnej jednostek naukowych;
prace studialne z zakresu systemów oceny i finansowania jednostek naukowych;
krytyczna analiza metodyki oceny parametrycznej MNiSW;
adaptacja koncepcji produktywności do analizy jednostek naukowych oraz przegląd metod
jej pomiaru;
prace studialne z zakresu metody DEA i jej zastosowania do oceny działalności naukowej
w kraju i na świecie;
identyfikacja i analiza nakładów i efektów jednostek naukowych;
wielowymiarowa analiza statystyczna pozyskanych zbiorów danych;
analizy symulacyjne przy opracowaniu metodyki oceny produktywności jednostek
naukowych;
testowanie modeli DEA, badanie ich stabilności oraz wrażliwości na błędy i braki
danych;
9
ocena i analiza porównawcza produktywności jednostek naukowych w Polsce
oraz dyskusja wyników;
wypracowanie propozycji metodycznych oceny działalności jednostek naukowych opartej
na koncepcji produktywności z wykorzystaniem metody DEA;
zaprojektowanie modyfikacji procedury oceny parametrycznej jednostek naukowych
stosowanej przez MNiSW.
W procesie badawczym wiodącym do osiągnięcia celów pracy oraz konfirmacji
postawionych w niej hipotez zostaną wykorzystane następujące metody badawcze: metoda
analizy i krytyki piśmiennictwa, metoda analizy i konstrukcji logicznej, metody statystyczne
oraz metody symulacyjne. Dobór metod badawczych został podyktowany problematyką
i przedmiotem badań oraz zakresem rozprawy, a także możliwościami pozyskania
i przetworzenia informacji.
Niezbędne obliczenia i analizy statystyczne zostaną wykonane z wykorzystaniem
pakietu statystycznego STATISTICA, arkusza kalkulacyjnego MS Excel, oprogramowania
realizującego algorytmy metody DEA Frontier Analyst 4.0, oprogramowania pomocniczego
do wizualizacji grafów Gephi oraz wizualizacji informacji przestrzennej GIS Quantum.
Praca doktorska składa się z siedmiu rozdziałów.
W rozdziale pierwszym podjęto problematykę zarządzania w sektorze badań
naukowych. Omówiono znaczenie jednostek naukowych w sektorze nauki oraz ich udziału
w kreowaniu wiedzy i kształtowaniu konkurencyjności gospodarki narodowej.
Zaprezentowano modele mechanizmów kreowania polityki naukowej i instrumenty
usprawniania polityki naukowej. Przedstawiono także implikacje polityki naukowej na rozwój
sektora naukowego i rozwój jednostek naukowych. Zwrócono uwagę na konieczność
uważnego podejścia do oceny działalności jednostek naukowych, w szczególności, gdy ta jest
podstawą alokacji środków finansowych. W rozdziale wykorzystano metodę analizy i krytyki
piśmiennictwa.
W rozdziale drugim przeprowadzono dyskusję dotyczącą pojęcia produktywności,
przedstawiono jego definicję, denotację oraz ewolucję. Wskazano luki i nieścisłości
występujące w tym zakresie w literaturze. Szczególną uwagę zwrócono na pojęcia, z którymi
produktywność jest mylnie utożsamiana. Wyjaśniono istotę produktywności nauki
i przeanalizowano czynniki determinujące wzrost produktywności jednostek naukowych.
Następnie, dokonano przeglądu metod pomiaru produktywności nauki w podziale na trzy
grupy metod: wskaźnikowe, parametryczne i nieparametryczne. Wskazano charakterystyki
wybranych metod oraz uwarunkowania, przesłanki i przykłady ich stosowania. Autorka
10
wskazuje użyteczność zastosowania nieparametrycznej metody DEA do pomiaru, oceny
i analizy produktywności naukowej. Uzasadnia wybór tej metody do dalszej analizy.
W rozdziale wykorzystano metodę analizy i krytyki piśmiennictwa oraz metodę analizy
i konstrukcji logicznej.
W rozdziale trzecim przeanalizowano uwarunkowania systemów naukowych
w Europie w kontekście organizacyjnym, prawnym i ekonomicznym. Dokonano przeglądu
i analizy narodowych systemów oceny jednostek naukowych krajów europejskich
i pozaeuropejskich w celu identyfikacji dobrych praktyk. W rozdziale wykorzystano metodę
analizy i krytyki piśmiennictwa oraz metodę analizy i konstrukcji logicznej.
W rozdziale czwartym dokonano analizy polskiego systemu badań naukowych
w zakresie poziomu i struktury finansowania oraz struktury instytucjonalnej. Przedstawiono
założenia i rozwój systemu instytucjonalnej oceny jednostek naukowych w Polsce opartym
na podejściu parametrycznym. Wyjaśniono kryteria i metodykę oceny parametrycznej
w poszczególnych latach. Dokonano krytycznej analizy oceny parametrycznej pod względem
metodycznym, proceduralnym i organizacyjnym, uwzględniając dyskusje i postulaty
środowiska naukowego. Przeprowadzono analizy statystyczne w celu zbadania zasadności
przyjętych procedur. Na tej podstawie zdiagnozowano słabości oceny parametrycznej
i wskazano przesłanki jej dalszego doskonalenia merytorycznego i formalnego. W rozdziale
wykorzystano metodę analizy i krytyki piśmiennictwa, metodę analizy i konstrukcji logicznej
oraz metody statystyczne.
Celem rozdziału piątego była prezentacja metody Data Envelopment Analysis. Cechy
metody DEA przemawiają za możliwością jej zastosowania do pomiaru i oceny
produktywności jednostek naukowych. W rozdziale zaprezentowano podstawowe założenia
metody, wskazano procedurę jej zastosowania oraz dokonano przeglądu modeli ogólnych.
Przedstawiono typologię zmiennych, wyjaśniając ich wzajemne relacje i znaczenie oraz
procedurę i wytyczne doboru zmiennych. Zestawiono dotychczasowe obszary i przypadki
zastosowania metody DEA w Polsce oraz przykłady jej zastosowań w ocenie działalności
naukowej w Polsce i na świecie. W rozdziale wykorzystano metodę analizy i krytyki
piśmiennictwa oraz metodę analizy i konstrukcji logicznej.
W rozdziale szóstym omówiono metodykę przeprowadzonych badań empirycznych.
Dokonano analizy merytorycznej i statystycznej w celu rozpoznania struktury pozyskanych
zbiorów danych dotyczących działalności publicznych jednostek naukowych w Polsce.
Na podstawie studiów literaturowych oraz przeprowadzonych badań opracowano zestaw
zmiennych charakteryzujących działalność naukową jednostek naukowych. Następnie,
11
dokonano klasyfikacji jednostek naukowych w grupy jednorodne z zastosowaniem metod
statystycznych i omówiono proces doboru szczegółowego modelu DEA. Zaprezentowano
model, dokonano pomiaru poziomu produktywności jednostek naukowych w Polsce i analizy
wpływu czynników środowiskowych, będących poza kontrolą jednostek naukowych,
a mających wpływ na uzyskiwane przez nie rezultaty naukowe. Zaprezentowano również
wyniki przeprowadzonych testów odporności i stabilności opracowanego modelu na błędy
i perturbacje danych. W rozdziale wykorzystano metodę analizy i krytyki piśmiennictwa,
metodę analizy i konstrukcji logicznej, metody statystyczne oraz metody symulacyjne.
W rozdziale siódmym dokonano oceny i porównania produktywności jednostek
naukowych oraz wskazano możliwości interpretacyjne opracowanego modelu. Opracowano
proces systematycznej oceny produktywności z zastosowaniem metody DEA oraz wskazano
rekomendacje stosowania opracowanego modelu do oceny jednostek naukowych w Polsce.
Tematyka rozprawy doktorskiej jest spójna z inicjatywami podejmowanymi obecnie
w kraju i na świecie. Zdaniem autorki, w Polsce podjęty temat ma charakter innowacyjny,
a jego opracowanie będzie miało praktyczne zastosowanie. Zaprezentowana metoda stwarza
organom administracji nowe możliwości pozyskania dodatkowych przesłanek w procesie
zarządzania jednostkami naukowymi, efektywnym dystrybuowaniu i gospodarowaniu
ograniczonymi zasobami.
12
ROZDZIAŁ 1.
ASPEKTY ZARZĄDZANIA W SEKTORZE BADAŃ NAUKOWYCH
1.1. Rola jednostek naukowych w gospodarce opartej na wiedzy
Jednym z najważniejszych czynników determinujących wzrost gospodarczy
i społeczny kraju jest poziom i rozwój badań naukowych oraz wykorzystanie ich wyników
jako siły modernizacyjnej kraju, zgodnie z koncepcją gospodarki opartej na wiedzy1.
Od strony teoretycznej gospodarka oparta na wiedzy jest zjawiskiem nowym. Rozwój
wiedzy następował jednak wraz z kolejnymi fazami rozwoju ludzkości. Śledząc historię
gospodarczą można zauważyć, że wiedza zawsze pełniła istotną rolę. Wielcy odkrywcy
i wynalazcy przyczyniali się do kształtowania fundamentów rozwoju gospodarczego
i społecznego od fazy preagrarnej po postindustrialną2. Chociaż poprzednie systemy
gospodarcze korzystały z wiedzy determinującej postęp techniczny, to rola kapitału wiedzy
stała się dominująca dopiero na przełomie XX i XXI wieku3. Wiedza stała się towarem jako
źródło innowacji i transformacji, a rola specjalistów i naukowców znacznie wzrosła4.
Przyczyniło się to do powstania nowej teorii – endogenicznego wzrostu gospodarczego
i wielu poważnych badań na ten temat.
Według tej teorii, wiedza stanowi zmienną endogeniczną i, w odróżnieniu
od neoklasycznego podejścia, zakłada występowanie odrębnego sektora działalności
badawczo-rozwojowej. Za prekursora tego podejścia uważa się P.M. Romera (1986), który
uważał, że siłą napędową wzrostu gospodarczego i społecznego są nakłady na badania
i rozwój podnoszące poziom nauki i wiedzy5. Z czasem pogląd ten został rozwinięty i nacisk
został położony na praktyczne wykorzystanie wyników nauki, kształtujące dążenie
do innowacji6.
1 D.A. King, The scientific impact of nations, ”Nature” 2004, t. 430, s. 311-316; K. Piech, Wiedza i innowacje
w rozwoju gospodarczym: w kierunku obmiaru i współczesnej roli państwa, Instytut Wiedzy i Innowacji,
Warszawa 2009, s. 214-220. 2 D. Makulska, Kluczowe czynniki rozwoju w gospodarcze opartej na wiedzy, [w:] Pomiędzy polityką stabilizacyjną
i polityką rozwoju, J. Stacewicz (red.), Prace i Materiały Instytutu Rozwoju Gospodarczego SGH, IRG SGH,
Warszawa 2012, s. 171-174; K. Piech, dz. cyt., s. 2-133. 3 W. Welfe, Przesłanki modelowania gospodarki opartej na wiedzy, [w:] Gospodarka oparta na wiedzy,
W. Welfe (red.), Polskie Wydawnictwo Ekonomiczne, Warszawa 2007, s. 9. 4 P. Drucker, The coming of the new organization, ”Harvard Business Review” 1988, January-February, s. 3-11.
5 D. Romer, Makroekonomia dla zaawansowanych, Państwowe Wydawnictwo Naukowe, Warszawa 2000,
s. 117-145. 6 J.V.G. Manjón, E.R. Merino, Innovation systems and policy design: the European experience, “Innovation:
Management, Policy & Practise” 2012, t. 14 (1), s. 34-38.
13
Jednostki naukowe są podstawowym podmiotem sektora naukowego i głównym
elementem stymulowania rozwoju badań naukowych i innowacji w gospodarkach7. Jednostki
naukowe są rozumiane jako samodzielne jednostki prowadzące badania naukowe i prace
badawczo-rozwojowe. Początkowo były odrębne od ośrodków akademickich i przyjmowały
różne formy organizacyjne. Były to różnego rodzaju obserwatoria, towarzystwa naukowe
i instytucje powoływane do prac na rzecz przemysłu8. Przełomowy rozwój jednostek
naukowych nastąpił w wieku XX (rysunek 1.1).
Rysunek 1.1. Liczba publicznych jednostek naukowych zarejestrowanych w bazie Eurolabs
Źródło: L. Georghiou, D. Cox, M.P. Keenan, K. Flanagan, K.E. Barker, A comparative analysis of public, semi-
public and recently privatised research centres, project report, European Commission Publication, Brussels
2002, s. 11.
Wzrost liczby jednostek naukowych następował okresowo. Do roku 1945
powoływano je głównie w strategicznych dziedzinach naukowych bądź na potrzeby
przemysłu, przede wszystkim mineralnego, rolnictwa, ochrony zdrowia i wojskowości.
Po II wojnie światowej liczba i różnorodność jednostek ustanowionych dla zastosowań
cywilnych i wojskowych znacząco zwiększyła się we wszystkich sektorach gospodarki,
zarówno w sferze gospodarczej, jak i społecznej9. Rozwój następował do lat sześćdziesiątych,
a następnie zmniejszył się w latach siedemdziesiątych. W latach osiemdziesiątych rola
jednostek naukowych w zakresie ich wkładu do innowacji i rozwoju technologicznego krajów
stała się przedmiotem wielu dyskusji. Było to związane z potrzebą budowania przestrzeni
badawczej na potrzeby sektora biznesowego. Zaczęto dostrzegać rosnącą pozycję ośrodków
7 A. Olechnicka, Potencjał nauki a innowacyjność regionów, Centrum Europejskich Studiów Regionalnych
i Lokalnych UW, Wydawnictwo Naukowe Scholar, Warszawa 2012, s. 38-39; M. Daszkiewicz, Jednostki
badawczo-rozwojowe jako źródło innowacyjności w gospodarce i pomoc dla małych i średnich
przedsiębiorstw, Polska Agencja Rozwoju Przedsiębiorczości, Warszawa 2008, s. 26; Z.E. Roskal, Zwrotne
punkty w rozwoju nauki i techniki (technologii), [w:] Zarządzanie badaniami naukowymi i pracami
rozwojowymi w jednostkach naukowych, P. Kawalec, S. Majdański (red.), Wydawnictwo Lubelskiej Szkoły
Biznesu, Lublin 2008, s. 25-33. 7 OECD, Public research institutions: mapping sector trends, OECD Publishing, 2011, s. 19.
8 M. Daszkiewicz, dz. cyt., s. 26.
9 OECD, dz. cyt., s. 19.
0
20
40
60
80
100
120
140
przed
1840
1840 1850 1870 1880 1890 1900 1910 1920 1930 1940 1950 1960 1970 1980 1990
[lic
zba
jedno
stek
nau
kow
ych]
[rok]
14
akademickich10
. Dotychczas uniwersytety prowadziły badania zgodnie ideą uniwersytetu
humboltdowskiego, którego naczelną zasadą była autonomia badań naukowych. Zmiany
gospodarcze skutkowały przekształceniem uniwersytetów w typ otwarty na otoczenie11
.
Współczesne uniwersytety nadal gwarantują wolność akademicką i niezależność nauk, ale
wchodzą w bezpośrednie interakcje z otoczeniem i ich rola stała się dominująca w strukturze
jednostek naukowych12
.
W literaturze wyodrębnia się trzy główne typy podmiotów naukowych: instytuty
naukowo-badawcze, laboratoria rządowe i organizacje badawczo-technologiczne13
.
W poszczególnych krajach europejskich klasyfikacja jednostek naukowych uwarunkowana
jest formą organizacyjną, rodzajem prowadzonych badań i poziomem współpracy
z przemysłem14
. W Polsce, w rozumieniu ustawy o zasadach finansowania nauki15
, grupę
jednostek naukowych tworzą instytucje prowadzące w sposób ciągły badania naukowe
lub prace rozwojowe. Zalicza się do nich:
podstawowe jednostki organizacyjne uczelni w rozumieniu statutów tych uczelni;
jednostki naukowe Polskiej Akademii Nauk;
instytuty badawcze, czyli państwowe jednostki organizacyjne wyodrębnione pod
względem prawnym, organizacyjnym i ekonomiczno-finansowym, tworzone w celu
prowadzenia badań naukowych i prac rozwojowych (między innymi dawne jednostki
badawczo-rozwojowe JBR)16
;
międzynarodowe instytuty naukowe utworzone na podstawie odrębnych przepisów,
działające na terytorium Rzeczypospolitej Polskiej;
Polską Akademię Umiejętności;
inne jednostki organizacyjne posiadające status centrum badawczo-rozwojowego17
.
10
OECD, dz. cyt., s. 19; Z.E. Roskal, dz. cyt., s. 25-33. 11
A. Olechnicka, dz. cyt., s. 23-24. 12
C. Mailhot, V. Schaeffer, Universities specificities and the emergence of a global model, [w:] Innovation
Policy in a knowledge-based economy. Theory and practice, P. Llerena, M. Matt (red.), Springer, Berlin,
Heidelberg, New York 2005, s. 343. 13
E. Arnold, K. Barker, A. Slipersæter, Research institutes in the ERA, Technolopolis, Brighton 2010, s. 11,
http://ec.europa.eu/research/era/docs/en/research-institutes-in-the-era.pdf [12.07.2012]. 14
OECD, dz. cyt., s. 58-60. 15
ustawa z dnia 30 kwietnia 2010 r. o zasadach finansowania nauki, Dz. U. z 2010 r. nr 96 poz. 615, art. 2, pkt. 9. 16
Od 1 października 2010 roku jednostki badawczo-rozwojowe działające na podstawie ustawy z dnia 25 lipca
1985 r. o jednostkach badawczo-rozwojowych, które uzyskały kategorię 1, 2, 3, 4 lub 5 na podstawie
przepisów ustawa z dnia 8 października 2004 r. o zasadach finansowania nauki, stały się instytutami
badawczymi w rozumieniu ustawa z dnia 30 kwietnia 2010 r. o instytutach badawczych [ustawa z dnia
30 kwietnia 2010 r. o instytutach badawczych Dz. U. z 2010 r. nr 96, poz. 618; ustawa z dnia 30 kwietnia 2010 r.
Przepisy wprowadzające ustawy reformujące system nauki, Dz. U. z 2010 r. nr 96, poz. 620]. 17
nadawany na podstawie ustawa z dnia 30 maja 2008 r. o niektórych formach wspierania działalności
innowacyjnej, Dz. U. z 2008 r. nr 116 poz. 730.
15
W jednostkach naukowych skoncentrowane są najważniejsze zasoby potencjału
naukowego krajów18
. Kapitał ludzki i infrastruktura badawcza mają zapewnić realizację
zasadniczych celów odnoszonych do działalności naukowo-badawczej, którymi są19
:
badania naukowe zmierzające do zwiększenia wiedzy pozyskanej za pomocą metod
naukowych;
przekazywanie wiedzy innym;
przystosowanie wiedzy do wdrażania jej w praktyce.
Najważniejszą rolą jednostek naukowych jest produkcja nowej wiedzy, zarówno tej,
która podlega łatwej aplikacji (badania stosowane i przemysłowe, prace rozwojowe)
i potencjalnie może przynieść wymierne efekty w krótszym okresie, jak i tej pozostającej
w sferze teorii, której działanie ma charakter długookresowy (badania podstawowe)20
.
Współczesne podejście do roli jednostek naukowych zakłada, że jednostki naukowe
mają odpowiadać nie tylko na zapotrzebowanie na wiedzę, lecz przede wszystkim kreować
innowacyjność na podstawie własnego potencjału. Orientacja na innowacyjność kształtuje
podstawy dla dwóch dominujących podejść, które syntetyzują rolę jednostek naukowych
we współczesnej gospodarce, mianowicie modelu trójkąta wiedzy21
i modelu potrójnej helisy22
.
W modelu trójkąta wiedzy (rysunek 1.2) ujęte zostały kwestie tworzenia wiedzy,
jej upowszechniania i wdrażania w postaci innowacji oraz wyjaśnienie procesu holistycznego
przepływu wiedzy. Wymiana wiedzy w modelu odbywa się w obu kierunkach, podkreślając
sprzężenia zwrotne w procesie tworzenia innowacji. Jeden z pierwszych modeli innowacji
zakładał, że proces ten przebiega liniowo, rozpoczyna się od badań, następnie przechodzi etap
rozwoju, co z kolei prowadzi do produkcji i komercjalizacji23
. Słabości tego podejścia
wynikały ze zrozumienia, iż innowacyjność jest procesem dynamicznym i wykracza poza
schemat liniowych przepływów i procesów. Proces innowacyjny jest iteracyjny i dąży
do optymalizacji na każdym etapie (model nieliniowy)24
.
18
E. Kobal, Elements of national science and technology policy, [w:] Modernisation of science policy
and management approaches in Central and South East Europe, E. Kobal, S. Radosevic (red.), Series V.
Science and Technology Policy, IOS Press, Amsterdam, Berlin, Oxford, Tokyo, Washington 2005, s. 15. 19
J. Zieliński, O organizacji badań naukowych, Polskie Wydawnictwo Ekonomiczne, Warszawa 1975, s. 43-44. 20
A. Olechnicka, dz. cyt., s. 35-36. 21
K. Piech, dz. cyt., s. 205. 22
H. Etzkowitz, L. Leydesdorff, The dynamics of innovation: from National Systems and „Mode 2‟ to a Triple
Helix of university-industry-government relations, “Research Policy” 2000, t. 29, s. 109-123. 23
K. Piech, dz. cyt., s. 203-204. 24
M.C.J. Caniëls, H. van den Bosh, The role of higher education institution in building regional innovation
systems, “Papers in Regional Science” 2011, t. 90, nr 2, s. 273; J. Rigby, Y. Nugroho, K. Morrison, I. Miles, Who
drives innovation? [w:] Innovation Policy Challenges for the 21st century, D. Cox, J. Rigby (red.), Routledge
Studies in Innovation, Organization and Technology Series, Taylor & Francis, New York, London 2013, s. 38.
16
Rysunek 1.2. Koncepcja trójkąta wiedzy
Źródło: opracowanie własne na podstawie: K. Piech, Wiedza i innowacje w rozwoju gospodarczym w kierunku
pomiaru i współczesnej roli państwa, Instytut Wiedzy i Innowacji, Warszawa 2009, s. 204; S.S.C. Shang, S. Lin,
Y. Wu, Service innovation through dynamic knowledge management, ”Industrial Management & Data Systems”
2009, t. 109, nr 3, s. 325-327.
Nadrzędnym elementem w trójkącie wiedzy jest nauka reprezentowana przez jednostki
naukowe. Jakość ich działań gwarantuje prawidłową równowagę i zespolenie pozostałych
elementów trójkąta. W obszarze nauki następuje tworzenie oraz identyfikacja źródeł
i potencjału wiedzy. Autorka pracy uważa, że obszar ten ma znaczenie strategiczne
dla postępu innowacji. W modelowym ujęciu aktywacja wiedzy następuje przez zastosowanie
wiedzy w praktyce w procesach biznesowych, stąd obszar operatywny. W rezultacie, nauka
przyczynia się do generowania innowacji. K. Piech podkreśla, że warunkiem powstania
innowacji jest wdrożenie wyników badań przez sektor biznesowy. Tworzenie innowacji
bez rozwoju wiedzy może spowodować spowolnienie postępu technologicznego
i cywilizacyjnego, jeśli kolejne innowacje bazowałyby tylko na danym stanie wiedzy i innych
innowacjach25
. Prowadziłoby to głównie do rozwoju innowacji przyrostowych. Podejście
to propagowane było przez J. Schmooklera w koncepcji popytowego tworzenia innowacji
(ang. market-pull). Podejście podażowe (ang. technology-push), sformułowane przez
J. Schumpetera, sprzyja z kolei rozwojowi innowacji przełomowych26
. Właściwa relacja
zachodzi, gdy rozwój wiedzy umożliwia tworzenie innowacji, a te stają się też źródłem nowej
wiedzy27
. Współczesne podejście do tej problematyki kształtuje się na bazie narodowych
systemów innowacji28
. Składają się one ze struktur instytucjonalnych oraz powiązań między
25
K. Piech, dz. cyt., s. 204-205. 26
J. Rigby, Y. Nugroho, K. Morrison, I. Miles, dz. cyt., s. 38-40. 27
K. Piech, dz. cyt., s. 204-205. 28
J.V.G. Manjón, E.R. Merino, dz. cyt., s. 34.
obszar normatywny obszar operatywny
obszar
strategiczny
NAUKA
identyfikacja wiedzy
tworzenie wiedzy
INNOWACJE
synteza wiedzy
wdrożenie wiedzy
EDUKACJA
dyfuzja wiedzy
transfer wiedzy
17
publicznym i prywatnym sektorem badawczym a przedsiębiorstwami wykorzystującymi
wyniki badań w praktyce.
Obszar edukacji w trójkącie wiedzy jest reprezentowany przez zjawisko dyfuzji
i transferu wiedzy, i – zdaniem autorki – ma charakter normatywny. Jest to przeciwieństwo
heterogeniczności wiedzy29
. Dyfuzja wiedzy rozumiana jest jako rozprzestrzenianie się
wiedzy, technologii, artefaktów między i przez ludzi w ramach i ponad granicami państw,
obejmuje uczenie się, współpracę i adaptację30
. Jednostki naukowe uczestniczą w procesie
dyfuzji wiedzy, między innymi przez:
adaptację i zastosowanie wiedzy skodyfikowanej, udokumentowanej w publikacjach
naukowych i patentach31
;
wdrażanie nowych technik i procesów przekazywania informacji oraz zwiększanie
współpracy32
;
przepływ użytkowych pomysłów między organizacjami przenoszony przez interakcje
społeczne ludzi33
.
Z kolei dyfuzja innowacji rozumiana jest jako proces uczenia inicjowany
po wdrożeniu innowacji, w którym biorą udział: producent w kierunku doskonalenia
innowacji, potencjalni nabywcy w procesie poznawania innowacji oraz przyszli naśladowcy,
rozpoznając najważniejsze cechy innowacji i sposoby wytwarzania34
. Upowszechniana
wiedza daje możliwość porównań, konfrontacji z innymi propozycjami, rozwijania
pomysłów. Może sprzyjać uczeniu się oraz podnoszeniu poziomu wiedzy, zarówno przez
pojedyncze podmioty, jak również struktury gospodarcze35
.
Warunkiem prawidłowego funkcjonowania trójkąta wiedzy jest współgranie trzech
sektorów: nauki, przemysłu i władzy publicznej, zgodnie z koncepcją potrójnej helisy
(ang. triple helix) ogłoszonej przez H. Etzkovitza i L. Leydesdorffa36
(rysunek 1.3).
29
D. Romer, dz. cyt., s. 133-134. 30
V.V. Krishna, T. Turpin, Transition and change: innovation systems in Asia-Pacific economies, [w:] Science,
technology policy and the diffusion of knowledge, T. Turpin, V.V. Krishna (red.), Edward Elgar Publishing,
Inc., Cheltenham, Massachusetts 2007, s. 16. 31
C. Chen, D. Hicks, Tracing knowledge diffusion, “Scientometrics” 2004, t. 59, nr 2, s. 199-211. 32
D. Makulska, dz. cyt., s. 190. 33
A.N. Thompson, C.A. Estabrooks, L.F. Degner, Clarifying the concepts in knowledge transfer: a literature
review, “Journal of Advanced Nursing” 2006, t. 53, nr 6, s. 692. 34
E.M. Rogers, Diffusion of innovation, Collier Macmillan Publishers, New York, London 2003, s. 5. 35
D.W. Wojick, W.L. Warnick, B.C. Carroll, J. Crowe, The digital road to scientific knowledge diffusion,
“D-Lib Magazine” 2006, t. 12, nr 6. 36
H. Etzkowitz, L. Leydesdorff, dz. cyt., s. 109-123.
18
Rysunek 1.3. Model potrójnej helisy (ang. triple helix)
Źródło: H. Etzkowitz, L. Leydesdorff, The dynamics of innovation: from National Systems and „Mode 2‟
to a Triple Helix of university-industry-government relations, “Research Policy” 2000, t. 29, s. 111.
Wiodącą rolę odgrywają jednostki naukowe37
. Skuteczność działań jednostek
naukowych zależy od powiązań z pozostałymi elementami helisy. Badacze H. Etzkovitz
i L. Leydesdorff wyrażają pogląd, że powiązania, w ramach struktur sieciowych, sprzyjają
realizacji praktycznych oraz teoretycznych działań badawczych. Sieci takie są niezbędne
do wspierania konkurencyjności, przyczyniają się do dzielenia się wiedzą praktyczną,
a także umożliwiają dostęp do aktualnych wydarzeń. W sieci zachodzi efekt synergii – wiedza
jest skutecznie wdrażana, kreowane są wspólnie innowacje i nowe osiągnięcia, następuje
wymiana wiedzy, doświadczeń i wsparcia38
.
Model potrójnej helisy, podobnie do modelu trójkąta wiedzy, propaguje nieliniowe
podejście do innowacji, w którym zachodzą interakcje pomiędzy jednostkami naukowymi,
przedsiębiorstwami i organami administracji rządowej jako kluczowymi interesariuszami
innowacyjności, i wszystkie te podmioty odnoszą korzyści w ramach tych powiązań39
. Teoria
ta wskazuje, że formalne i nieformalne relacje pomiędzy sektorem publicznym
i komercyjnym wpływają na kształt i poziom wzrostu gospodarczego na danym obszarze.
Kluczowym podejściem w tym kierunku badań jest perspektywa, że relacje te są hybrydowe,
cykliczne i krzyżowe40
. Wzajemne oddziaływanie organizuje sektor naukowy.
Na gruncie potrójnej helisy zostały ukształtowane narodowe i regionalne systemy
innowacji. Dyskusja na ten temat stanowi istotny element wielu koncepcji teoretycznych.
37
H. Etzkovitz, M. Ranga, “Spaces”: A triple helix governance strategy for regional innovation, [w:] Innovation
governance in an open economy, A. Rickne, S. Laestadius, H. Etzkovitz (red.), Routledge, Abington, New
York 2012, s. 51. 38
M. Mader i in., Monitoring networking between higher education institutions and regional actors, “Journal of
Cleaner Production” 2013, t. 49, s. 106. 39
M.C.J. Caniëls, H. van den Bosh, dz. cyt., s. 274. 40
Tamże.
NAUKA
RZĄD PRZEMYSŁ
19
Nawiązując do regionalnych systemów innowacji można zauważyć, że istotne role
jednostek naukowych przejawiają się w rozwoju regionów. Najbardziej wyraźny wpływ
widoczny jest w regionalnych systemach innowacji, które nawiązują do krajowego systemu
innowacji i uwzględniają dynamikę relacji regionalnych i połączeń lokalnych.
Zrównoważony rozwój regionu wymaga zapewnienia współpracy i możliwości
integracji różnych dyscyplin naukowych i ludzi z różnych środowisk w celu rozwiązywania
złożonych problemów społecznych. Znaczenie instytucji naukowych w kształtowaniu
procesów innowacyjnych w rozwoju regionalnym podkreśla fakt, że innowacyjność jest silnie
uzależniona od informacji i wiedzy. Czynniki te są wskazywane jako krytyczne sukcesu
w nowych modelach rozwoju regionalnego41
. Dla rozwoju regionalnego jest pożądana
współpraca wielu interesariuszy, ponieważ silne partnerstwo jest niezbędne do identyfikacji
potrzeb badawczych w obrębie społeczeństwa i regionu. Udział jednostek naukowych
w rozwoju regionu odbywa się na trzech płaszczyznach42
:
1. Produkcji wiedzy – odnosi się do badań zleconych i projektów doradczych na rzecz
przemysłu i decydentów politycznych. Projekty w tej kategorii zazwyczaj odnoszą się
do oryginalnych badań naukowych. Ze względu na fakt, że jednostki naukowe
są zróżnicowane dziedzinowo, mogą zapewnić wiedzę potrzebną do rozwiązania
szczególnych problemów regionalnych.
2. Edukacji – budowanie relacji pomiędzy uczelniami a przemysłem w zakresie szkoleń,
staży, czasowej wymiany pracowników, dostosowywania programu nauczania nowych
kadr, tworzenie nowej wiedzy akademickiej. Ponadto, podmioty regionalne wnoszą
do nauki swoją wiedzę i praktyczne doświadczenie.
3. Aktywnej współpracy z podmiotami publicznymi i prywatnymi – pochodzą z formalnego
i nieformalnego uczestniczenia jednostek naukowych jako podmiotu instytucjonalnego
w relacji z innymi regionalnymi podmiotami w sieciach naukowych, innowacyjnych
i politycznych. Ważniejszym praktycznym przykładem jest powoływanie jednostek typu
spin-off lub start-up.
Przez te działania jednostki naukowe występują w roli inicjatora rozwoju regionalnego
w zakresie naukowym, gospodarczym i społecznym. Jednostki naukowe kształtują tożsamość
regionów, w których się znajdują. Udział jednostek naukowych w rozwoju regionalnym jest
widoczny we wskaźnikach rozwoju regionalnego. Zależność między liczbą jednostek
41
M. Mader i in., dz. cyt., s. 106. 42
M.C.J. Caniëls, H. van den Bosh, dz. cyt., s. 278-279.
20
naukowych zlokalizowanych w regionie a wskaźnikiem PKB jest wysoka i istotna
(współczynnik korelacji wynosi 0,9243
).
Na podstawie przeglądu literatury i analizy własnej, autorka rozprawy wyraża pogląd,
że jednostki naukowe stanowią niejako spiritus movens rozwoju gospodarczego i społecznego,
zarówno na poziomie krajowym, jak i regionalnym. Są fundamentem systemów naukowo-
badawczych i kształtują główne ośrodki tworzenia i upowszechniania wiedzy. Dodatkowo,
istotnie przyczyniają się do zachowania kontynuacji nauki przez tworzenie i rozwijanie
zespołów badawczych oraz uprawianie i rozwijanie dyscyplin naukowych. Ważne jest zatem
badanie problematyki kształtowania organizacyjnych, instytucjonalnych, procesowych
i finansowych aspektów funkcjonowania jednostek naukowych.
1.2. Mechanizmy i narzędzia kreowania polityki naukowej
Problematyka polityki naukowej i zarządzania w sektorze naukowym jest tematem
często i szeroko dyskutowanym w środowiskach rządowych, naukowych i gospodarczych44
.
Związane jest to ze zrozumieniem znaczenia nauki dla rozwoju gospodarczego
i dynamicznych zmian w tym sektorze spowodowanych presją dostosowywania się
do szybkich przemian gospodarczych i technologicznych na świecie oraz ambiwalentnym
charakterem relacji nauki i polityki45
. Dobrze umotywowana, sformułowana i przygotowana
polityka ma zasadnicze znaczenie dla osiągnięcia publicznej wartości z badań naukowych,
szczególnie, gdy sfera badań i innowacji stale się zmienia i rozwija46
.
Polityka naukowa jest najmłodszą z dziedzin polityki gospodarczej47
. Pojęcie
to pojawiło się wraz z rozwojem naukoznawstwa na początku XX wieku. Do 1960 roku
większość krajów nie prowadziła wyodrębnionej polityki naukowej, do czasu, gdy Organizacja
Współpracy Gospodarczej i Rozwoju (ang. Organization for Economic Co-operation
and Development, OECD) zaczęła zajmować się tą kwestią. Jednymi z pierwszych krajów,
które zaczęły formalizować podstawy polityki naukowej były Belgia, Francja, Holandia,
Niemcy i Wielka Brytania. Inne kraje dość sceptycznie podchodziły do projektowania
i wdrażania krajowego planu w kwestiach naukowych. Obawy wynikały z tego,
43
Opracowanie własne na podstawie danych GUS-u z 2011 roku. 44
B.R. Martin, The evolution of science policy and innovation studies, “Research Policy” 2012, t. 41, s. 1219-1239. 45
O. Kovács, Á. Orosz, Science and technology policy in the European Union – innovation leaders with
different outcomes, “Analele Universităţii Din Oradea” 2011, t. III, 2011, s. 94. 46
Shaping science and technology policy: the next generation of research, D. Guston, D. Sarewitz (red.),
The University of Wisconsin Press, Madison 2006, s. 7. 47
S. Korenik, E. Szostak, Polityka naukowa i innowacyjna, [w:] Polityka gospodarcza, B. Winiarski (red.),
Państwowe Wydawnictwo Naukowe, Warszawa 2006, s. 325.
21
czy scentralizowana jednostka jest w stanie opracować całościowy plan dla już wtedy znacznie
zróżnicowanego sektora, a nawet jeśli tak, to czy będzie on najlepszy w interesie nauki48
.
Współcześnie pojęcie to nie zostało dostatecznie sprecyzowane. Wpływają
na to zmiany w polityce gospodarczej oraz zmiany w samej nauce. Termin polityka naukowa
od pierwotnie ugruntowanej postaci, zmieniał się na przestrzeni lat, przyjmując różne formy
kombinacji nauki, technologii i innowacji49
. W literaturze można wyodrębnić osobne
definicje dla każdego typu, ale J. Kozłowski wszystkie traktuje jako zbiór działań rządu,
podejmowanych na rzecz sektora naukowego publicznego i prywatnego dla osiągnięcia celów
społecznych, gospodarczych i politycznych50
. W zależności od wspieranego obszaru
w trójkącie wiedzy, można podzielić politykę na naukową, technologiczną i innowacyjną51
.
Zdaniem S. Korenika i E. Szostak, polityka naukowa obejmuje zakres polityki innowacyjnej,
która służy szeroko pojętej komercjalizacji badań52
. J. Kozłowski wyraża pogląd, że polityka
innowacyjna powinna zostać zintegrowana z polityką naukową53
.
Najczęściej politykę naukową definiuje się jako publiczną interwencję mającą na celu
takie wpływanie na naukę, które przyczyni się do wzrostu gospodarczego i społecznego
przy efektywnym wykorzystaniu zasobów54
. Traktowana jest jako zestaw decyzji lub działań
realizowanych przez różne siły polityczne, gdzie głównym i ostatecznym celem jest
sprzyjanie, pobudzanie lub niekiedy hamowanie postępu badań, i wykorzystywanie ich
wyników do celów społeczno-ekonomicznych, politycznych, kulturalnych i wojskowych55
.
Innymi słowy, jest to zbiór strategii i instrumentów umożliwiających wspieranie badań
naukowych i technicznych w zakresie produkcji możliwie najbardziej pożądanej wiedzy,
jej zastosowania w rozwiązaniach technologicznych, które mogą jeszcze bardziej przyczynić
się do postępu społeczno-gospodarczego i poprawy jakości życia obywateli. J. Czerniak
uogólnia to podejście do stymulowania procesów zmierzających do tworzenia wiedzy
stanowiącej dobro publiczne56
. W wymiarze praktycznym polityka naukowa sprowadza się
do ustalania priorytetów alokacji zasobów publicznych.
48
L. Henriques, P. Larédo, Policy-making in science policy: The „OECD model‟ unveiled, “Research Policy”
2013, t. 42, s. 802. 49
B.R. Martin, dz. cyt., s. 1219. 50
J. Kozłowski, Foresight jako narzędzie polityki naukowej, „Nauka i Szkolnictwo Wyższe” 2008, t. 2, nr 32, s. 17. 51
Tamże. 52
S. Korenik, E. Szostak, dz. cyt., s. 326. 53
J. Kozłowski, Uwagi o polityce naukowej, „Forum Akademickie”, nr 6, 2005. 54
S. Korenik, E. Szostak, dz. cyt., s. 326. 55
J.E. Rubio, N. Tshipamba, Elements of the public policy of science, technology and innovation, “Canadian
Social Sciences” 2010, t. 6, nr 6, s. 63. 56
J. Czerniak, Polityka innowacyjna w Polsce. Analiza i proponowane kierunki zmian, Difin, Warszawa 2013,
s. 28 [za:] C. Edquist, L. Hommen, M. McKelvey, Innovation and employment. Process versus product
innovation, Edward Elgar Publishing, Cheltenham 2001, s. 131.
22
Inne podejście prezentuje B. Martin. Termin polityki naukowej definiuje jako badania
poświęcone analizie, zrozumieniu i skutecznemu reagowaniu na gospodarcze, polityczne,
zarządcze, organizacyjne, środowiskowe i inne wyzwania związane z innowacjami,
technologią, badaniami naukowymi i pracami rozwojowymi57
. Podkreśla, że polityka
naukowa jest złożona, wieloaspektowa i wielowątkowa. Porusza zagadnienia między innymi
z zakresu ekonomii, zarządzania, historii gospodarczej, socjologii, psychologii, nauk
politycznych i obejmuje różne dziedziny życia gospodarczego i społecznego58
. Martin
zaznacza jednak, że prowadzenie polityki naukowej musi odbywać się z uwzględnieniem
centralnej roli przedsiębiorstw w rozwoju technologii i innowacji59
. Polityka naukowa przede
wszystkim zorientowana jest na podejmowanie decyzji w kwestiach praktycznych, to znaczy
jak i jakie działania polityczne są w stanie przyczynić się do rozwoju nauki, technologii
i innowacji60
. Podstawową przesłanką polityki naukowej jest fakt, że nawet dobrze
funkcjonująca gospodarka rynkowa nie jest w stanie samodzielnie uzyskać optymalnego
poziomu inwestycji w innowacje61
.
Ogólnie, w definicjach polityki naukowej podkreśla się wymierną wartość badań. Cele
polityki naukowej nie ograniczają się tylko do stymulowania rozwoju wiedzy czy zwiększenia
liczby innowacji, ale główny nacisk położony jest na gospodarczy i społeczny wymiar nauki
w przestrzeni publicznej, podniesienie produktywności i wzmocnienie konkurencyjności kraju
przez zaspokojenie obecnych i przyszłych potrzeb technologicznych62
. Natura polityki
naukowej zmieniła się na przestrzeni ostatnich lat z ukierunkowanej na realizację misji
badawczej (ang. mission-oriented) na zorientowaną na dyfuzję wiedzy (ang. diffusion-
oriented)63
. Celem polityki naukowej jest pobudzanie procesów innowacyjnych
przez wzmocnienie mechanizmów przekazywania wiedzy i transferu technologii
oraz wykorzystanie wyników badań64
.
57
B.R. Martin, dz. cyt., s. 1220. 58
Tamże, s. 1221-1229. 59
P. Morlacchi, B.R. Martin, Emerging challenges for science, technology and innovation policy research:
a reflexive overview, “Research Policy” 2009, t. 38, s. 572. 60
M.G. Colombo, L. Grilli, L. Piscitello, C. Rossi-Lamastra, Science and innovation policy for the new
knowledge economy, PRIME Series on Research and Innovation Policy in Europe, Edward Elgar, Cheltenham-
Northampton 2011, s. 4. 61
M. Trajtenberg, Innovation policy for development: an overview, [w:] The new economics of technology
policy, D. Foray (red.), Edward Elgar, Cheltenham-Northampton 2009, s. 371. 62
J. Kozłowski, OECD doradza, jak robić dobrą politykę, “Forum Akademickie” 2013, nr 4; J.E. Rubio,
N. Tshipamba, dz. cyt., s. 63, 67. 63
J. Caraça, Toward and S&T policy for the knowledge-based society, [w:] Science, technology and innovation policy.
Opportunities and challenges for the knowledge economy, P. Conceição, D. Gibson, M. Heitor, S. Shariq (red.),
International Series on Technology Policy and Innovation, nr 1, Quorum 2000, s. 32. 64
S. Korenik, E. Szostak, dz. cyt., s. 334-336.
23
Mechanizmy kształtujące politykę naukową odnoszą się w związku z tym do dwóch
teorii innowacji: popytowej (ang. demand-driven policy) i podażowej (ang. demand-based
policy)65
. W koncepcji popytowej głównym czynnikiem tworzącym innowacje są potrzeby
rynku, których rozpoznanie przekłada się na kreowanie polityki. Podejście to wywodzi się
z teorii J. Schmooklera, który zakładał, że wiedza techniczna rozwija się przede wszystkim
w kierunkach określonych przez potrzeby człowieka66
. W teorii podażowej źródło kreowania
innowacji znajduje po stronie jednostek naukowych. Podstawy tej teorii stworzył
J.A. Schumpeter. Opracował on model działalności innowacyjnej, w którym wyróżnił naukę
wewnętrzną (zasoby wewnętrzne przedsiębiorstwa) i zewnętrzną (zasoby jednostek
naukowych). W jego podejściu siłą napędową tworzenia innowacji są właściwe procesy
zarządzania jednostkami naukowymi67
. Polityka naukowa w tym kontekście ma na celu
stworzenie bodźca dla innowacji technologicznych68
. Przykładem kształtowania takiej
polityki są kraje Azji Wschodniej69
.
Kreowanie polityki naukowej jest pojęciem złożonym, wielokryterialnym
i wieloaspektowym. Działania podejmowane w ramach polityki naukowej dotyczą70
:
określania celów, które nauka ma osiągnąć w toku prowadzonych badań;
tworzenia warunków sprzyjających rozwijaniu produktywnej działalności naukowej;
kształtowania rozwiązań wspierających wdrażanie wyników nauki do praktyki gospodarczej;
przekształceń w strukturze organizacyjnej nauki bez niszczenia niezależności i autonomii
nauki, które są kluczowe dla długoterminowego wzrostu wiedzy.
Z punktu widzenia podejścia instytucjonalnego, polityka naukowa ma dwojaki
charakter: odgórny (ang. top-down) i oddolny (ang. bottom-up). Państwo podejmuje
inicjatywę rozwoju nauki i technologii przez różne strategie, ale otrzymuje również sygnały
z sektora nauki, technologii i społecznego71
.
W literaturze wyróżnia się także podejścia proaktywne i reaktywne72
. Polityka
proaktywna ma charakter aktywnej polityki zorientowanej na przyszłość. Są to świadomie
65
J. Rigby, Y. Nugroho, K. Morrison, I. Miles, dz. cyt., s. 28. 66
S. Korenik, E. Szostak, dz. cyt. , s. 334-336. 67
Tamże. 68
I. Miles, J. Rigby, Demand-led innovation, [w:] Innovation policy challenges for the 21st century, D. Cox, J.
Rigby (red.), Routledge Studies in Innovation, organization and technology, Taylor & Francis, New York,
London 2013, s. 52-53. 69
V.V. Krishna, T. Turpin, dz. cyt., s. 5-7. 70
S. Korenik, E. Szostak, dz. cyt., s. 328; I. Miles, J. Rigby, s. 56; P. van den Besselaar, K. Börner,
A. Scharnhorst, dz. cyt., s. 262. 71
J.E. Rubio, N. Tshipamba, dz. cyt., s. 67. 72
J. Rigby, Y. Nugroho, K. Morrison, I. Miles, dz. cyt., s. 30-31.
24
zaprojektowane działania kształtujące pożądane rezultaty. Szczególne zastosowanie mają
tu badania foresight73
. Dąży się do przewidywania prawdopodobnych scenariuszy przyszłości
i podejmowania działań w kierunku ich realizacji. Innowacje są uzyskiwane w wyniku
podejmowanych inicjatyw tworzenia nowej wiedzy. To podejście sprzyja rozwojowi
innowacji przełomowych. Przeciwstawne podejście reaktywne cechuje podejmowanie działań
w odpowiedzi na zaistniałe uwarunkowania.
Trudność w kreowaniu polityki naukowej wynika z tego, że badania naukowe wiążą
się z niepewnością i ryzykiem, i trudno w pełni zaplanować i przewidzieć efekty działalności
naukowej74
. Polityka naukowa powinna zatem uwzględniać dwa horyzonty: długofalowy
i krótkoterminowy. W horyzoncie długim powinno dążyć się do przekształcenia systemu
badań i innowacji w kierunku tworzenia i stosowania nowej wiedzy w skali
międzynarodowej75
. W horyzoncie krótkim ważne jest polepszenie produktywności
w gospodarce przez zastosowanie istniejącej wiedzy. W praktyce, w krótkim okresie, polityka
naukowa dotyczy głównie podejmowania decyzji na temat alokacji zasobów finansowych76
.
Mając to na uwadze oraz porządkując zagadnienia poruszane w literaturze, autorka
pracy zauważyła, że kreowanie polityki naukowej zasadniczo odbywa się w trzech wymiarach:
strategicznym – tworzenie wizji politycznej, formowanie założeń i strategii;
operacyjnym – formułowanie polityki, ustalanie celów i kierunków badań;
taktycznym – realizacja polityki w zakresie organizowania systemu nauki i wdrażania
polityki naukowej.
Klasyczny cykl polityki naukowej składa się z pięciu faz: formułowania problemu,
projektowania polityki, podejmowania decyzji, realizacji oraz ewaluacji i monitoringu
(rysunek 1.4).
73
J. Nazarko, Regionalny foresight gospodarczy. Metodologia i instrumentarium badawcze, Mazowieckie
Centrum Informacji Gospodarczej, Warszawa 2013, s. 12; T. Ahlqvist, V. Valovirta, T. Loikkanen, Innovation
policy roadmapping as a systemic instrument for looking-foreward policy design, “Science and public policy”
2012, t. 39, s. 178-190; T. Könnölä, F. Scapolo, P. Desruelle, R. Mu, Foresight tackling societal challenges:
Impacts and implications on policy-making, “Futures” 2011, t. 43, s. 252-264. 74
M. Miedziński, Wybrane zagadnienia ewaluacji polityki innowacyjnej, [w:] Teoria i praktyka ewaluacji
interwencji publicznych, K. Olejniczak, M. Kozak, B. Ledzion (red.), Wydawnictwa Akademickie
i Profesjonalne, Warszawa 2008, s. 484. 75
J. Kozłowski, OECD doradza... 76
I. Feller, dz. cyt., s. 102.
25
Rysunek 1.4. Cykl polityki naukowej
Źródło: L. Henriques, P. Larédo, Policy-making in science policy: The „OECD model‟ unveiled, “Research
Policy” 2013, t. 42, s. 801.
Sformułowanie problemu obejmuje diagnozę, rozpoznanie i identyfikację zagadnień
na poziomie strategicznym. Projektowanie polityki na poziomie operacyjnym polega
na sprecyzowaniu działań, określeniu rezultatów i oddziaływań, a realizacja założeń polityki
naukowej wypełnia obszar taktyczny. Ocena i ewaluacja polityki naukowej odbywa się
na różnych etapach cyklu.
Zbieżny z tym podejściem jest model kreowania polityki naukowej OECD oparty
na podejściu instytucjonalnym, zaprezentowany przez L. Henriques i P. Larédo. Model jest
wypadkową dobrych praktyk określonych na przestrzeni lat funkcjonowania OECD.
W koncepcji tej wyodrębniono siedem głównych funkcji polityki naukowej: (1) koordynację,
(2) doradztwo, (3) planowanie, (4) finansowanie, (5) ustalanie priorytetów, (6) alokację
zasobów i (7) administrowanie77
.
Kluczowym aspektem polityki naukowej jest dobór instrumentów na każdym etapie
cyklu78
. Samo określenie celów i założeń polityki naukowej nie wywoła pożądanych skutków.
Instrumenty polityki naukowej są definiowane jako zestaw technik do wywoływania zmian,
za pomocą których organy rządowe realizują konkretne cele polityki naukowej79
.
Instrumenty polityki naukowej są to mechanizmy wykorzystywane przez instytucje
polityki naukowej w celu zrealizowania założeń działalności naukowej. Instrumenty te można
podzielić na ogólne, oddziałujące na cały proces badawczy, oraz wyspecjalizowane,
77
I. Feller, dz. cyt., s. 801-816. 78
S. Borrás, C. Edquist, The choice of innovation policy instruments, “Technological Forecasting and Social
Change” 2013, t. 80, s. 1513. 79
Tamże, s. 3.
Formułowanie problemu
Projektowanie polityki
Podejmowanie decyzji
Realizacja
Ewaluacja i monitoring
26
oddziałujące na wybrane elementy procesy badawczego80
. Instrumenty polityki naukowej
można podzielić na cztery grupy81
:
instrumenty regulacyjne;
instrumenty ekonomiczne i finansowe;
instrumenty miękkie;
formalny system oceny.
Polityka naukowa podlega regulacjom prawnym, które określają ogólne ramy
i wytyczne dotyczące systemu nauki oraz wyznaczają ich misję. Z punktu widzenia polityki
naukowej, instrumenty regulacyjne są często używane do określenia warunków rynkowych
w zakresie rezultatów i procesów w sektorze nauki. W Europie ramy te są kształtowane
na poziomie Unii Europejskiej (UE).
Instrumenty ekonomiczne i finansowe służą do ustalania priorytetów naukowych,
zaspokajania potrzeb pracowników naukowych i zapewniania odpowiedniej infrastruktury.
Mogą obejmować wsparcie podmiotowe, przedmiotowe lub mieszane82
.
Instrumenty miękkie nie mają charakteru nakazowego. Ogólnie są oparte na agitacji,
wzajemnej wymianie informacji między podmiotami. Zawierają zalecenia, wnioski
normatywne lub porozumienia umowne, których przykłady stanowią kampanie, kodeksy,
dobrowolne umowy, partnerstwa83
.
Formalny system ewaluacji służy do oceny i poprawy bieżących procesów oraz oceny
możliwości rozwoju. Narzędzia ewaluacji badań służą poprawie jakości badań, stworzeniu
środowiska konkurencji między jednostkami naukowymi, uczynieniu ich bardziej otwartymi
na rynek, bardziej elastycznymi we współpracy z innymi podmiotami i innymi jednostkami
z sektora84
.
Nowoczesna polityka naukowa traktuje instrumenty polityki naukowej jako rodzaj
inwestycji, która ma dać oczekiwany zwrot ekonomiczny, społeczny czy kulturowy85
. Obecnie
instrumenty kształtowania polityki naukowej przyjmują charakter instrumentów systemowych86
.
Polityka naukowa powinna być dziedziną innowacyjną. Procedura formułowania
założeń polityki naukowej wymaga rozpoznania potencjału naukowo-badawczego kraju,
stanu zasobów kapitału intelektualnego i infrastruktury badawczej, struktury potencjału
80
S. Korenik, E. Szostak, dz. cyt., s. 334. 81
J.E. Rubio, N. Tshipamba, dz. cyt., s. 70-75; S. Borrás, C. Edquist, dz. cyt., s. 1514. 82
S. Korenik, E. Szostak, dz. cyt., s. 333. 83
S. Borrás, C. Edquist, dz. cyt., s. 1518. 84
J.E. Rubio, N. Tshipamba, dz. cyt., s. 70-75. 85
S. Korenik, E. Szostak, dz. cyt., s. 334. 86
S. Borrás, C. Edquist, dz. cyt., s. 1518.
27
naukowego, regionalnego rozmieszczenia potencjału naukowego, planów badań i prac
rozwojowych oraz zastosowania odpowiednich narzędzi metodycznych w zakresie analizy
i interpretacji tych obszarów87
. Wiele decyzji polityki naukowej wymaga umocowania
na podstawach empirycznych88
. Konieczna jest głęboka analiza celów poszczególnych prac
naukowych, prognoz rozwoju nauki i techniki, szans realizacji projektowanych prac
naukowych i związanego z tym wysiłku, pożądanych i niepożądanych konsekwencji
wykorzystywania spodziewanych wyników w różnych dziedzinach nauki i w innych
dziedzinach działalności społecznej89
. Sukces polityki naukowej zależy zatem w dużej mierze
od dostępu do wiarygodnych i dobrze zdefiniowanych danych.
W tym nurcie, w międzynarodowej przestrzeni naukowej obecnie kształtuje się nowa
koncepcja kreowania polityki naukowej – podejście naukowe do polityki naukowej
(ang. science of science policy, SoSP). Jest to nowy interdyscyplinarny obszar badawczy,
który ma na celu zapewnić naukowe podstawy wspomagania procesów decyzyjnych
w sektorze nauki w środowisku rządowym i naukowym. Obszar ten rozwija się w odpowiedzi
na pilną potrzebę opracowywania wielowymiarowych analiz, bardziej informacyjnych modeli
implikacyjnych, pokonujących ograniczenia i słabości wskaźników czy szeregów czasowych
jednej zmiennej. Nowy obszar badawczy jest ukierunkowany na opracowywanie modeli
wyjaśniających, niezbędnych do zrozumienia współzależności między różnymi wielkościami
mierzalnymi (zmiennymi, cechami) lub metrykami, które będą również wyjaśniały
przyczyny, skutki i implikacje polityki naukowej90
.
Podejście nauki o polityce naukowej ugruntowało się na następujących przesłankach,
które ujawniają ogólne kierunki tej dziedziny91
:
infrastruktura danych jest niewystarczająca do podejmowania decyzji;
gromadzenie i analiza danych o nauce i środowisku naukowym jest niejednorodna
i niesystematyczna;
instytucje narodowe stosują różne modele i narzędzia oraz zbiory danych, żeby zrozumieć
mechanizm inwestowania w naukę i technologie;
zaawansowany dorobek nauk społecznych pozwala na szybkie zastosowanie tej wiedzy
do badań procesu nauki i innowacji (zasoby wiedzy są już skoncentrowane).
Wynika z tego, że w obszarze polityki naukowej rozwija się potrzeba dynamicznego
monitorowania i prognozowania rozwoju naukowego i przełomowych odkryć technologicznych
oraz poprawy i mierzenia społecznego wpływu badań. Decydenci są zainteresowani
87
J. Kozłowski, OECD doradza… 88
M.G. Colombo, L. Grilli, L. Piscitello, C. Rossi-Lamastra, dz. cyt., s. 4. 89
S. Chaskielewicz, A. Tuszko, Polityka naukowa drugiej generacji, Wiedza Powszechna, Warszawa 1975, s. 120. 90
J. Marburger, The science of science and innovation technology, [w:] Science, technology and innovation
indicators in a changing world. Responding to policy needs, OECD Publishing, 2007, s. 27-32. 91
J. Marburger, dz. cyt., s. 27-32.
28
rozpoznawaniem obiecujących osiągnięć w dotychczasowych i nowych obszarach badawczych
na wczesnym etapie opracowywania programów i podejmowania decyzji inwestycyjnych92
.
Warto zwrócić uwagę, że nie ma sposobu, aby zagwarantować natychmiastowe korzyści przy
podejmowaniu badań naukowych93
. Dlatego istnieje potrzeba lepszego zrozumienia
instytucjonalnych i organizacyjnych uwarunkowań rozwoju nauki dla poprawy efektywności
systemu badań94
. Wsparcie analityczne decyzji politycznych powinno koncentrować się
na konkretnych kwestiach przez dążenie do syntezy i integrowania wiedzy uzyskanej na temat
różnych elementów systemu nauki, a szczególnie jednostek naukowych.
Koncepcja połączenia nauki i polityki naukowej jest oparta na racjonalistycznej
koncepcji nauki95
. Według tego podejścia nauka jest użytecznym narzędziem w procesie
podejmowania decyzji w zakresie polityki naukowej. Możliwości nauki w zakresie
zapewnienia wyjaśnień przyczynowych działań, zarówno obecnych, jak i przyszłych,
poprawia zdolność decydentów w kierunku osiągnięcia pożądanych rezultatów. Poleganie
na nauce jest skuteczne wtedy, gdy informacja oparta na naukowych przesłankach pozwala
decydentom wybrać takie rozwiązanie, które pozwala zbliżyć się do określonych celów
i przewyższa inne rozwiązania w osiąganiu tych celów. Nauka w takim wypadku,
postrzegana jest jako mechanizm rozumienia celów politycznych96
.
Nowe podejście do kształtowania polityki naukowej dotyczy stosowania narzędzi
wspierających kreowanie polityki naukowej opartych na naukowych przesłankach,
które ułatwiają wdrożenie cyklu polityki naukowej (tabela 1.1). Prezentowane narzędzia
mają charakter metodologiczny i powinny tworzyć przesłanki stosowania instrumentów
polityki naukowej.
Wiedza i instrumenty, które zostały opracowane w ostatnich latach, utorowały drogę
do znacznego wkładu ekonomii do wsparcia procesu decyzyjnego w odniesieniu do postępu
naukowego97
. Daje to podstawę do rozwijania narzędzi w kwestiach: efektywnego
finansowania, uwarunkowań instytucjonalnych i alokacji zasobów oraz problemu związanego
92
P. van den Besselaar, K. Börner, A. Scharnhorst, dz. cyt., s. 262. 93
J.E. Rubio, N. Tshipamba, dz. cyt., s. 63. 94
P. van den Besselaar, K. Börner, A. Scharnhorst, dz. cyt., s. 262. 95
A.C. Keller, Science in environmental policy. The politics of objective advise, Massachusetts Institute
of Technology, Cambridge, Massachusetts, London 2009, s. 28. 96
A.C. Keller, dz. cyt., s. 28. 97
C. Antonelli, C. Franzoni, A. Geuna, The contributions of economics to a science of science policy,
[w:] Science and innovation policy for the new knowledge economy, M.G. Colombo, L. Grilli, L. Piscitello,
C. Rossi-Lamastra (red.), Edward Elgar, Cheltenham-Northampton 2011, s. 31.
29
z identyfikacją dziedzin, w które zasoby te powinny zostać zainwestowane98
. W zakresie
narzędzi analizy, istnieje potrzeba, aby wyjść poza skonsolidowany zestaw technik
bibliometrycznych na rzecz pomiaru produktywności99
.
Tabela 1.1. Narzędzia wspierające kreowanie polityki naukowej
Cele koncepcji Wyszczególnienie
Rozwój kapitału ludzkiego
i współpraca gospodarcza
powiązana z rezultatami
prac nauki i przemysłu
transdyscyplinarne zespoły badawcze
współpraca między naukowcami ośrodków akademickich i nieakademickich
wirtualne sieci społeczne
narzędzia ewaluacji oparte dziedzinowo i kulturowo
Powrót
do międzynarodowych przepływów wiedzy
stymulowanie współpracy międzynarodowej
zaangażowanie zagranicznych doktorantów i doktorów w procesie tworzenia
i dyfuzji wiedzy
Kreatywność
i innowacyjność
modele poznawcze naukowych odkryć i innowacji
narzędzia innowacyjnego projektowania oparte na podstawowych procesach
poznawczych
Systemy produkcji wiedzy
kompleksowe systemy modelowania ewolucji technologicznej
narzędzia mapowania nauki do korelowania poziomu finansowania
z wynikami badań
międzynarodowa baza danych międzyorganizacyjnych umów o współpracy
Implikacje polityki
naukowej
ramy teoretyczne dla oceny polityki naukowo-technologicznej i efektu
społecznego dobrobytu
ewaluacyjne narzędzia oceny efektów dystrybucyjnych inicjatyw
politycznych
narzędzia oceny inicjatyw polityki naukowej i innowacyjnej
model nauki i innowacji oparty na wartościach publicznych
Zwiększenie wpływu,
rozumienia zależności
modele symulacyjne tworzenia wiedzy i systemu transferu
projekty organizacyjne i sieci społeczne do inicjowania, wzbogacania
i przyspieszania (procesu) innowacji
narzędzia decyzyjne optymalizacji potencjału finansowania
baza międzynarodowych badań i partnerstw technologicznych
baza wideo narzędzi i artefaktów w innowacyjnym projektowaniu
wirtualne narzędzia do oceny działalności
programy ewaluacji metodami granicznymi
teoretyczne podstawy systemu innowacji i powiązania do wzrostu
gospodarczego i dobrobytu społecznego
Źródło: J. Lane, Science of Science & Innovation Policy(SciSIP), www.oecd.org/science/inno/40858284.pdf
[22.08.2013].
Dostęp do właściwych, dokładnych i aktualnych informacji służących
do opracowywania celów polityki naukowej, ustalania priorytetów i planowania instrumentów
uzasadnia zatem prowadzanie ewaluacji na różnych poziomach polityki naukowej100
.
Ocena i ewaluacja są jednym z głównych narzędzi wspomagających procesy
decyzyjne polityki naukowej. Wkomponowanie ewaluacji w planowanie i programowanie
nadaje jej funkcję strategiczną w procesie ustalania priorytetów i ulepszania całego procesu
98
C. Antonelli, C. Franzoni, A. Geuna, dz. cyt.., s. 32. 99
Tamże, s. 33. 100
J. Kozłowski, Ewaluacja instytucji naukowych w Polsce w świetle porównań międzynarodowych
i konsultacji, Departament Strategii Ministerstwa Nauki i Szkolnictwa Wyższego, Warszawa 2010, s. 8.
30
wdrażania polityki. Wnioski z ewaluacji stanowią ważny wkład w proces formułowania
długookresowej wizji i planowania101
.
Charakterystyczne dla sektora naukowego i badawczo-rozwojowego jest
projektowanie, wdrażanie i rozliczanie efektów przedsięwzięć o różnym zakresie. Ewaluacja
w tym sektorze jest złożona ze względu na specyfikę działalności naukowej oraz znaczne
zróżnicowanie podmiotów pod względem struktury, celów, misji, czy realizowanych zadań.
Ewaluacja w ramach kreowania polityki naukowej przeprowadzana jest na poziomie
pojedynczych interwencji publicznych, podsystemów lub na poziomie całego systemu
nauki102
. Ewaluacja może obejmować103
:
politykę naukową i system nauki i innowacji;
programy i instrumenty polityczne;
projekty realizowane w ramach poszczególnych programów i instrumentów;
narzędzia decyzyjne;
agencje zarządzające systemem nauki;
jednostki naukowe;
dokonania w dziedzinie badań naukowych i technologicznych kraju na tle świata;
dyscypliny naukowe oraz technologie.
Proces ewaluacji powinien być zintegrowany z planowaniem strategicznym,
programowaniem i wdrażaniem polityki zgodnie z następującymi kryteriami ewaluacji
polityki naukowej104
:
trafność (ang. relevance) – określa zasadność i prawidłowość planowanych celów i metod
wdrażania interwencji polityki naukowej w stosunku do problemów i wyzwań społeczno-
gospodarczych;
skuteczność (ang. effectiveness) – określa stopień realizacji zakładanych celów, skuteczność
zastosowanych narzędzi;
efektywność (ang. efficiency) – koncentruje analizę na relacjach między nakładami a efektami;
użyteczność (ang. utility) – określa rzeczywiste, osiągnięte efekty i ich adekwatność, analiza
użyteczności jest prowadzona po zamknięciu interwencji lub w jej końcowej fazie wdrażania;
trwałość (ang. sustainability) – obejmuje zapewnienie ciągłości efektów w perspektywie
średnio- i długookresowej.
Po ich spełnieniu ewaluacja przyjmie funkcję formatywną i prowadzić będzie do lepszego
planowania lub wdrażania działań w zakresie polityki naukowej.
101
M. Miedziński, dz. cyt., s. 488; B. Smólski, I. Kasprzyk-Młynarczyk, Benchmarking w zastosowaniu
do działalności naukowej, [w:] Benchmarking w systemie szkolnictwa wyższego, J. Woźnicki (red.), Fundacja
Rektorów Polskich, Warszawa 2008, s. 42-43. 102
M. Miedziński, dz. cyt., s. 487-488. 103
J. Kozłowski, Ewaluacja instytucji naukowych w Polsce…, s. 30-31. 104
K. Olejniczak, dz. cyt., s. 23.
31
Rysunek 1.5. Elementy polityki naukowej
Źródło: opracowanie własne na podstawie J.E. Rubio, N. Tshipamba, Elements of the public policy of science,
technology and innovation, “Canadian Social Sciences” 2010, t. 6, nr 6, s. 76.
Zagadnienia kreowania polityki naukowej w literaturze uwzględniają także inne
aspekty. Istotną problematykę stanowi podejście instytucjonalne i rola różnych organów
w procesie kształtowania i oddziaływania polityki naukowej oraz znaczenie udziału różnych
środowisk w procesie decyzyjnym polityki naukowej. Syntetyzując rozważania, można
wyróżnić pięć głównych elementów zainteresowania polityki naukowej zaprezentowanych
na rysunku 1.5. Każdy z nich stanowi szeroki zakres problemowy w obszarze
organizacyjnym, prawnym, finansowym, zarządzania kapitałem intelektualnym
oraz ewaluacji i oceny.
1.3. Ewaluacja instytucjonalna badań naukowych
Ewaluacja działalności naukowej jest ważnym instrumentem zarządzania organizacją
i finansowaniem badań naukowych. Stanowi istotny element realizacji polityki naukowej
i ukierunkowywania działalności jednostek sektora naukowego105
. Ewaluacja pozwala,
w sposób możliwie systematyczny i obiektywny, na ocenę wartości interwencji publicznej
w odniesieniu do pewnych ustalonych wcześniej kryteriów106
.
Najszerzej ujmując, ewaluacja to systematyczne badanie społeczno-ekonomiczne
gromadzące dowody, oceniające i informujące o jakości i wartości badanych obiektów.
105
A. Guena, B.R. Martin, University research evaluation and funding: an international comparison, Kluwer
2007; J. Brennan, T. Shah, Quality assessment and institutional change: experience from 14 countries, ”Higher
Education” 2000, t. 40, nr 3, s. 331-349. 106
K. Olejniczak, M. Ferry, Ewaluacja w praktyce sektora publicznego, [w:] Ewaluacja jako standard
zarządzania w sektorze publicznym, B. Pietras-Goc (red.), Wyższa Szkoła Europejska im. ks. Józefa Tischnera,
Kraków 2008, s. 10.
Polityka
naukowa
Agencje
polityki
naukowej
Instytucje
naukowe
Regulacje
prawne
Inwestycje
w badania
i rozwój
Zasoby
ludzkie
System
ewaluacji
i oceny
32
Zorientowane jest na krytyczną refleksję nad wartością i jakością interwencji publicznych
– zarówno procesów ich wdrażania, jak i ich efektów107
. Ewaluacja bywa niekiedy
definiowana jako wzorzec postępowania badawczego, charakteryzujący się stosowaniem
określonych kryteriów ewaluacyjnych108
. Bezpośrednim zadaniem ewaluacji jest poprawa
jakości i wartości interwencji publicznej.
Cechą charakterystyczną ewaluacji jest połączenie badań empirycznych
i diagnostycznych z wartościowaniem. W odróżnieniu od form pokrewnych – audytu czy
kontroli – w zamiarze ewaluacji nie ma negatywnych konsekwencji. Ewaluację cechuje
utylitaryzm – jest podstawą do formułowania rekomendacji109
.
Zasadnicze cele ewaluacji ukazują jej charakter poznawczy i instrumentalny.
Ewaluacja jest procesem uczenia się, powinna generować wiedzę diagnostyczną, wyjaśniającą
i pokazującą szerszy kontekst, oraz preskryptywną, oceniającą, ukazującą rozwiązania
i wskazującą konieczne działania. W zakresie diagnozy powinna pokazywać stan, wyjaśniać
zależności, pokazywać wzorce, a w preskryptywnej pokazać jak poprawić, udoskonalić,
wskazać działania naprawcze. Ewaluacja instytucjonalna ma zatem zdiagnozować bądź
dokonać oceny sytuacji, a następnie wspierać poszczególne instytucje w rozwiązywaniu
kwestii problemowych110
.
W literaturze przedmiotu wymienia się cztery zasadnicze cechy ewaluacji111
:
analityczny i usystematyzowany charakter, co oznacza konieczność stosowania podejścia
naukowego;
zróżnicowanie metodologiczne, polega na łączeniu różnych narzędzi i źródeł, w celu
zapewnienia obiektywizmu i wiarygodności;
systemowość, ma przejawiać się w podejściu całościowym i cyklicznym;
wartościowanie, jest prowadzone w odniesieniu do konkretnych kryteriów i standardów,
w zakresie jakości i wartości.
Ewaluacja instytucjonalna badań naukowych to jeden z typów ewaluacji nauki
i polityki naukowej. Oznacza proces oceny jednostek naukowych pod względem realizacji ich
misji, poziomu produktywności, skuteczności oraz oddziaływania112
. Pozwala gromadzić
wiedzę i dostarcza informacji na temat efektów oraz szerszego oddziaływania polityki
107
K. Olejniczak, Wprowadzenie do zagadnień ewaluacji, [w:] Teoria i praktyka ewaluacji interwencji
publicznych, K. Olejniczak, M. Kozak, B. Ledzion (red.), Wydawnictwa Akademickie i Profesjonalne,
Warszawa 2008, s. 19. 108
Ewaluacja w służbach społecznych, B. Szatur-Jaworska (red.), Mazowieckie Centrum Polityki Społecznej,
Warszawa 2010, s. 45. 109
K. Olejniczak, dz. cyt., s. 22. 110
Tamże. 111
K. Olejniczak, M. Ferry, dz. cyt., s. 9-10. 112
J. Kozłowski, Ewaluacja instytucji naukowych…, s. 28.
33
naukowej. Jej zadaniem jest wzmacnianie odpowiedzialności za wykorzystanie środków
publicznych, wyjaśnianie mechanizmów działania programów oraz upowszechnianie wiedzy na
temat poziomu ich skuteczności i efektywności. Ewaluacja instytucjonalna jest narzędziem
polityki naukowej do sterowania, zarządzania i poprawy działania jednostek naukowych
oraz powiązania decyzji z zakresie alokacji środków finansowych pomiędzy jednostki naukowe.
Główne przesłanki prowadzenia ewaluacji instytucjonalnej dotyczą pomocy
w planowaniu i bieżącym zarządzaniu jednostkami naukowymi. Związane jest to z podnoszeniem
jakości badań i realizacją priorytetów rządowych. Założenia ewaluacji instytucjonalnej mogą
dotyczyć alokacji zasobów, określenia przyszłości jednostek naukowych, ustalenia struktury,
kontroli, oceny strategii, instrumentów i stylu zarządzania jednostkami naukowymi,
wprowadzenia zmian do polityki naukowej.
Ewaluacja instytucjonalna związana jest często ze sposobem publicznego
finansowania jednostek naukowych opartego na dokonaniach (ang. performance-based
funding)113
. Przyjmuje wówczas formę krajowego systemu ewaluacji jednostek naukowych.
Finansowanie sektora badawczego w coraz większym stopniu opiera się na realizacji
uzgodnionych celów i przyjmuje charakter budżetowania zadaniowego114
. Celem tego
mechanizmu jest finansowanie instytucjonalne badań naukowych na podstawie ewaluacji
ex post produktów i efektów działalności naukowo-badawczej jednostek naukowych.
Wprowadzenie takiego modelu do praktyki wielu państw europejskich uzasadnione było
potrzebą koncentracji zasobów, podniesienia jakości badań oraz ich umiędzynarodowienia.
Najsilniejszy i najbardziej bezpośredni związek pomiędzy oceną a skalą finansowania
rozwinięto w Wielkiej Brytanii i Polsce115
.
Według typologii ewaluacji, ewaluacja instytucjonalna badań naukowych
ma charakter ewaluacji podmiotowej, ex post, zewnętrznej, opiera się na ocenie produktów,
procesów i wpływu oraz tworzy ogólnokrajowy system. Jako ewaluacja podmiotowa służy
analizie funkcjonowania jednostek naukowych i stymulowania kierunków ich rozwoju.
Ewaluacja ex post dostarcza empirycznych dowodów o efektach i użyteczności polityki
naukowej, sile i relacji implikacji przyjętego modelu finansowania, dokonuje podsumowania
i rozliczenia, a następnie rekomendacji. W ten sposób przyczynia się do rozpoznania słabych
stron finansowania budżetowego. Ewaluacja zewnętrzna oznacza, że proces jest inicjowany
poza jednostkami naukowymi. Niekiedy podejmowana jest także wewnętrznie
113
D. Hicks, Performance-based university research funding systems, “Research Policy” 2012, t. 41, s. 252. 114
M. Postuła, Rola ewaluacji w budżetowaniu zadaniowym, [w:] Ewaluacja wobec wyzwań stojących
przed sektorem finansów publicznych, A. Haber, M. Szałaj (red.), Polska Agencja Rozwoju Przedsiębiorczości,
Warszawa 2009, s. 41-42. 115
J. Kozłowski, Ewaluacja instytucji naukowych…, s. 55.
34
przez poszczególnie jednostki naukowe (przykładowo w Irlandii), bądź stosowany jest układ
mieszany (przykładowo w Holandii)116
.
Na podstawie zestawienia różnych podejść w literaturze można wyróżnić funkcje
ewaluacji instytucjonalnej w zakresie badań naukowych przedstawione w tabeli 1.2.
Tabela 1.2. Funkcje ewaluacji instytucjonalnej w zakresie badań naukowych
Funkcja Wyjaśnienie
Formatywna związana z kształtowaniem polityki publicznej lub poszczególnych programów
Zarządcza związana ze sterowaniem i koordynacją jednostek naukowych, dająca podstawę
do planowania racjonalnie uzasadnionej interwencji polityki naukowej
Oceniająca służąca określeniu i kontroli jakości i wartości prowadzonej działalności naukowej
Rozliczeniowa w kierunku wzmacniania społecznej odpowiedzialności zarówno ze strony
jednostek naukowych, jak i polityki naukowej
Poznawcza umożliwiająca rozumienie obszaru ewaluacji i przewidywanie trendów
Konkluzywna związana z selekcją, certyfikacją i rozliczaniem wyników jednostek naukowych
Wspomagająca dla procesu decyzyjnego
Stymulująca związana ze wzbudzaniem motywacji do działania i nadawaniem pożądanych
kierunków rozwoju
Edukacyjna wspierająca proces uczenia się, służąca usprawnianiu, doskonaleniu, poprawie
wdrażania celów i bieżącej jakości
Społeczna źródło prestiżu i reputacji jednostek naukowych
Źródło: opracowanie własne na podstawie: Ewaluacja w służbach społecznych, B. Szatur-Jaworska (red.),
Mazowieckie Centrum Polityki Społecznej, Warszawa 2010, s. 31; K. Olejniczak, Wprowadzenie do zagadnień
ewaluacji, [w:] Teoria i praktyka ewaluacji interwencji publicznych, K. Olejniczak, M. Kozak, B. Ledzion (red.),
Wydawnictwa Akademickie i Profesjonalne, Warszawa 2008, s. 28; J. Kozłowski, Ewaluacja instytucji
naukowych w Polsce w świetle porównań międzynarodowych i konsultacji, Departament Strategii Ministerstwa
Nauki i Szkolnictwa Wyższego, Warszawa 2010, s. 33-34.
W praktyce ewaluacji instytucjonalnej wyróżnia się dwa podejścia: model ekspercki
i model metryczny117
. Model ekspercki jest stosowany między innymi w Wielkiej Brytanii,
Australii i Nowej Zelandii. Obejmuje on ocenę dorobku naukowego, wizytacje jednostek
naukowych oraz wywiady z pracownikami. Dąży się do nadania jednostkom naukowym rang,
będących podstawą do finansowania w przyjętym okresie. Podejście eksperckie uwzględnia
również szersze oddziaływanie badań, które opiera się na analizach studiów przypadków
badań o potencjalnie największym znaczeniu dla otoczenia, a także samoocenę badaczy
lub jednostek naukowych.
Model metryczny jest oparty na ilościowej analizie dorobku naukowego.
Zastosowanie mają tu modele i mierniki naukometryczne. Podejście metryczne w różnych
odmianach stosowane jest w Norwegii, Belgii, Danii, Finlandii oraz Polsce.
Proces ewaluacji instytucjonalnej działalności naukowej zorganizowany jest
w czterech etapach: projektowania, wdrażania, stosowania i ewaluacji (tabela 1.3).
116
J. Kozłowski, Ewaluacja instytucji naukowych…, s. 79. 117
A. Gryzik, A. Płoszaj, Ewaluacja w sektorze badań i rozwoju oraz w szkolnictwie wyższym,
[w:] Jak ewaluować i monitorować efekty projektów sektora B+R i szkolnictwa wyższego?, P. Kościelecki,
B. Warzybok (red.), Ośrodek Przetwarzania Informacji – Instytut Badawczy, Warszawa 2011, s. 50.
35
Najważniejsze kwestie związane z organizacją procesu metodycznego ewaluacji dotyczą
ustalenia ogólnych wymiarów oceny, określenia parametrów w poszczególnych kategoriach,
nadanie wag wybranym cechom, ustalenie stopnia i formy różnicowania dyscyplin
naukowych oraz uzgodnienie skali ocen końcowych118
.
Pierwszy etap ma charakter przygotowawczy. Projektowanie ewaluacji
instytucjonalnej rozpoczyna się od określenia założeń, zdefiniowania celów i sprecyzowania
funkcji ewaluacji. Ma to odniesienie do założeń polityki naukowej, cyklu polityki naukowej
i powiązań z innymi instrumentami polityki naukowej. W kontekście tych działań następuje
rozpoznanie zasobów informacyjnych pod kątem potrzeb ewaluacji oraz ustalenie roli grup
interesariuszy na różnych etapach ewaluacji. Sprecyzowanie zasad systemu ewaluacji
obejmuje ustalenie ram czasowych i metodologicznych ewaluacji. Następnie dokonuje się
zdefiniowania i wyboru kluczowych parametrów ewaluacji w zakresie przedmiotowym
i podmiotowym. Ostatnie działanie na tym etapie obejmuje konceptualizację systemu
ewaluacji, planowanie organizacji całego procesu, ustalenie norm prawnych, opracowanie
kodeksu zasad i dobrych praktyk oraz techniczne przygotowanie.
Tabela 1.3. Fazy ewaluacji instytucjonalnej
Faza ewaluacji Działania
Projektowanie
określenie założeń
zdefiniowanie celu ewaluacji
zdefiniowanie szczegółowych funkcji ewaluacji instytucjonalnej
rozpoznanie zasobów informacyjnych
ustalenie roli interesariuszy ewaluacji
sprecyzowanie zasad systemu ewaluacji
zdefiniowanie kluczowych parametrów
operacjonalizacja
Wdrażanie realizacja harmonogramu ewaluacji
monitoring procesu ewaluacji
Stosowanie
administrowanie systemu
gromadzenie danych
analiza danych
podejmowanie decyzji opartych na ewaluacji
realizacja funkcji ewaluacji
ocena
monitoring systemu ewaluacji
ocena systemu ewaluacji
doskonalenie systemu ewaluacji
Źródło: opracowanie własne na podstawie: J. Kozłowski, Ewaluacja instytucji naukowych w Polsce w świetle
porównań międzynarodowych i konsultacji, Departament Strategii Ministerstwa Nauki i Szkolnictwa Wyższego,
Warszawa 2010, s. 48-53.
118
J. Kozłowski, Ewaluacja instytucji naukowych…, s. 43.
36
Kolejne kroki zależne są od etapu projektowania. Faza wdrażania systemu ewaluacji
dotyczy realizacji założeń z fazy projektowania. Następuje aktywacja procesu ewaluacji
jednostek naukowych zgodnie z harmonogramem i bieżący monitoring procesu ewaluacji. Faza
stosowania obejmuje weryfikację przyjętego modelu ewaluacji i realizację wymienionych
wcześniej funkcji ewaluacji. Faza ewaluacji dotyczy oceny i doskonalenia systemu ewaluacji
w następnych cyklach (tak zwana ewaluacja ewaluacji)119
.
Ewaluacja instytucjonalna w zakresie działalności naukowej jest złożona, z uwagi
na różnorodność obszarów naukowych, form prowadzenia prac naukowych oraz rezultatów.
Często są one trudne zarówno do pomiaru ilościowego, jak i oceny jakościowej.
Dotychczasowe próby ewaluacji obejmują jedynie wybrane aspekty i niekiedy brak jest
powiązań przyczynowo-skutkowych. Przykładowo, wskaźniki dotyczące wyników badań
nie wynikają wprost ze wskaźników nakładów, a wskaźniki dotyczące publikacji
nie uwzględniają innych form rezultatów naukowych120
.
Ewaluacja instytucjonalna przeprowadzana jest z zastosowaniem kryteriów z trzech grup:
wewnętrznych, zewnętrznych i środowiskowych. Kryteria wewnętrzne są skupione na kwestiach
dojrzałości badawczej jednostki naukowej, skali i wartości prowadzonej działalności naukowej.
Kryteria zewnętrzne dotyczą oceny użyteczności prowadzonych badań naukowych w znaczeniu
gospodarczym, społecznym i naukowym. Związane jest to z szeroko pojętą komercjalizacją
wyników działalności naukowej, ich wpływie na rozwój społeczny oraz wkładem w rozwój
dyscyplin naukowych. Kryteria środowiskowe mają, w odróżnieniu od pozostałych, charakter
prospektywny i dotyczą oceny potencjału i możliwości jednostek naukowych121
.
Działalność jednostek naukowych można przedstawić jako system organizacyjny
(rysunek 1.6). Jednostki naukowe można scharakteryzować przez jej zasoby wejściowe
(nakłady – wejścia systemu) i efekty (wyjścia systemu). Zdolność jednostek do przekształcenia
nakładów w efekty zależy od struktur i procesów w organizacji, ale cały proces
transformacyjny zależy również od uwarunkowań krajowych.
Rysunek 1.6. Jednostka naukowa jako system organizacyjny
Źródło: E. Arnold, K. Guy, Technology diffusion programmes and the challenge for evaluation, [w:] Policy
Evaluation in Innovation and Technology: Towards Best Practices, OECD, Paris 1997, s. 74,
http://www.oecd.org/dataoecd/34/40/1907926.pdf [08.04.2013].
119
J. Kozłowski, Ewaluacja instytucji naukowych…, s. 48-53. 120
A. Gryzik, A. Płoszaj, dz. cyt., s. 48. 121
J. Kozłowski, Ewaluacja instytucji naukowych…, s. 37-38.
zasoby struktura,
procesy efekty
37
Model ten ilustruje parametry opisujące jednostki naukowe. Zasoby jednostek
naukowych są określone przez wskaźniki finansowe, kapitału ludzkiego i infrastruktury.
Struktura stanowi źródło zmiennych charakteryzujących system. Procesy pomagają określić
zmienne opisujące, w jaki sposób system działa i funkcjonuje. Efekty określają zakres
rezultatów działalności naukowej, czyli wskaźniki produktów i rezultatów pracy naukowo-
badawczej i wskaźniki oddziaływania badań prowadzonych przez pracowników danej
jednostki. Ewaluacja instytucjonalna oznacza pomiar systemu w kwestiach zasadności celów,
efektywności gospodarowania zasobami, produktywności jednostek naukowych,
racjonalności i skuteczności procesów, doskonalenia procesów, sprawności systemu, jakości
rezultatów, bądź oddziaływania rezultatów.
Obecnie badania naukowe są ściśle związane z kontekstem społecznym. W związku
z tym pojawiła się potrzeba analizy racjonalności wydatków publicznych na badania
naukowe. Ewaluacja instytucjonalna dąży do rozstrzygnięcia w sprawach122
:
ustalenia kryteriów i miar wyznaczania optymalnego poziomu finansowania;
określenia miar do oceny zasadności programów badawczych w świetle rosnących
wymagań w zakresie odpowiedzialności i pomiaru działalności;
ustalenia, jakie kryteria i procedury powinny być stosowane do realokacji środków pomiędzy
różne dziedziny nauki, a nawet do wzajemnej oceny propozycji w każdej dziedzinie;
ustalenia kryteriów oceny podmiotów badawczych o zróżnicowanym zakresie działalności;
ustalenia kryteriów prowadzących do lepszych osiągnięć przyznawania środków
na badania przełomowe i interdyscyplinarne;
określania kryteriów oceny wartości naukowej, interdyscyplinarnych projektów
badawczych i publikacji naukowych.
Zagadnienia te stanowią koncepcyjnie połączony zestaw decyzji i oceny całej nauki
i cyklu polityki naukowej, od strategicznego planowania do pomiaru wyników. Obejmują
potrzebę projekcji względem stopy zwrotu dla długoterminowych inicjatyw naukowych;
założeniu, że granice badań naukowych coraz częściej leżą na styku różnych dyscyplin;
oceny, że rola i relacje sektorów tradycyjnego generowania wiedzy i sektorów
wykorzystujących wiedzę w ramach krajowych systemów innowacji ewoluują, i pojawia się
potrzeba do podjęcia krytycznego przemyślenia istniejącego mechanizmu ustalania
priorytetów naukowych i wybierając spośród propozycji konkurujących w ramach,
ale szczególnie wśród dziedzin badań naukowych123
. System oceny i ewaluacji powinien
być podstawowym komponentem motywacyjnego systemu finansowania instytucji B+R124
.
122
I. Feller, dz. cyt., s. 101-102. 123
Tamże, s. 102. 124
A. Gryzik, A. Płoszaj, dz. cyt., s. 61-62.
38
ROZDZIAŁ 2.
PRODUKTYWNOŚĆ NAUKI
1.1. Paradygmat produktywności
W teorii zarządzania przypisuje się duże znaczenie produktywności
(ang. productivity), zarówno w skali makro, jak i mikro. Produktywność jest uznawana
za podstawowy czynnik wzrostu gospodarczego, postępu społecznego i poprawy poziomu
życia1. Zauważa się, że rozwój produktywności gospodarki podnosi jej konkurencyjność,
daje wkład do dochodu narodowego, sprzyja ograniczaniu inflacji oraz likwidacji bezrobocia.
Niedostateczne tempo wzrostu produktywności prowadzi do stagnacji gospodarczej lub nawet
zapaści cywilizacyjnej2. Na poziomie organizacji, produktywność stanowi podstawę
budowania przewagi konkurencyjnej3 i przesądza o zdolności do działania i rozwoju
4.
Chociaż produktywność należy do podstawowych kategorii elementarnych w naukach
ekonomicznych, jest pojęciem marginalizowanym. Zdaniem wielu badaczy, główną przyczyną
takiego stanu jest między innymi niedostateczne rozpoznanie istoty produktywności oraz duża
rozbieżność w stosowanej terminologii dotyczącej produktywności5.
Analizując literaturę przedmiotu autorka pracy wyróżniła trzy podejścia
do pojmowania produktywności:
podejście techniczne;
podejście społeczno-ekonomiczne;
podejście traktujące produktywność jako syntezę efektywności (ang. efficiency)
i racjonalności (ang. effectiveness).
1 A. Sharpe, Productivity concept, trends and prospects: an overview, “The Review of Economic Performance
and Social Progress” 2002, t. 2, s. 31-56; C. Kao, L. Chen, T. Wang, S. Kuo, S. Horng, Productivity
improvement: efficiency approach vs effectiveness approach, “Omega International Journal of Management
Science” 1995, t. 23, nr 2, s. 197-204; Centre for the Study of Living Standards, Productivity: key to economic
success, Report, The Atlantic Canada Opportunities Agency, Ottawa, Ontario1998, s. 1-45; OECD Manual,
Measuring productivity. Measurement of aggregate and industry-level productivity growth, OECD Publishing,
France 2001, s. 12; S. Krugman, The age of diminished expectations [za:] D. Camus, The ONS productivity
handbook. A statistical overview and guide, Office for National Statistics, Pelgrave Macmillan, New York
2007, s. 2; A.H. Munnell, Why has productivity growth declines? Productivity and public investment, “New
England Economic Review”1990, January/February, s. 1-22. 2 S. Rao, J. Tang, W. Wang, The importance skills for innovation and productivity, “International Productivity
Monitor” 2002, nr 4, s. 15-23; Vademecum produktywności, S. Lis (red.), Agencja Wydawnicza Placet,
Warszawa 1999, s. 11. 3 H. Singh, J. Motwani, A. Kulmar, A review and analysis of the state-of-the-art research on productivity
measurement, “Industrial Management & Data Systems” 2000, t. 100, nr 5, s. 234. 4 S. Tangen, Demystifying productivity and performance, “International Journal of Productivity and Performance
Management” 2005, t. 54, nr 1, s. 35; J. Prokopenko, Productivity management. A practical handbook,
International Labour Office, Geneva 1987, s. v. 5 I. Bernolak, Effective measurement and successful elements of company productivity: The basis of competitiveness
and world prosperity, “International Journal of Production Economics” 1998, t. 52, s. 203; S. Tangen, dz. cyt.,
s. 35; H. Singh, J. Motwani, A. Kulmar, dz. cyt., s. 234; B. Chew, No-nonsense guide to measuring
productivity, “Harvard Business Review” 1988, January-February, s. 3-9.
39
Podstawowy nurt badań nad produktywnością rozwijał podejście techniczne,
traktujące produktywność jako relację efektów do nakładów przeznaczonych na ich uzyskanie
w określonym czasie6. Pierwsze wzmianki na temat produktywności przypisywane są
F. Quesnayowi (1766) i były odnoszone były do rolnictwa7. Quesney twierdził, że tylko
ziemia i rolnictwo pozwalają uzyskać znacznie większą wartość w stosunku do poniesionych
nakładów. Pracę w rolnictwie uznawał za unikalne źródło bogactwa, a rolników określał
mianem produktywnej klasy społecznej. Inny typ działalności uznawał za jałowy,
nieprzynoszący dodatkowych korzyści ponad te wypływające z poniesionych nakładów
(uzyskiwane efekty zrównywał z ponoszonymi nakładami)8.
Wraz z rozwojem przemysłu i kształtowaniem się nurtu klasycznego teorii organizacji
i zarządzania, w którym kluczowym aspektem było poszukiwanie sposobów
efektywniejszego wykorzystania siły roboczej9, produktywność zaczęto odnosić
do działalności produkcyjnej. W tym kontekście badacze przytaczają wiele definicji
produktywności. Ich różnorodność zależna jest od kontekstu stosowania i wynika ze sposobu
definiowania nakładów i efektów.
Początkowo produktywność utożsamiana była ze zdolnością wytwórczą10
. P. Drucker
produktywność wyjaśnia jako równowagę między wszystkimi czynnikami produkcji, która
da najlepszy wynik przy możliwie najmniejszym wysiłku11
. A. Sharpe uznaje, iż jest
to relacja, wyrażona wskaźnikiem, pomiędzy efektami w postaci dóbr i usług oraz nakładami
zasobów ludzkich i rzeczowych wykorzystanych w procesie produkcji12
. G.A. Oyeranti
odwołuje się do definicji produktywności jako wskaźnika pomiaru efektów do wskaźnika
zużycia zasobów, podawanej przez J.M. Eatwella i P. Newmana13
. R. Kaplan i R. Cooper
konceptualizują produktywność jako relację faktycznych nakładów organizacji do faktycznie
zużytych zasobów14
. D.S. Sink i T.C. Tuttle wyrażali pogląd, że produktywność to relacja
6 A. Kosieradzka, Zarządzanie produktywnością w przedsiębiorstwie, Wydawnictwo C.H. Beck, Warszawa
2012, s. 20; J. Prokopenko, Productivity management. A practical handbook, dz. cyt., s. 3; T. Coelli,
D.S.S. Rao, G.E. Battese, An introduction to efficiency and productivity analysis, Kluwer Academic
Publishers, Boston, Dordrecht, London 2002, s. 2. 7 S. Tangen, dz. cyt., s. 34.
8 R. Bleischwitz, Rethinking productivity: why has productivity focused on labour instead of natural resources,
“Environmental and Resource Economics” 2001, t. 19, s. 25. 9 R.W. Griffin, Podstawy zarządzania organizacjami, Państwowe Wydawnictwo Naukowe, Warszawa 2007, s. 42.
10 S. Tangen, Demystifying productivity and performance, dz. cyt., s. 36.
11 S. Smoleński, Zarządzanie produktywnością w przedsiębiorstwie, Oficyna Wydawnicza Ośrodka Postępu
Organizacji, Bydgoszcz 2000, s. 78. 12
A. Sharpe, dz. cyt., s. 31-56. 13
G.A. Oyeranti, Concept and measuring of productivity, Central Bank of Nigeria, Abuja 2000, s. 3,
http://www.cenbank.org/out/Publications/occasionalpapers/rd/2000/Abe-00-1.PDF [26.07.2011]. 14
S. Tangen, dz. cyt., s. 34.
40
realnie osiągniętych efektów do oczekiwanego zużycia zasobów15
. T. Fisher wprowadził
zależność całkowitego przychodu do kosztów i docelowego zysku16
. Z kolei U. Aspén i in.
wskazywali, że produktywność wpływa na przyrost wartości dóbr w wyniku określonego
procesu produkcji i definiowali produktywność jako relację uzyskanej wartości dodanej
do nakładów czynników wytwórczych17
. A. Ghobadian i T. Husband wyodrębnili trzy
kategorie koncepcji produktywności: technologiczną (relacja wejść i wyjść użytych
w produkcji), inżynieryjną (relacja między faktycznym a potencjalnym efektem procesu
produkcji) i ekonomiczną (efektywność zużytych zasobów)18
. T. Prokopenko podkreśla
znaczenie jakości w procesie wytwarzania dóbr i usług, relacja między wielkością i jakością
wytwarzanych dóbr i usług do ilości zużytych zasobów19
. B. Moseng i A. Rolstadås
podkreślają w swojej koncepcji produktywności zdolność do zaspokajania potrzeb rynkowych
przy wykorzystaniu minimalnego poziomu całkowitych nakładów20
jako efektywność
przekształcania nakładów w efekty21
.
W literaturze polskiej E. Hauswald po raz pierwszy zdefiniował produktywność
(produkcyjność, produktywizm) jako ilość wyrobów wytworzonych w danych warunkach
w określonym czasie22
. T. Kotarbiński uznawał produktywność za odwrotność oszczędności.
Wyższa produkcyjność jest osiągana wówczas, gdy osiąga się cenniejszy wytwór przy danym
zużyciu zasobów23
. Według Małej encyklopedii prakseologii i teorii organizacji
produktywność to stosunek wyniku użytecznego do poniesionego wkładu24
. A. Kosieradzka
i S. Lis określają produktywność jako stosunek ilości produkcji wykonanej i sprzedanej
w rozpatrywanym okresie do ilości wykorzystywanych lub zużytych zasobów wejściowych25
.
Kluczowe znaczenie ma określenie „sprzedanej‟, które wskazuje różnicę między wydajnością
a produktywnością. S. Smoleński produktywnością nazywa kombinację produktywności
15
D.S. Sink, T.C. Tuttle, Planning and measurement in your organization of the future, Industrial Engineering
and Management Press, Norcross 1989, s. 180. 16
T. Fisher, Business productivity measurement using standard cost accounting information, “International
Journal of Operations &Production Management” 1990, t. 10, nr 8, s. 61-69 [za:] S. Tangen, Demystifying
productivity and performance, dz. cyt., s. 34. 17
S. Tangen, dz. cyt., s. 34. 18
j.w. 19
G.A. Oyeranti, dz. cyt. s. 3. 20
S. Tangen, dz. cyt., s. 36. 21
C. Grӧnroos, K. Ojsalo, Service productivity. Towards a conceptualization of the transformation of inputs
into economic results in services, “Journal of Business Research” 2004, t. 57, s. 414- 415. 22
A. Kosieradzka, S. Lis, Programowanie poprawy produktywności, Instytut Organizacji i Zarządzania
w Przemyśle „ORGMASZ”, Warszawa 1998, s. 9. 23
T. Kotarbiński, Traktat o dobrej robocie, Zakład Narodowy Imienia Ossolińskich, Wrocław, Warszawa,
Kraków 1969, s. 401. 24
T. Pszczołowski, Mała encyklopedia prakseologii i teorii organizacji, Wydawnictwo Ossolineum, Wrocław,
Warszawa, Kraków, Gdańsk 1978, s. 187. 25
A. Kosieradzka, S. Lis, dz. cyt. s. 9.
41
pracy, produktywności kapitału i jakości26
. Natomiast J. Pawłowski utożsamia produktywność
z techniczną efektywnością produkcji jako funkcji wielkości produkcji i kosztu jednostkowego27
.
Równolegle do indywidualnego podejścia kształtowało się podejście w skali makro.
W literaturze dość wcześnie podkreślano związek produktywności przedsiębiorstw
z produktywnością krajów. A. Smith (1776), któremu przypisuje się wprowadzenie pojęcia
produktywności do literatury ekonomicznej, w książce An inquiry into the nature and caoses
of the wealth of nations przedstawił twierdzenie, że roczny produkt każdego narodu może
wzrosnąć przez zwiększenie liczby produktywnych pracowników lub wzrost ich siły
produkcyjnej (produktywność pracy)28
. Podobnie M. Porter zauważał, że rozwój gospodarki
zależy przede wszystkim od sprawności funkcjonowania przedsiębiorstw – wzrost poziomu
życia uzależniał od zdolności krajowych przedsiębiorstw do osiągania wysokiego poziomu
produktywności i wzrostu ich produktywności w czasie29
. Obecnie, w krajach rozwiniętych,
działalność na rzecz poprawy produktywności prowadzona jest z dużą intensywnością,
wspieraną przez centralne ośrodki zarządzania. Największe efekty w tym zakresie uzyskano
w Japonii, gdzie ruch poprawy produktywności rozwinął się na skalę masową i przyczynił się
do radykalnej transformacji gospodarczej i tym samym stworzenia jednej z czołowych
gospodarek światowych30
.
Wraz z rozwojem metod zarządzania i uwzględniania specyficznych cech
współczesnych gospodarek, zaczęto szerzej rozumieć pojęcie produktywności. Znaczenie
produktywności zaczęto odnosić do działalności gospodarczej, publicznej, administracyjnej
i instytucjonalnej przy uwzględnieniu czynników ludzkich i społecznych31
. Rozpatrywana jest
na poziomie ponadnarodowym, narodowym, krajowym, sektorowym, regionalnym,
branżowym, instytucjonalnym, pojedynczej organizacji, działu, obszaru funkcjonalnego
czy stanowiska pracy, zarówno w aspekcie strategicznym, jak i operacyjnym32
.
26
S. Smoleński, dz. cyt., s. 79. 27
J. Pawłowski, Metodyka oceny efektywności finansowej przedsięwzięć gospodarczych, Wydawnictwo
Uniwersytetu Łódzkiego, Łódź 2004, s. 44. 28
I. Bernolak, dz. cyt., s. 204. 29
Tamże. 30
A. Stainer, Productivity management: the Japanese experience, “Management Decision” 1995, t. 33, nr 8, s. 4-
12; Vademecum produktywności, dz. cyt., s. 11. 31
W.S. Pawlak, Produktywność. Podstawy, Zarządzanie przez jakość, Wydawnictwo Bellona, Warszawa, 1995, s. 2. 32
A. Kosieradzka, S. Lis, dz. cyt., s. 10; M. Kaci, Understanding productivity: a primer, „Canadian Productivity
Review” 2006, catalogue no. 15-206-XIE, nr 002, s. 6-7.
42
Niezależnie jednak od typu działalności, politycznego i ekonomicznego aspektu,
produktywność zawsze oznacza to samo. W podstawowej koncepcji jest rozumiana
jako ilościowa relacja efektów do nakładów przeznaczonych na ich uzyskanie33
, a wzrost
produktywności oznacza, że zachodzi jedna z następujących implikacji34
:
efekty rosną i jednocześnie nakłady maleją;
efekty rosną, przy stałych nakładach;
efekty i nakłady rosną, lecz nakłady rosną proporcjonalnie wolniej niż efekty;
efekty są stałe, lecz nakłady maleją;
efekty maleją, lecz nakłady maleją bardziej niż proporcjonalnie.
Podstawową przesłanką metodologiczną rozważań na temat produktywności
jest związanie jej z określonym obiektem badawczym. Zdaniem autorki, produktywność nie ma
charakteru samodzielnego bytu, lecz powinna być rozpatrywana w konkretnym odniesieniu,
podmiotowym lub przedmiotowym. Można odnieść się do koncepcji organizacji jako systemu35
(rysunek 2.1), aby zachować uniwersalność pojęcia. Wejścia systemu (nakłady) wykorzystywane
są do wytwarzania wyniku wyjściowego (efektów). Pod pojęciem nakładów rozumie się zasoby
ludzkie, finansowe, rzeczowe i informacyjne. Procesy transformacji to ogół działań, mających
na celu przetworzenie wejść systemu w wyjścia (produkty lub usługi). Z punktu widzenia
pomiaru produktywności istotne jest, czy daną jednostkę można scharakteryzować przez jej
zasoby wejściowe (nakłady – wejścia systemu), efekty (wyjścia systemu) oraz procesy
transformacji przekształcające zasoby w efekty. W ujęciu technicznym produktywność stanowi
miarę działania takiego systemu o szeroko rozumianych zasobach i efektach.
Każdy system wykorzystuje różne rodzaje zasobów ix w pewnych ilościach i dostarcza
do otoczenia określony wolumen wytworzonych przez siebie produktów iy . Wielość nakładów
i ich kombinacji, a także wielość możliwych ujęć efektów związanych z tymi nakładami
powoduje, iż istnieje wiele sposobów odzwierciedlania i interpretowania produktywności
oraz jej implementacji. T. Coelli, D. Rao i G. Battese wyróżniają trzy podstawowe wymiary:
stosunek pojedynczego efektu do pojedynczego nakładu, całkowitych efektów do nakładów
używanych w procesie produkcji (ang. Total Factor Productivity, TFP) lub wybranych
efektów do wybranych nakładów (ang. partial indexes)36
.
33
J. Prokopenko, dz. cyt., s. 3; T. Coelli, D.S.S. Rao, G.E. Battese, dz. cyt., s. 2. 34
I. Alsyouf, The role of maintenance in improving companies’ productivity and profitability, “International
Journal of Production Economics” 2007, t. 105, s. 74. 35
J. Penc, Sztuka skutecznego zarządzania, Oficyna Ekonomiczna, Kraków 2006, s. 19-22. 36
T. Coelli, D.S.S. Rao, G.E. Battese, dz. cyt. s. 2-3.
43
Rysunek 2.1. Koncepcja techniczna produktywności
Źródło: opracowanie własne na podstawie D.S. Sink, T.C. Tuttle, Planning and measurement in your
organization of the future, Industrial Engineering and Management Press, Norcross 1989, p. 180.
Należy tu wyjaśnić za C.A. Knoxem Lovellem, że produktywność ogólna nie oznacza
ujęcia wszystkich czynników określających nakłady i efekty, lecz adekwatnych do poziomu
wybranego problemu. W przeciwnym wypadku, wielość zmiennych nie będzie różnicować
wskaźników produktywności badanych obiektów37
. Pożądany jest zatem wybór użytecznych,
przydatnych cech i ich ekonomicznie uzasadniona agregacja. W literaturze szeroko stosowane
są mierniki produktywności całkowitej, dlatego produktywność definiowana jest niekiedy
jako relacja zagregowanych wyjść do zagregowanych wejść38
. Syntetyczne podejście prezentuje
I. Alsyouf. Relację produktywności przedstawia jako ilość wytworzonych efektów w określonym
czasie do sumy jednego lub wszystkich czynników wymaganych do produkcji efektów39
.
W ujęciu społeczno-ekonomicznym produktywność pojmuje się zgodnie z definicją
Europejskiej Agencji Produktywności40
. Produktywność formułuje się jako mentalność
postępu, wyrażającą się w organizowaniu i wspieraniu wszelkiego rodzaju przedsięwzięć,
mających na celu ciągłe doskonalenie organizacji, poprawę stanu obecnego oraz zwiększanie
37
Knox Lovell C.A., Production frontiers and productive efficiency, [w:] The measurement of productive
efficiency: techniques and applications, H.O. Fried, S.S. Schmidt, C.A. Knox Lovell (red.), Oxford University
Press, New York 1993, s. 3. 38
C. Kao, L. Chen, T. Wang, S. Kuo, S. Horng, dz. cyt., s. 197. 39
I. Alsyouf, , dz. cyt., s. 74. 40
EPA (European Productivity Agency) była inicjatywą powołaną w 1953 roku w ramach Planu Marshalla
jako półautonomiczna jednostka Organizacji Europejskiej Współpracy Gospodarczej (OEEC). Jej celem było
promowanie produktywności wśród krajów członkowskich. Była kluczowym narzędziem napędzającym
wzrost produktywności w Europie w latach 50. Należy podkreślić, że EPA była przedsięwzięciem bardzo
innowacyjnym w ówczesnym czasie. Została jednak rozwiązana 1961 roku, kiedy OEEC zostało
przekształcone w Organizację Współpracy Gospodarczej i Rozwoju (OECD). B. Boel w książce The European
Productivity Agency and Transatlantic Relations 1953-1961 (Museum Tusculanum Press, Denmark 2003,
249 s.) dowodzi niesłuszności rozwiązania EPA.
gdzie:
xi i-ty nakład
yi j-ty efekt
I liczba nakładów
J liczba efektów
Produktywność
PROCESY
TRANSFORMACJI
NAKŁADY xi
i=1,2,…, I
EFEKTY yj
j=1,2,…, J
i x
I
i 1
j y
J
j 1
44
zadowolenia pracowników z warunków pracy i poziomu życia41
. „Jest to pewność, że to,
co robi się dziś, jest lepsze od tego, co robiło się wczoraj, a gorsze od tego, co będzie się robić
jutro”42
. Traktowana jest jako filozofia unikania marnotrawstwa i szacunku do ludzi43
.
Japończycy, uznając techniczne ujęcie produktywności, za bardziej istotny uważają
aspekt ekonomiczno-społeczny. Japońskie Centrum Produktywności definiuje produktywność
jako rezultat pracy człowieka przy wykorzystaniu materiałów, kapitału i technologii i wyraża
się w postawie ciągłego dążenia do technicznego doskonalenia44
.
Poprawa poziomu produktywności w tym podejściu przejawia się we wdrażaniu takich
koncepcji zarządzania, jak TQM, Kaizen, 5S, Six Sigma, Kanban, Just In Time, Lean
Management i innych45
. Podejście to jest popularyzowane przez instytucje wspierające
tak zwany Ruch Produktywności46
.
Trzecie podejście prezentowane w literaturze dotyczące zagadnienia produktywności
przyjmuje, że produktywność stanowi syntezę dwóch pojęć: efektywności (ang. efficiency)
i racjonalności (ang. effectiveness)47
. Koncepcja rozpowszechniona za D.S. Sinkiem
i T.C. Tuttlem rozpatruje produktywność jako podejmowanie właściwych działań (ang. doing
right things) i realizację ich we właściwy sposób (ang. doing things right)48
(rysunek 2.2).
Innymi słowy produktywność oznacza efektywne i racjonalne użycie zasobów w celu
uzyskania pożądanych rezultatów.
To podejście porządkuje chaos terminologiczny w obszarze zagadnienia
produktywności i wyjaśnia relację zakresową między pojęciami produktywności, efektywności,
skuteczności i racjonalności. Brak spójności w stosowaniu tych pojęć, błędne utożsamianie
pojęć pokrewnych jest zauważalne zarówno w literaturze polskiej i zagranicznej49
.
41
Vademecum produktywności, dz. cyt., s. 35; S. Tangen, dz. cyt., s. 36. 42
S. Smoleński, dz. cyt., s. 79. 43
M.M. Helms, Perspective on quality and productivity for competitive advantage, ”The TQM Magazine” 1996,
t. 8, nr 3, s. 6. 44
S. Tangen, S. Tangen, Demystifying productivity and performance, s. 36. 45
S. Smoleński, dz. cyt., s. 117-244; A. Hamrol, W. Mantura, Zarządzanie jakością: teoria i praktyka, Państwowe
Wydawnictwo Naukowe, Warszawa 2011; L. Pacholski, B. Malinowski, S. Niedźwiedź, Procesowe, strukturalne
i kooperacyjne aspekty innowacyjności organizacyjnej przedsiębiorstw, Wydawnictwo Politechniki Poznańskiej,
Poznań 2011; A. Hamrol, Zarządzanie jakością z przykładami, Państwowe Wydawnictwo Naukowe, Warszawa 2011. 46
Vademecum produktywności, dz. cyt., s. 13-27. 47
H.J. Bernardin, Academic research under siege: toward better operational definitions of scholarship to increase
effectiveness, efficiencies and productivity, “Human Resource Management Review” 1996, t. 6, nr 3, s. 207-229;
T. Coelli, D.S.S. Rao, G.E. Battese, dz. cyt.; C. Kao, L. Chen, T. Wang, S. Kuo, S. Horng, dz. cyt., s. 197-204. 48
S. Tangen, Understanding the concept of productivity, Proceedings of the 7th
Asia Pacific Industrial
Engineering and Management Systems Conference (APIEMS2002), Taipei, s. 3. 49
E. Szymańska, Efektywność przedsiębiorstw – definiowanie i pomiar, „Roczniki Nauk Rolniczych” 2010,
seria G, t. 97, nr 2, s. 154-158; J. Pawłowski, dz. cyt., s. 41, 44; L. Kozioł, Istota i ocena produktywności,
„Zeszyty Naukowe Małopolskiej Wyższej Szkoły Ekonomicznej w Tarnowie. Zarządzanie zasobami
ludzkimi” 2004, nr 5, s. 63-73.
45
Rysunek 2.2. Koncepcja produktywności jako syntezy efektywności i racjonalności
Źródło: opracowanie własne na podstawie S. Tangen, Understanding the concept of productivity, Proceedings of the
7th Asia Pacific Industrial Engineering and Management Systems Conference (APIEMS2002), Taipei 2002, p. 3.
Termin efficiency jest tłumaczony z języka angielskiego jako efektywność, sprawność,
skuteczność, wydajność50
. Efektywność jest pojęciem traktowanym jednak wieloaspektowo.
Podobnie jak produktywność, pojęcie to nie jest jednoznacznie wyjaśniane. Współczesne
definicje zatracają jasną granicę między efektywnością a produktywnością, często wyjaśniane
są w taki sam sposób, bądź ze sobą utożsamiane. J. Juzwiszyn, W. Rybicki, A. Smoluk
w publikacji O definicji efektywności. Rozważania nad celowością w naturze i rozwojem
podejmują wnikliwe rozważania nad istotą efektywności i jej aspektem prakseologicznym,
ekonomicznym i matematycznym51
. W. Rybicki kontynuuje te rozważania w pracy
O wielostronności, relatywizmie i złożoności kategorii efektywności52
.
Przede wszystkim, należy podkreślić, że termin efektywność odnosi się
do gospodarowania nakładami. Sięgając do rozważań J. Zieleniewskiego z 1972 efektywność
rozumiana jest jako „rzeczywisty wpływ wprowadzenia danej ilości, danego rodzaju zasobów
na podstawie określonego produktu danego działania”53
. Efektywność wywodzi się zasady
racjonalnego gospodarowania zasobami i oznacza osiąganie danych wyników przy możliwie
najniższych nakładach (formuła oszczędnościowa) albo uzyskanie jak najlepszego rezultatu
z danej ilości nakładów (formuła wydajnościowa)54
. W. Rybicki interpretuje efektywność jako
poprawność, prawidłowość, kojarzy z oszczędnością, ekonomicznością, gospodarnością
50
Mały słownik techniczny angielsko-polski i polsko-angielski, Wydawnictwa Naukowo-Techniczne, Warszawa
1990, s. 78. 51
J. Juzwiszyn, W. Rybicki, A. Smoluk, O definicji efektywności. Rozważania nad celowością w naturze
i rozwojem, [w:] Efektywność – rozważania nad istotą i pomiarem, T. Dudycz (red.), „Prace Naukowe
Akademii Ekonomicznej we Wrocławiu” 2005, nr 1060, s. 191-203. 52
W. Rybicki, O wielostronności, relatywizmie i złożoności kategorii efektywności, [w:] Efektywność –
rozważania nad istotą i pomiarem, T. Dudycz (red.), „Prace Naukowe Akademii Ekonomicznej
we Wrocławiu” 2005, nr 1060, s. 358-379. 53
J. Zieleniewski, Prakseologiczne problemy wydajności i produktywności pracy, [w:] Dynamika wydajności
pracy w świetle prakseologii, Państwowe Wydawnictwo Naukowe, Warszawa 1972, s. 21, 25, 36. 54
E. Szymańska, dz. cyt., s. 156.
PRODUKTYWNOŚĆ
(ang. productivity)
EFEKTYWNOŚĆ
(ang. efficiency)
realizacja działań we właściwy sposób
(ang. doing things right)
RACJONALNOŚĆ
(ang. effectiveness)
podejmowanie właściwych działań
(ang. doing right things)
46
i racjonalnością sposobu i stopnia pożytkowania zasobów55
. W tym znaczeniu efektywność
oznacza relację minimalnego możliwego poziomu nakładów niezbędnych na realizację procesów
w stosunku do faktycznie zużytych nakładów na ten cel56
. Minimalny – idealny – poziom może
być wyznaczany przez odniesienia w czasie lub do innych jednostek. Natomiast wykorzystywanie
zasobów mądrze, bez zbędnego marnotrawstwa określa się mianem sprawności57
.
Zdaniem J. Pawłowskiego, efektywność wskazuje na ekonomiczność zużycia
zasobów58
. Miarą ekonomiczności jest stosunek wyniku użytecznego do kosztów działania.
Wynik użyteczny oznacza wszystkie zamierzone i niezamierzone pozytywne skutki
działania59
. Organizacja jest efektywna, gdy realizuje swoje cele, przy optymalnym poziomie
nakładów na działania zmierzające do realizacji celów60
. Stąd często w literaturze przytaczana
jest definicja efektywności jako cechy działań, dających pozytywnie oceniany wynik
bez względu na to, czy był on zamierzony, czy też niezamierzony61
. T. Kotarbiński jednak
za skuteczne uważa tylko działanie prowadzące do skutku zamierzonego jako cel. Zatem
wynik pozytywny niezamierzony jest skutkiem działań efektywnych, lecz nieskutecznych62
.
Efektywność przejawia się zatem w usprawnieniu technologii, wzrostu wielkości
organizacji, która pozwala na redukcję kosztów wynikających z korzyści skali i innych
organizacyjnych zmian63
. Obejmuje działania skupiające się na rzetelnej realizacji, unikaniu
błędów, analizy wykorzystanych nakładów, nastawienie na ekonomiczność zużycia zasobów
przy zachowaniu poziomu satysfakcji klienta oraz doskonalenie techniki realizacji tych
działań. Produktywność mierzy efektywność przekształcania nakładów w efekty64
.
Termin effectiveness tłumaczony jest z języka angielskiego jako „skuteczność‟65
.
W koncepcji produktywności skuteczność rozumiana jest tak, jak definiuje ją R.W. Griffin,
jako podejmowanie właściwych decyzji i realizowanie ich z powodzeniem66
. W polskiej
literaturze skuteczność definiowana jest raczej jako zgodność rezultatu z zamierzonym
celem67
. Autorka niniejszej rozprawy skłania się do tłumaczenia terminu effectiveness
jako racjonalności. Oznacza to bowiem celowość podejmowanych działań oraz ich skuteczność.
55
W. Rybicki, dz. cyt., s. 359. 56
S. Tangen, Understanding…; I. Alsyouf, dz. cyt., s. 73. 57
R.W. Griffin, dz. cyt., s. 6. 58
I. Alsyouf, dz. cyt., s. 73. 59
J. Pawłowski, dz. cyt., s. 31. 60
Tamże, s. 33. 61
E. Szymańska, dz. cyt., s. 154; J. Pawłowski, dz. cyt., s. 32-34. 62
T. Kotarbiński, dz. cyt., s. 113-115; T. Pszczołowski, dz. cyt., s. 60. 63
M. Kaci, dz. cyt., s. 5. 64
C. Grӧnroos, K. Ojsalo, dz. cyt., s. 414- 415. 65
Mały słownik techniczny…, s. 75. 66
R.W. Griffin, dz. cyt., s. 6. 67
T. Pszczołowski, dz. cyt., s. 202-203, 34.
47
Jest to podejmowanie działań ugruntowanych poznawczo, opartych na logicznym
rozumowaniu, naukowych metodach, zaplanowanych i dających dobre wyniki68
. Racjonalność
zorientowana jest na efekty w relacji produktywności, skupia się na kreowaniu wartości
dla odbiorcy i wyraża się relacją obecnego stanu do pożądanego.
Wyjaśnienie rozróżnienia wymienionych pojęć przedstawiono na rysunku 2.3.
Rysunek 2.3. Koncepcja produktywności w odniesieniu do pojęć pokrewnych
Źródło: opracowanie własne.
Takie podejście wskazuje, iż działanie racjonalne może być nieefektywne, a działanie
efektywne – nieracjonalne. Teoretycznie nie ma limitu jak efektywna może być organizacja,
lecz wzrost efektywności nie gwarantuje wzrostu produktywności69
.
Rozróżnienie pojęć produktywności i efektywności następuje także w sposobie
prezentowania jednostek wyrażenia i jednostek odniesienia70
(jednostki wyrażenia występują
w liczniku i traktowane są jako zależne, jednostki odniesienia występują w mianowniku
i traktowane są jako niezależne). Zdaniem W.B. Chew produktywność należy wyrażać
w jednostkach fizycznych (naturalnych). Podkreśla, że produktywność powinna pokazywać
rzeczywisty obraz organizacji, tj. optymalny układ nakładów i efektów, w długim okresie71
.
Zatem wychodzi się od funkcji produkcji. Produktywność ma wyjaśniać, jak uzyskać większy
efekt z posiadanych zasobów w stosunku do konkurencji. Wartości wyrażone w jednostkach
finansowych są zależne od zmieniających się cen w czasie72
. M. Kaci wyjaśnia, że w krótkim
okresie, zmiany zachodzące w otoczeniu, szczególnie wahania cen czy trendy sezonowe,
68
Słownik języka polskiego, Państwowe Wydawnictwo Naukowe, http://sjs.pwn.pl/szukaj/racjonalność.html
[18.07.2013]. 69
I. Alsyouf, dz. cyt., s. 73. 70
J. Zieleniewski, dz. cyt., s. 27-28. 71
W.B. Chew, dz. cyt., s. 4. 72
Tamże.
poziom
racjonalności
poziom
efektywności
produktywność sprawność
skuteczność nieracjonalność
niski wysoki
nis
ki
wy
sok
i
48
mogą mieć wpływ na rentowność organizacji. I. Alsyouf uzasadnia, że wskaźniki finansowe
odzwierciedlają bieżącą sytuację, lecz nie powinny stanowić podstawy do oceny sytuacji
długofalowej, ponieważ są zależne od wielu czynników zmiennych w krótkim czasie73
. M. Kaci
nazywa taką sytuację „iluzją monetarną”74
. R.P. Mohanty wyjaśnia, że prawdopodobną jest
sytuacja, gdy w danym czasie zyski organizacji są wysokie, podczas gdy produktywność
spada75
. Podobny pogląd prezentuje A. Shape, którego zdaniem właściwa relacja wejść i wyjść
jest zachowana, gdy jest niezależna od wpływu zmian cen w czasie76
. Istota produktywności
wyraża się w tym, że nie jest poddawana „iluzji monetarnej”. Wzrost produktywności nie
powinien być związany z obniżeniem kosztów, ale może nastąpić przykładowo przez wzrost
efektywności pracowników i lepsze zastosowanie technologii. Produktywność odzwierciedla
nie tylko stopień wykorzystania zasobów, ale również skutki zmian w strukturze zasobów
i poziom jakości procesów.
Poziom cen zasobów ma jednak znaczący wpływ na dobór technologii produkcji.
Nakłady i efekty wyrażone w jednostkach finansowych dotyczą koncepcji efektywności77
.
Efektywność opisuje zdolność organizacji do pokonywania niepewności otoczenia,
kształtowania warunków otoczenia w kierunku sprzyjającym organizacji. Przy założeniu,
że organizacja ma charakter systemu otwartego, występuje duża substytucyjność produktów
i metod ich wytwarzania, zasoby są ograniczone (rzadkie), występuje limitacja
technologiczno-czasowa, a także rozwój sił wytwórczych, następuje konieczność
dokonywania wyborów spośród wielości wariantów rozwiązań technologicznych,
angażujących różne kombinacje zasobów78
. Efektywność wskazuje na optymalną relację
nakładów przy założonych cenach tych nakładów.
Problematyka produktywności ugruntowała się na podłożu działalności
przedsiębiorczej, lecz jej adaptacja nastąpiła w sektorze publicznym. Cele zarządzania
podmiotami sektora publicznego nie różnią się znacząco od zarządzania w sektorze
prywatnym79
. Niemniej jednak złożoność sektora publicznego jest inna. Wynika
to ze specyficznego charakteru sektora publicznego, który nie jest rynkiem konkurencyjnym,
a podmioty nie są nastawione na osiąganie zysku, lecz spełnianie pewnych funkcji
73
I. Alsyouf, dz. cyt., s. 73. 74
M. Kaci, dz. cyt., s.10. 75
R.S. Mohanty, Productivity growth: some imperatives, ”Work Study” 1995, t. 44, nr 1 s. 16-17. 76
A. Sharpe, dz. cyt., s. 31. 77
M. Kaci, dz. cyt., s. 10. 78
W. Rybicki, dz. cyt., s. 367. 79
S.F. Drucker, Zarządzanie w XXI wieku, Wydawnictwo Muza SA, Warszawa 2000, s. 39.
49
publicznych. Charakteryzuje się on złożonością wpływów otoczenia i jego niestabilnością
(częste zmiany polityczne i prawne), wielością i niejednoznacznością celów, mnogością
interesariuszy ze sprzecznymi oczekiwaniami i preferencjami oraz obawą przed
innowacyjnością80
. Innym czynnikiem charakteryzującym sektor publiczny jest
ograniczoność środków finansowych, których zasady wydatkowania podlegają szczegółowym
regulacjom i nadzorowi. Od instytucji publicznych oczekuje się efektywnej alokacji środków
publicznych, dbałości o efektywność realizowanych procesów, podnoszenia jakości
świadczonych usług oraz doskonalenia zarządzania instytucjami publicznymi. Duże
organizacje publiczne złożone z wielu jednostek organizacyjnych (działają na wielu
płaszczyznach) cechuje mnogość świadczonych usług i celów. Trudno też określić (ustalić)
ceny usług świadczonych przez organizacje publiczne81
.
W literaturze podkreśla się, że pomiar produktywności instytucji publicznych kreuje
substytut konkurencyjności i wspiera ewaluację i monitorowanie, dzięki czemu wymusza
dbałość o efektywność realizowanych procesów, podnoszenia jakości świadczonych usług,
doskonalenia zarządzania instytucjami publicznymi i racjonalne wydatkowanie środków
publicznych.
2.2. Istota i determinanty produktywności jednostek naukowych
Produktywność przyjmuje różne znaczenie w zależności od sektora, a także segmentów
tego sektora82
. Obecnie pojęcie to nabrało szerokiego kontekstu i znajduje swoje
odzwierciedlenie także w sektorze nauki. Początkowo adaptacja produktywności w sektorze
nauki rodziła wiele wątpliwości. Najczęściej podnoszonym argumentem było ogólne
stwierdzenie, że nie można obiektywnie zmierzyć poziomu i wartości pracy naukowej83
. Mimo
to, wciąż trwały prace nad doskonaleniem metod pomiaru i oceny efektów pracy naukowej.
Problematyka produktywności nauki rozwija się od lat siedemdziesiątych XX wieku84
,
ale zagadnienia dotyczące produktywności w sektorze nauki były podejmowane znacznie
80
M. Bratnicki, A. Frączkiewicz-Wronka, Efektywność organizacyjna i zarządzanie publiczne – wyłaniające się
koncepcje, kluczowe wyzwania i kierunki dalszych badań w obszarze pomiaru efektywności, „Organizacja
i Kierowanie” 2006, nr 3 (125), s. 18. 81
A. Jääskeläinen, E. Uusi-Rauva, Bottom-up approach for productivity measurement in large public organizations,
“International Journal of Productivity and Performance Management” 2011, t. 60, nr 3, s. 254. 82
I.A. Al-Darrab, Relationships between productivity, efficiency, utilization, and quality, “Work Study” 2000,
MCB University Press, t. 49, nr 3, s. 98. 83
A. Guena, B.R. Martin, dz. cyt., s. 278. 84
G. Abramo, C.A. D‟Angelo, F. Di Costa, Research collaboration and productivity: is there correlation?,
“Higher Education” 2009, t. 57, s. 157; H. Dundar, D.R. Lewis, Determinants of research productivity
in higher education, ”Research in Higher Education” 1998, t. 39, nr 6, s. 609.
50
wcześniej85
. W polskim piśmiennictwie do niedawna brak było odniesień do problematyki
produktywności nauki, a nadal brak jest systematycznych opracowań na ten temat.
Podejmowana tematyka odnosi się głównie do analiz bibliometrycznych86
.
Produktywność nauki powinna stanowić centralny element dyskusji na temat
działalności jednostek naukowych. Pomiar produktywności dostarcza pełniejszej analizy
i oceny niż tradycyjnie stosowane wskaźniki87
. Z punktu widzenia zarządzania sektorem
publicznym, analiza produktywności pozwala badać poziom systemu nauki w różnych
wymiarach88
.
Punktem wyjścia do prowadzonych rozważań jest założenie, że − zgodnie
z paradygmatem produktywności − jednostkę naukową można scharakteryzować przez jej
zasoby wejściowe, efekty, procesy transformacji przekształcające zasoby w efekty
oraz czynniki środowiskowe wynikające z wpływu otoczenia. Produktywność jednostki
naukowej rozumiana jest zatem jako ogół wyników jej działalności w stosunku do nakładów
poniesionych na ten obszar działalności w określonym czasie89
. Głównym celem pomiaru
produktywności jednostek naukowych jest pomiar zakresu działalności oraz ocena jakości
tych działań. Efektywność w sektorze nauki można rozumieć jako poziom i jakość działań
realizowanych za pomocą posiadanych zasobów. Z kolei racjonalność wyznaczana jest przez
stopień spełnienia potrzeb i oczekiwań decydentów i odbiorców działalności naukowej90
.
Przy czym jednostki naukowe odgrywają kluczową rolę w kształtowaniu poziomu
produktywności naukowej własnej i indywidualnej zatrudnionych pracowników naukowych91
.
Produktywność nauki jest pojęciem wielowymiarowym i złożonym z uwagi
na mnogość rezultatów działalności naukowej, dyscyplin i obszarów naukowych. Funkcje
produkcji dla działalności naukowej są znacznie zróżnicowane92
.
85
R.M. Hogan, Productivity in research and development, “Science” 1950, t. 112, nr 2917, s. 613-616;
B. Godin, The value of science: changing conceptions of scientific productivity, 1869 to circa 1970, “Social
Science Information” 2009, t. 48 (4), s. 549. 86
J. Wolszczak-Derłacz, A. Parteka, dz. cyt.; R. Siemienska, dz. cyt. 87
Improving measurement of productivity in higher education, s. 2. 88
S. Gates, A. Stone, dz. cyt., s. 5. 89
M. Print, J. Hattie, Measuring quality in universities: An approach to weighting research productivity,
„Higher Education” 1997, t. 33, s. 454. 90
H. Dundar, D.R. Lewis, dz. cyt., s. 608; S. Gates, A. Stone, dz. cyt., s. 5. 91
H. Dundar, D.R. Lewis, dz. cyt., s. 613. 92
G. Rhoades, Managing productivity in an academic institution: rethinking the whom, which, what, and whose
of productivity, “Research in Higher Education” 2001, t. 42, nr 5, s. 623.
51
Efekty działalności naukowej można podzielić na trzy kategorie93
:
produkcję wiedzy;
upowszechnianie wiedzy;
rozwój naukowy pracowników.
Produkcja wiedzy wyraża się głównie w publikacjach i cytowaniach. Działalność
upowszechniająca dotyczy działań związanych z komercjalizacją wyników badań (wdrożenia,
patenty) oraz kształceniem. Trzeci obszar przejawia się w rozwoju wysoko
wykwalifikowanych kadr naukowych i związany jest z awansami naukowymi i podnoszeniem
kompetencji pracowników naukowo-badawczych.
Badania nad pomiarem produktywności nauki pozwoliły zidentyfikować czynniki
determinujące jej wzrost. Wpływ tych czynników stanowi istotny problem badawczy z uwagi
na zmienność roli i natężenia tych czynników w czasie.
Determinanty produktywności jednostek naukowych mają charakter wielowymiarowy
i mogą być rozpatrywane na poziomie indywidualnym, jednostki naukowej
oraz środowiskowym94
. Na wyniki jednostki naukowej znaczny wpływ mają wyniki
indywidualnych pracowników lub zespołów, i odwrotnie − działania na poziomie jednostki
naukowej mogą skutecznie pobudzić rozwój produktywności indywidualnej pracowników
naukowych95
. Czynniki środowiskowe mają podwójny wymiar – związane są z czynnikami
społecznymi, gospodarczymi i demograficznymi, niezależnie wpływającymi na działalność
jednostek naukowych i ich pracowników. Druga grupa czynników środowiskowych związana
jest z uwarunkowaniami instytucjonalnymi i prawnymi sektora nauki.
Czynniki wpływające na wzrost produktywności naukowej na poziomie indywidualnym
budzą spore zainteresowanie badawcze. W literaturze są prezentowane wyniki badań dotyczące
takich czynników, jak wiek, płeć, status socjoekonomiczny96
, wykształcenie, doświadczenie,
cechy wewnętrzne97
, zajmowane stanowisko, rodzaj dyscypliny naukowej98
, a także czynniki
zewnętrzne jak lokalizacja organizacji zatrudniającej, jej prestiż, kultura organizacyjna, poziom
naukowej orientacji, dostęp do sieci naukowych99
, autonomia w miejscu pracy, wiek i pozycja
93
G. Crespi, A. Geuna, The productivity of science, University of Sussex, 2004, s. 1, www.kurul.inet-
tr.org.tr/inovasyon/crespiost2.pdf, [22.10.2013]. 94
G. Abramo, C.A. D‟Angelo, F. Di Costa, dz. cyt., s. 157; H. Dundar, D.R. Lewis, dz. cyt., s. 610. 95
E.A. Silver, Some ideas on enhancing research productivity, “International Journal of Production Economics”
2009, t. 118, s. 353. 96
H. Dundar, D.R. Lewis, dz. cyt., s. 610. 97
H. Dundar, D.R. Lewis, dz. cyt., s. 610; R. Long, A. Crawford, M. White, K. Davis, Determinants of faculty
research productivity in information systems: an empirical analysis of the impact of academic origin
and academic affiliation, “Scientometrics” 2009, t. 78, nr 2, s. 231-360. 98
N. Carayol, M. Matt, Individual and collective determinants of academic scientists productivity, “Information
Economics and Policy” 2006, t. 18, s. 55-72. 99
H. Dundar, D.R. Lewis, dz. cyt., s. 610; R. Long, A. Crawford, M. White, K. Davis, dz. cyt., s. 231-360.
52
współpracowników100
, czy ogólne warunki pracy takie, jak czas pracy, warunki kontraktów,
proporcja prac naukowych do zajęć dydaktycznych, poziom biurokracji, bariery pracy
zespołowej, mobilność101
.
Identyfikacja i zdefiniowanie tych czynników jest szczególnie istotne z punktu
widzenia kształtowania systemowych instrumentów polityki naukowej. Przeprowadzone
w tym zakresie studia literaturowe wykazały, że czynniki warunkujące poziom
produktywności naukowej są silnie zróżnicowane, a badania często niejednoznaczne.
Dysharmonia w obrębie tych zagadnień wynika być może z faktu, że badania głównie
odnoszą się do analiz bibliometrycznych i często nie uwzględniają innych rodzajów
rezultatów naukowych oraz specyficznych uwarunkowań krajów, co podkreślają
V.A. Markusova, A.I. Tsygankova i T.A. Krylova102
.
Za bardziej użyteczne dla celów publicznych i politycznych ocenia się studia
nad podejściem instytucjonalnym w odniesieniu do produktywności nauki i jej
determinantów103
. Wyniki różnych badań dotyczące czynników wpływających na wzrost
produktywności nauki na poziomie instytucjonalnym są bardziej zgodne niż w odniesieniu
do indywidualnych, także w przekroju czasowym. Determinanty produktywności nauki często
są zależne jednak od uwarunkowań poszczególnych krajów oraz stopnia zaawansowania
systemu nauki. Wśród głównych wymieniane są: struktura i wielkość jednostki naukowej,
wysokość nakładów na badania, struktura finansowania, a także stopień zaawansowania
krajowych systemów oceny jednostek naukowych104
.
Jednym z kluczowych czynników sprzyjających rozwojowi badań wskazywanym
w literaturze jest wielkość jednostki naukowej. Większe instytucje sprzyjają zwiększaniu
interakcji między pracownikami, tworzeniu zespołów badawczych i podejmowanie
współpracy przy wspólnych projektach badawczych. Uzyskuje się w ten sposób tak zwany
efekt synergii intelektualnej105
. Ponadto, większe jednostki naukowe i badawcze przyciągają
lepszych naukowców, dysponują większymi zasobami oraz większym stopniem swobody
w dysponowaniu nimi. Również korzyści dużej skali jednostki prowadzą do lepszego
wykorzystania zasobów. Z drugiej jednak strony, zbytni rozrost infrastrukturalny jednostek
naukowych może stwarzać – z uwagi na więcej formalnych zasad i procedur działania
− trudności w komunikacji bądź wpływać na zmniejszenie liczby podejmowanych inicjatyw.
100
N. Carayol, M. Matt, dz. cyt., s. 55-72. 101
B. Torrisi, Academic productivity correlated with well-being at work, “Scientometrics” 2013, t. 94, s. 811. 102
V.A. Markusova, A.I. Tsygankova, T.A. Krylova, The indices of scientific productivity and ratings of domestic
universities, “Scientific and Technical Information Processing” 2009, t. 36, nr 4, s. 229-230. 103
H. Dundar, D.R. Lewis, dz. cyt., s. 611. 104
R. Long, A. Crawford, M. White, K. Davis, dz. cyt., s. 231-260. 105
H. Dundar, D.R. Lewis, dz. cyt., s. 611.
53
Wielkość jednostki często pozytywnie sprzyja rozwojowi współpracy w środowisku
naukowym. Współpraca ta wykazywana jest jako jeden z istotniejszych determinantów
produktywności naukowej. Badania nad produktywnością były realizowane również
w zakresie dotyczącym form współpracy zarówno wewnętrznej i zewnętrznej, stacjonarnej
i niestacjonarnej, narodowej i międzynarodowej oraz publiczno-prywatnej106
. Wnioski
jednoznacznie wskazują, iż zachodzi silna dodatnia korelacja między rozwijaniem różnych
form współpracy naukowej a wzrostem produktywności nauki107
.
Rodzaj jednostki naukowej i sposób jej kontroli również ma wpływ na uzyskiwane
wyniki, ale jest to zależne od systemu naukowego poszczególnych krajów. Charakterystyczny
przykład stanowią amerykańskie prywatne jednostki naukowe, które uzyskują lepsze wyniki
działalności naukowej niż jednostki publiczne. W Polsce jest inna sytuacja. Analizując wyniki
oceny parametrycznej, można stwierdzić, że lepiej rozwinięty jest sektor publicznych jednostek
naukowych. Kluczowy wpływ na to ma poziom finansowania publicznego oraz wielkość
pozarządowych środków finansowych pozyskiwanych przez jednostki naukowe.
Nakłady na badania stanowią podstawowy instrument zarządzania w sektorze
naukowym. Podstawowe źródło stanowi finansowanie publiczne. Struktura finansowania jest
jednak zróżnicowana względem różnych krajów. Wyróżnia się finansowanie wewnętrzne
i zewnętrzne108
. Do źródeł finansowania wewnętrznego są zaliczane podstawowe fundusze
publiczne przeznaczone na naukę w postaci dotacji. Zewnętrzne źródła finansowania stanowią
publiczne i prywatne fundusze, które nie wchodzą w skład funduszy podstawowych i mają
charakter konkursowy. Zewnętrzne finansowanie publiczne stanowią granty i kontrakty
z administracją publiczną. Są to fundusze, które wymagają aktywnego pozyskiwania i zwykle
mają charakter zadaniowy. Fundusze publiczne są głównym źródłem finansowania jednostek
naukowych, dlatego cele i kryteria alokacji tych zasobów mają kluczowe znaczenie dla
produktywności nauki.
Relacja funduszy wewnętrznych i zewnętrznych jest zróżnicowania w poszczególnych
regionach geograficznych. Ogólnie, wyróżnia się cztery typy finansowania jednostek
naukowych w zależności od ich orientacji podstawowego finansowania i udziału źródeł
finansowania zewnętrznego (rysunek 2.4).
106
G. Abramo, C.A. D‟Angelo, F. Di Costa, dz. cyt., s. 157-159. 107
B. Stefaniak, International cooperation of Polish researchers with partners from abroad: a scientometric
study, “Scientometrics” 1998, t. 41, nr 1-2, s. 156. 108
O. Auranen, M. Nieminen, University research funding and publication performance – an international
comparison, “Research Policy” 2010, t. 39, s. 823.
54
ori
enta
cja
źró
deł
fin
an
sow
an
ia
po
dst
aw
ow
ego
na wyniki
System zorientowany
na wyniki
z wysokim udziałem funduszy
zewnętrznych
System zorientowany na wyniki
z niskim udziałem funduszy
zewnętrznych
na zasoby
System zorientowany
na zasoby
z wysokim udziałem funduszy
zewnętrznych
System zorientowany na zasoby
z niskim udziałem funduszy
zewnętrznych
wysoki niski
udział funduszy zewnętrznych
Rysunek 2.4. Typologia systemów finansowania jednostek naukowych
Źródło: O. Auranen, M. Nieminen, University research funding and publication performance – an international
comparison, “Research Policy” 2010, t. 39, s. 824.
Jednostki naukowe w krajach, gdzie dominuje system z niskim udziałem funduszy
zewnętrznych są oparte głównie na alokacji środków publicznych. Wówczas państwo
ma bezpośredni wpływ na jednostki naukowe. Wysoki udział funduszy zewnętrznych
charakteryzuje mnogość źródeł finansowania jednostek naukowych. Rola państwa nie jest
koniecznie mniejsza, lecz ma charakter raczej pośredni. Również większa bezpośrednia
kontrola nad jednostkami naukowymi charakterystyczna jest obserwowana w systemach
finansowania wewnętrznego zorientowanych na wyniki, gdzie wyraźnie oczekuje się
pożądanych rezultatów i poziom finansowania powiązany jest bezpośrednio z poziomem
produktywności. Odmienne systemy zorientowane zasobowo są skoncentrowane
na zapewnieniu dostatecznej ilości nakładów109
.
Badania O. Auranena i M. Nieminena dowodzą, że produktywność nauki jest silniej
determinowana przez finansowanie oparte na wynikach lub konkursach110
. Podstawową
przesłanką takiego podejścia jest wywoływanie konkurencyjności oraz możliwość wykazania
zasadności przydziału środków na podstawie decyzji merytokratycznych111
.
System zorientowany na wysoki udział funduszy zewnętrznych jest zorientowany
na kształtowanie współpracy z przemysłem, w którym promuje się zdolność jednostek
naukowych do pozyskiwania funduszy zewnętrznych i aktywacji ważnych kanałów transferu
wiedzy. Badania A. Muscio i in. wykazały, że zdolność do prowadzenia badań na wysokim
poziomie jest warunkiem wstępnym dla rozwoju silnej roli jednostek naukowych w kierunku
współpracy z przemysłem112
. Wzrasta za tym presja polityczna w publicznych jednostkach
naukowych do zintensyfikowania interakcji z przemysłem w celu powiększenia możliwości
109
O. Auranen, M. Nieminen, dz. cyt., s. 824. 110
Tamże, s. 831. 111
C. Grimp, Extramural research grants and scientists’ funding strategies: beggars cannot be choosers?,
“Research Policy” 2012, t. 41, s. 1451. 112
A. Muscio, D. Quaglione, G. Vallanti, Does government funding complement or substitute private research
funding to universities?, “Research Policy” 2013, t. 42, s. 64.
55
finansowania badań. Wiąże się to z przyjęciem przez jednostki naukowe, oprócz tradycyjnych
funkcji kształcenia i badań, tzw. trzeciej misji (ang. third mission), czyli zaangażowanie się
w działania przyczyniające się do wzrostu gospodarczego i konkurencyjności przez
bezpośredni transfer wiedzy. Jednostki naukowe zwiększają nacisk na: poszerzanie form
przedsiębiorczości akademickiej, powoływanie uniwersyteckich spółek spin-off
czy generowanie patentów lub licencji. Ostatnio, więcej uwagi poświęca się też innym
kanałom współpracy pomiędzy uczelniami a przemysłem, takim jak kontrakty badawcze
i działalność konsultingowa, charakteryzujących się wyższym stopniem relacyjnych
powiązań, zdolnych do wywoływania efektów uczenia się przez interakcje113
.
Auranen i Nieminen dochodzą do wniosku, że obie formy finansowania, zarówno
wewnętrzne, jak i zewnętrzne, są kluczowe dla kształtowania produktywności jednostek
naukowych, lecz istotna wydaje się być odpowiednia proporcja zależna od uwarunkowań
poszczególnych krajów. Układy, w których dominuje rządowe finansowanie podstawowe
są wrażliwe na zmiany mechanizmów alokacji i zachęt finansowania publicznego. Z drugiej
strony zapewniają stabilność systemu z uwagi na zapewnienie stałych źródeł finansowania
kapitału ludzkiego i podstawowych wydatków infrastrukturalnych. Do realizacji tych celów
nie jest możliwe zaangażowanie funduszy zewnętrznych. Fundusze zewnętrzne stwarzają
za to szersze możliwości w zakresie kreowania nowych inicjatyw i poszerzania działalności
jednostek naukowych114
. Badania T. Bolli i F. Somogyi ujawniają, że środki publiczne mają
wpływ szczególnie na produktywność w obszarze produkcji wiedzy, natomiast środki
prywatne odgrywają znaczącą rolę w zakresie transferu technologii115
. Potwierdzają także,
że konkurencyjne finansowanie badań publicznych podnosi efektywność i produktywność
badań naukowych w porównaniu do tradycyjnych mechanizmów finansowania116
. C. Grimp
podkreśla jednak, że mnogość źródeł finansowania wiąże się często z różnymi kryteriami
oceny, a to z kolei prowadzi do sytuacji, gdy naukowcy stosują różne strategie działania
i koncentrują swoje wysiłki na pozyskiwaniu wybranych rodzajów grantów117,
*.
Inne czynniki determinujące poziom produktywności nauki wymieniają H. Dundar
i D.R. Lewis. Analizują liczbę kształconych studentów na wydziałach, realizowane granty
badawcze, relację liczby studentów do liczby pracowników naukowych, jakość insfrastruktury,
113
A. Bonaccorsi, L. Secondi, E. Setteducati, A. Ancaiani, Participation and commitment in third-party research
funding: evidence from Italian universities, “Journal of Technology Transfer” 2014, t. 39, nr 2, s. 170-172. 114
O. Auranen, M. Nieminen, dz. cyt., s. 824. 115
T. Bolli, F. Somogyi, Do competitively acquired funds induce universities to increase productivity?,
“Research Policy” 2011, t. 40, s. 146. 116
Tamże. 117
C. Grimp, dz. cyt., s. 1448-1460.
* Więcej o mechanizmach finansowania zawarto w rozdziale 3.1.
56
wielkość zasobów bibliotecznych, dostępność sekretariatów oraz administracji oraz wsparcia
dydaktycznego118
. Badania Dundara i Lewisa wykazały, że na poziom produktywności
naukowej pozytywnie wpływa liczba profesorów zatrudnionych w jednostce naukowej, liczba
asystentów oraz wydatki na rozwój biblioteki119
. Inne badania potwierdzają istnienie
pozytywnej relacji liczby profesorów w roli mentora zespołu naukowego na wzrost
produktywności naukowej120
. Natomiast brak jest zgodności co do wyraźnego wpływu liczby
wypromowanych studentów i czasu poświęconego na działania związane z procesem
dydaktycznym na produktywność naukową121
. A.R. Babu i Y.P. Singh na podstawie badań
własnych wyróżniają adekwatność zasobów finansowych i infrastruktury badawczej, dostęp
do literatury, stwarzanie możliwości młodym naukowcom kreatywnej pracy, stymulujące
przywództwo, otwarcie organizacji na zewnątrz (stwarzanie możliwości udziału
w konferencjach, współpracy z zespołami badawczymi z innych jednostek naukowych
krajowych i zagranicznych, sieci)122
.
Rysunek 2.5. Model produkcji naukowej
Źródło: M. Cave, The use of performance indicators in higher education: the challenge of the quality movement,
Jessica Kingsley Publishers, Philadephia 1991, p. 29.
Podjęte w rozdziale wątki nie wyczerpują problematyki uwarunkowań
produktywności nauki. Zdaniem autorki, różne czynniki mające bezpośredni i pośredni
wpływ na działalność jednostek naukowych są adekwatne do etapów modelu produkcji
naukowej M. Cave‟a przedstawionego na rysunku 2.5 i w każdej fazie istnieją możliwości
wywoływania pożądanych interakcji.
118
H. Dundar, D.R. Lewis, dz. cyt., s. 611-613. 119
Tamże, s. 623-625. 120
J.G. Cohen, A.E. Sherman, T.K. Kiet, D.S. Kapp, K. Osann, L. Chen, S.S. O‟Sullivan, J.K. Chan,
Characteristics of success in mentoring and research productivity – A case-control study of academic centers,
“Gynecologic Oncology” 2012, t. 125, s. 8-13. 121
W. Hong, C. Xuezhu, Z. Ke, On the relationship between research productivity and teaching effectiveness
at research universities, “Frontiers of Education in China” 2007, t. 2 (2), s. 299-300; H. Dundar, D.R. Lewis,
dz. cyt., s. 625. 122
A.R. Babu, Y.S. Singh, Determinants of research productivity, “Scientometrics” 1998, t. 43, nr 3, s. 318-327.
proces uruchamiania
(finanse)
zasoby (np. kadry, wyposażenie)
proces badawczy
wyniki, rezultaty (np. publikacje,
patenty)
wykorzystanie, użytkowanie (wpływ,
oddziaływanie) efekty
57
2.3. Metody pomiaru produktywności nauki
W literaturze wyróżnia się wiele podejść do pomiaru, oceny i analizy produktywności.
Dobór metodyki jest zależny od typu badanych obiektów, realizowanych celów, czynników
środowiskowych; często ma charakter subiektywny i jest dokonywany pod wpływem
wartości, preferencji i interesów podmiotu dokonującego oceny.
Szczególne zagadnienie stanowi pomiar produktywności nauki. Z uwagi na złożoność
procesów realizacji działalności naukowej oraz powiązanie wyników oceny z systemem
finansowania, jest zagadnieniem trudnym i dyskusyjnym. Pomiaru produktywności nauki
dokonuje się głównie w celu123
:
wsparcia decyzji w sprawie alokacji zasobów;
oceny inwestycji w sektorze nauki;
ułatwienia zarządzania jednostkami naukowymi;
dokonania rozliczenia za inwestycje publiczne oraz prywatne w jednostki naukowe.
Zasadniczym elementem w analizie produktywności nauki jest właściwe
zdefiniowanie rezultatów działalności naukowej i nakładów z nimi powiązanymi124
. Dobór
metody oceny produktywności zazwyczaj jest kompromisem między jej kompleksowością,
dopasowaniem do specyfiki i potrzeb ocenianych jednostek, pracochłonnością użycia
i możliwością pozyskania danych do analizy.
Tradycyjne metody pomiaru produktywności oraz efektywności odnoszą się
do uzyskiwanych zysków lub maksymalizacji wartości organizacji. Specyfika sektora
publicznego, którego elementem jest także sektor nauki, opiera się na założeniu, że jednostki
naukowe dążą do osiągnięcia pewnej wartości publicznej125
. Jednocześnie działalność instytucji
sektora publicznego nie podlega presji konkurencyjnej i nie jest zorientowana na zysk. W ten
sposób osiągane rezultaty nie mogą być poddane ocenie w wymiarze finansowym. Niezbędne
jest zatem poszukiwanie adekwatnych metod pomiaru do tego typu działalności.
W ujęciu technicznym koncepcji produktywności, metody i techniki pomiaru
produktywności naukowej można sklasyfikować następująco: tradycyjne wskaźnikowe,
parametryczne oparte na modelach ekonometrycznych oraz nieparametryczne oparte
na programowaniu matematycznym (rysunek 2.6). Mnogość metod jest związana
z koniecznością stosowania podejść wielowymiarowych, ponieważ w praktyce zasadniczo
obiekty poddane analizie opisane są wieloma nakładami i efektami. Konieczna jest zatem
agregacja tych wielkości126
.
123
Improving measurement of productivity in higher education, s. 2. 124
C. Daraio, L. Simar, Advanced robust and nonparametric methods in efficiency. Methodology
and applications, Springer, New York 2007, s. 167-168. 125
Improving measurement of productivity in higher education, s. 22. 126
C. Daraio, L. Simar, dz. cyt., s. 13.
58
Rysunek 2.6. Klasyfikacja metod pomiaru produktywności
Źródło: opracowanie własne na podstawie: Improving measurement of productivity in higher education,
T. Sullivan, C. Mackie, W.F. Massy, E. Sinha (red.), The National Academies Press, Washington 2012, p. 21;
M. Pawłowska, Konkurencja i efektywność na polskim rynku bankowym na tle zmian strukturalnych
i technologicznych, „Materiały i Studia” 2005, nr 192, s. 2.
Przez metody wskaźnikowe należy rozumieć metody oparte na analizie relacji
zmiennych wejściowych i wyjściowych, ważnych z punktu widzenia ich wzajemnych
związków. Sprowadzają się do konstruowania indeksów pomiędzy różnymi wielkościami,
odpowiedniego oszacowania tych wielkości i ich interpretacji, której dokonuje się
na podstawie porównania obliczonych wskaźników z przyjętymi bazami odniesienia.
Podejście wskaźnikowe jest dość szerokie, z uwagi na mnogość i otwarty charakter
konstrukcji wskaźników. Produktywność jest zatem określana przez różne wskaźniki
o charakterze kompleksowym, cząstkowym lub specyficznym, wyrażające zależności między
innymi ekonomiczne, techniczne, fizyczne, ilościowe, finansowe, jakościowe127
.
Metody wskaźnikowe można opisać ogólnym równaniem:
1
1
s
r rj
rj m
i ij
i
y
P
x
(2.1)
gdzie:
– wektor wejść (nakładów/zasobów) zużywanych przez j-tą jednostkę
– wektor wyjść (efektów) uzyskiwany przez j-tą jednostkę
– wektor wag przypisanych każdemu efektowi
– wektor wag przypisanych każdemu nakładowi
– liczba wejść
– liczba wyjść
127
W.R. Pawlak, dz. cyt., s. 2.
Metody pomiaru produktywności naukowej
podejście wskaźnikowe
podejście parametryczne
SFA
COLS
TFA
DFA
podejście nieparametryczne
DEA
FDH
59
Podejście indeksowe jest oparte na pojedynczych wskaźnikach i zakłada przyjęcie
jednego typu nakładu i jednego typu efektu do pomiaru i oceny produktywności. Pomija się
wszystkie relacje komplementarności i substytucji pomiędzy wejściami i efektami. Słabość
metod indeksowych wynika także z założenia liniowego związku pomiędzy nakładami
a efektami oraz stałych efektów skali w sektorze. W takim podejściu przyjmuje się identyczne
wagi dla każdej badanej jednostki, niezależnie od warunków, w których działa, czy innego
akcentu kładzionego na poszczególne nakłady i efekty w badanych jednostkach128
.
Inne podejście zakłada uwzględnienie różnych nakładów lub/i efektów. Ze względu
na kryterium kompleksowości wyróżnia się wskaźniki ogólne i cząstkowe. Całkowity wskaźnik
produktywności (Total Factor Productivity, TFP*) wyraża stosunek ilościowego wszystkich
wielkości wyjściowych i wszystkich wielkości wejściowych. Natomiast cząstkowe (partial
factor productivity) pozwalają uwzględnić poszczególne rodzaje efektów w stosunku
do poszczególnych rodzajów nakładów. Ich użycie jest związane z poziomem pomiaru
produktywności129
. Przykładem stosowania metody wskaźnikowej do pomiaru i oceny
produktywności nauki są badania przeprowadzone we Włoszech130
.
Produktywność nauki może być mierzona w sposób statyczny w odniesieniu
do benchmarków, czyli jednostek naukowych wzorcowych, i dynamiczny przez analizę zmian
w czasie131
. Analiza zmian w czasie pozwala porównać zmiany wskaźnika produktywności
oraz zidentyfikować strukturę tych zmian. Przykłady wskaźników do analizy produktywności
w czasie stanowią indeksy Malmquista132
, Fishera133
, Tornquista oraz Hicks-Moorsteena134
.
Analiza porównawcza pozwala na porównanie wyników własnych z wynikami uzyskiwanymi
przez inne jednostki naukowe.
128
C. Daraio, L. Simar, dz. cyt., s. 13.
* Total Factor Productivity jest stosowany: (1) jako relacja efektów do nakładów wyrażonych numerycznie
oraz (2) jako wskaźnik pośredni stosowany w metodach parametrycznych (SFA) i nieparametrycznych (DEA). 129
A. Bonaccorsi, C. Daraio, Econometric approaches to the analysis of productivity of R&D systems
[w:] Handbook of Quantitative Science and Technology Research, H.F. Moed i in. (red.), Kluwer Academic
Publishers, Netherlands 2004, s. 53. 130
G. Abramo, C. A. D‟Angelo, F. Di Costa, Variability of research performance across disciplines within
universities in non-competitive higher education systems, “Scientometrics” 2014, t. 98, s. 777-795. 131
A. Jääskeläinen, E. Uusi-Rauva, dz. cyt., s. 256. 132
K. Tone, Malmquist productivity index: efficiency change over time, [w:] Handbook on Data Envelopment
Analysis, W.W. Cooper, L.M. Seiford, J. Zhu (red.), Kluwer Academic Publishers, Boston, Dordrecht, London
2004, s. 203-227. 133
R. Färe, S. Grosskopf, Malmquist productivity indexes and Fisher ideal indexes, “Economic Journal” 1992,
t. 102, s. 158-160. 134
D.W. Caves, L.R. Christensen, E.R. Diewert, The economic theory of index numbers and the measurement
of input, output, and productivity, “Econometrica” 1982, t. 50, nr 6, s. 1393-1414.
60
W literaturze wskaźniki produktywności nauki odnoszą się głównie do wielkości
bibliometrycznych135
. Uważa się jednak, że pomiar produktywności nauki jako relacji liczby
publikacji i liczby pracowników naukowych nie pokazuje pełnego poziomu jednostki
naukowej136
. Sam wskaźnik nie daje poglądu na pierwotne przyczyny występowania różnic
w wynikach. Pożądane są modele wielokryterialne, które obejmują w ocenie różne aspekty
i czynniki mające wpływ na poziom produktywności nauki137
.
Potrzeby ujęcia wielokryterialności zostały ujęte w modelach parametrycznych
i nieparametrycznych. Są to metody porównawcze, oparte na koncepcji produktywności
granicznej. Punktem wyjścia metod granicznych jest założenie, że badane obiekty są zdolne do
działania na założonym, granicznym poziomie produktywności. Granica ta stanowi wzorzec,
wskazując docelowy poziom produktywności możliwej do uzyskania na dwa sposoby138
:
przez porównanie uzyskanych wielkości efektów z maksymalną, jaką można byłoby
uzyskać przy ustalonych nakładach (na podstawie funkcji granicznej);
przez porównanie wielkości poniesionych nakładów z najniższą, przy której można
uzyskać dany poziom efektów.
Poziom maksymalny określa tzw. krzywa graniczna. W zależności od podejścia
do wyznaczania krzywej następuje rozróżnienie na metody parametryczne i nieparametryczne.
W grupie metod parametrycznych jest szacowana teoretyczna funkcja produkcji,
określająca wzorzec pełnego wykorzystania zasobów. Konieczna jest znajomość zależności
funkcyjnej między efektami a nakładami. W grupie metod nieparametrycznych krzywa
graniczna wyznaczana jest na podstawie wartości empirycznych najlepszych jednostek
w grupie analizowanych jednostek, bez konieczności wyznaczania zależności funkcyjnej
nakładów i efektów139
.
Podejście parametryczne zakłada stosowanie metod ekonometrycznych do stworzenia
specyfikacji określonej granicznej funkcji produkcji i ekonometrycznej estymacji jej
parametrów. Parametry ustala się za pomocą klasycznych narzędzi estymacji
135
J.M. Russell, R. Rousseau, Bibliometrics and institutional evaluation, 20 s., http://www.vub.ac.be
/BIBLIO/itp/ lecturers/ronald_rousseau/ronald_roussea_stim1_bibliometrics_russell.pdf [18.09.2013];
L. Bornmann, R. Mutz, C. Neuhaus, H.D. Daniel, Citation counts for research evaluation: standards of good
practice for analyzing bibliometric data and presenting and interpreting results, “Ethics in Science
and Environmental Politics” 2008, t. 8, s. 93-102; R.K. Toutkoushian, S.R. Porter, C. Danielson, S.R. Hollis,
Using publications counts to measure an institution’s research productivity, “Research in Higher Education”
2003, t. 44, nr 2, s. 121-148. 136
H. Dundar, D.R. Lewis, dz. cyt., s. 609. 137
Improving measurement of productivity in higher education, s. 3. 138
J. Osiewalski, Ekonometria bayesowska w zastosowaniach, Wydawnictwo Akademii Ekonomicznej, Kraków
2001, s. 110. 139
S.C. Kumbhakar, C.A. Knox Lovell, Stochastic frontier analysis, Cambridge University Press, Cambridge,
New York, Melbourne, Madrid 2000, s. 2-4.
61
ekonometrycznej. Funkcja ta wyznacza krzywą produktywności. Punkty znajdujące się
na krzywej określają jednostki produktywne. Punkty położone poza krzywą opisują jednostki
nieefektywne, a odległość od krzywej jest determinowana przez poziom tej nieefektywności
oraz błędy losowe.
Wartości graniczne mogą być w wypadku stosowania metod parametrycznych
określone za pomocą stochastycznej metody granicznej SFA (ang. Stochastic Frontier
Approach), metody grubej granicy TFA (ang. Thick Frontier Approach), metody swobodnego
rozkładu DFA (ang. Distribution Free Approach) oraz skorygowanej metody najmniejszych
kwadratów COLS (ang. Corrected Ordinary Least Squares).
Metoda SFA należy do grupy metod całościowych, stosowanych do oceny ogólnej
działalności obiektów, przez określanie różnych zależności pomiędzy zmiennymi
wejściowymi i wyjściowymi. Stochastyczne modele graniczne (ang. stochastic frontiers
models) zostały wprowadzone w 1977 roku140
. Modele te składają się z odpowiednio
wyspecyfikowanej funkcji produkcji lub kosztu oraz dwóch składników losowych, z których
jeden opisuje czynnik losowy jako wpływ czynników stochastycznych oraz występujących
błędów pomiarowych, a drugi potencjalną nieefektywność techniczną (nieproduktywność)141
.
W modelach zakłada się, że każdy badany obiekt ma swobodny dostęp do tej samej
technologii i można oszacować funkcję produkcji dla grupy obiektów. Odchylenia od krzywej
produkcji traktuje się jako dowód niepełnego wykorzystania zasobów. Im odległość większa,
tym wyższy wskaźnik nieefektywności technicznej142
. Ogólny model SFA można zapisać
równaniem:
( ) (2.3)
gdzie:
( ) – graniczna funkcja produkcji
– wektor nieznanych parametrów
– zakłócenia losowe
– nieefektywność techniczna j-tej jednostki
W odróżnieniu od innych metod, w metodzie SFA uwzględnia się błędy danych. Ideę
metody przedstawiono na rysunku 2.7. Odległości obiektów B, D, E od krzywej granicznej
określają błąd pomiaru, natomiast przyczyną odchyleń obiektów A, C jest błąd pomiaru
oraz nieefektywność obiektów.
140
J.D. Aigner, C.A.K. Lovell, S. Schmidt, Formulation and estimation of stochastic frontier production
function models, „Journal of Econometrics” 1977, t. 6, nr 1, s. 21-37; W. Meeusen, J. van den Broeck,
Efficiency estimation from Cobb-Douglas production functions with composed error, ”International Economic
Review” 1977, t. 18, nr 2, s. 435-444. 141
J. Osiewalski, dz. cyt., s. 94-97. 142
Tamże, s. 93.
62
Rysunek 2.7. Graficzna prezentacja metody SFA
Źródło: V. Sarafidis, An assessment of comperative efficiency measurment techniques, Europe Economics, 2002,
s. 9, http://europe-economics.com/publications/efficiency_measurement.pdf [25.08.2011].
Metody TFA (A.N. Berger and D.B. Humphrey, 1991) oraz DFA (P. Schmidt,
R.C. Sickles, 1984; A.N. Berger, 1993) polegają na określeniu zależności funkcyjnej
pomiędzy nakładami a efektami za pomocą funkcji kosztów podobnej do tej stosowanej
w modelu SFA, różnią się jednak założeniami odnośnie rozkładu błędu losowego
od nieefektywności143
. W metodzie DFA zakłada, że składnik losowy sumuje się do zera,
natomiast efektywność podmiotu charakteryzuje się określonym, stałym poziomem w danym
okresie. Występujące odchylenia od efektywności spowodowane są przez czynnik
przypadkowy. W metodzie TFA uwzględnia się dodatkowo podział analizowanych jednostek
na klasy. Podziału na poszczególne klasy dokonuje się opierając się na poziomie przeciętnym
określany na podstawie danych empirycznych144
.
W warunkach metody COLS krzywa graniczna szacowana jest za pomocą metody
najmniejszych kwadratów. Ogólna postać modelu może być zapisana wzorem:
( ) (2.2)
gdzie:
– wektor wyjść (efektów) uzyskiwany przez j-tą jednostkę
– wektor wejść (nakładów/zasobów) zużywanych przez j-tą jednostkę
( ) – wzorcowa (graniczna) funkcja produkcji
– wektor nieznanych parametrów
– nieefektywność techniczna j-tej jednostki
143
S.W. Bauer, A.N. Berger, G.D. Ferrier, D.B. Humphrey, Consistency conditions for regulatory analysis
of financial institutions: a comparison of frontier efficiency methods, ”Journal of Economics and Business”
1998, t. 50, s. 94-96. 144
M. Kisielewska, Charakterystyka wybranych metod pomiaru efektywności bazujących na krzywych
efektywności, Zeszyty Naukowe Akademii Ekonomicznej we Wrocławiu, 2005, nr 4, s. 4-6.
poziom graniczny SFA
nakłady x
efekty y
błąd danych
nieefektywność
błąd danych
nieefektywność
C
E
D A
B poziom graniczny DFA
63
W metodzie punktem wyjścia jest oszacowanie funkcji produkcji dla modelu regresji OLS,
gdzie wartości są ustalane na podstawie wartości przeciętnych, a metoda COLS podwyższa
stosowane kryteria, przesuwając wartość średnią w stronę najlepszych wyników145
. Ideę
skorygowanej metody najmniejszych kwadratów zilustrowano na rysunku 2.8.
Rysunek 2.8. Ilustracja graficzna metody COLS
Źródło: V. Sarafidis, An Assessment of Comperative Efficiency Measurment Techniques, Europe Economics,
2002, s. 9, http://europe-economics.com/publications/efficiency_measurement.pdf [25.08.2011].
Wskaźnik produktywności obiektu D leżącego na krzywej COLS wynosi 100%.
Pozostałe obiekty są nieefektywne. Im większa odległość od krzywej COLS, tym wyższa
nieefektywność. Obiekty A, C położone powyżej krzywej OLS uzyskują wyniki poniżej
przeciętnych oraz wykazują najwyższy poziom nieefektywności.
Metody parametryczne nie są uniwersalne; są użyteczne w wypadkach, gdy możliwe
jest oszacowanie funkcji produkcji oraz rozkładu błędów. Niezbędna jest również znajomość
ważności przyjmowanych założeń oraz dokładne dostrojenie wag ustalonych dla każdej
zmiennej, co narzuca konieczność analizowania dużej liczby danych.
Metody nieparametryczne pomiaru produktywności wykorzystują techniki
programowania liniowego. Zakładają one brak wpływu składnika losowego, a więc
nie uwzględniają wpływu czynników przypadkowych oraz potencjalnych błędów pomiaru.
Metody te nie przyjmują również żadnych założeń odnośnie zależności funkcyjnej pomiędzy
nakładami i efektami. W metodach nieparametrycznych na podstawie badań empirycznych
estymuje się krzywą możliwości produkcyjnych, którą traktuje się jako empiryczną funkcję
produkcji. Podmioty znajdujące się na krzywej granicznej uznawane są za produktywne,
a wskaźnik ich produktywności wynosi 100%. Odległość między punktem charakteryzującym
145
S.C. Kumbhakar, C.A. Knox Lovell, dz. cyt., s. 70.
OLS
C E
D B
COLS
A
nakłady x
efekty y
nieefektywność
64
daną jednostkę a estymowaną krawędzią dostarcza informacji na temat miary nieefektywności.
Możliwość porównania do najlepszego obiektu lub grupy produktywnych podmiotów pozwala
nieefektywnym jednostkom zlokalizować obszary działalności, które należy usprawnić146
.
U źródeł formalizacji metod parametrycznych i nieparametrycznych analizy
produktywności i efektywności znajdują się badania G. Debreu147
, T.C. Koopmansa148
,
M.J. Farella149
oraz R.W. Sheparda150
. Do metod nieparametrycznych zalicza się: metodę
granicznej analizy danych (obwiedni danych) DEA (ang. Data Envelopment Analysis)
oraz metodę swobodnego ustalania obwiedni FDH (ang. Free Disposal Hull).
Metoda DEA została po raz pierwszy zaprezentowana w 1978 roku przez twórców
pierwszego modelu A. Charnesa, W.W. Coopera i E. Rhodesa151
. Estymacja miar
produktywności metodą DEA ma charakter deterministyczny, uwarunkowany przyczynowo.
W metodzie obiektami analizy są tak zwane jednostki decyzyjne DMU (ang. Decision Making
Units)152
. Przedmiotem analizy jest pomiar i analiza poziomu produktywności określonej
liczby jednostek DMU, które korzystają z m nakładów i produkują s efektów. Miarą
produktywności jest relacja produktywności danego obiektu do maksymalnej
produktywności, jaką może osiągnąć w określonych warunkach technologicznych. Ogólny
model metody DEA przedstawia się następująco:
1
1
s
rj rj
rj m
ij ij
i
v y
P
u x
(2.3)
gdzie:
– wektor wejść (nakładów/zasobów) zużywanych przez j-tą jednostkę
– wektor wyjść (efektów) uzyskiwany przez j-tą jednostkę
– wektor wag przypisanych każdemu efektowi
– wektor wag przypisanych każdemu efektowi
– liczba rodzajów zasobów zużywanych
– liczba typów efektów wytwarzanych
– liczba DMU
146
E. Thanassoulis, Introduction to the theory and application of Data Envelopment Analysis, Kluwer Academic
Publishers, Massachusetts 2003, s. 9-12. 147
G. Debreu, The coefficient of resource utilization, “Econometrica” 1951, t. 19, s. 273-292. 148
T.C. Koopmans, An analysis of production as an efficient combination of activities, [w:] Activity analysis
of production and allocation, cowles commission for research in economics, T.C. Koopmans (red.), Wiley,
New York 1951, s. 33-97. 149
M.J. Farrell, The measurement of the productive efficiency, “Journal of the Royal Statistical Society” 1957,
seria A, nr 3, s. 253-290. 150
C. Daraio, L. Simar, dz. cyt., s. 27. 151
A. Charnes, W.W. Cooper, E. Rhodes, Measuring the efficiency of decision making units, “European Journal
of Operational Research” 1978, t. 2, s. 429-444. 152
R. Ramanathan, An introduction to data envelopment analysis. a tool for performance measurement, Sage
Publications, New Delhi, Thousand Oaks, London 2003, s. 25.
65
Metoda DEA nie wymaga uprzedniej znajomości wag przypisanych do cech.
W trakcie obliczeń, są wyszukiwane wagi maksymalizujące produktywność każdego obiektu
za pomocą metod programowania liniowego, przy uwzględnieniu pewnych ograniczeń
określonych przez pozostałe jednostki w analizowanej grupie. Graficzną ilustrację istoty
metody przedstawiono na rysunku 2.9.
Rysunek 2.9. Ilustracja graficzna metody DEA oraz FDH
Źródło: opracowanie własne na podstawie: W.W. Cooper, L.M. Seiford, J. Zhu, Handbook on Data Envelopment
Analysis, Kluwer Academic Publishers, Boston, Dordrecht, London 2004, s. 10; B.U. Park, L. Simar, C. Weiner,
The FDH estimator for productivity efficiency score, “Econometric Theory” 2000, t. 16, t. 855-877.
Obiekty A, C, E wyznaczają krzywą produktywności, co oznacza, że ich wskaźnik
produktywności wynosi 100%. Jednostki B, D wykazują nieefektywność proporcjonalną
do odległości od krzywej granicznej.
Technologia graniczna dostarcza prostych metod obliczania odległości do granicy.
Ten sposób pomiaru odległości do granicy pozwala na interpretację wyników
przez ujawnienie możliwych proporcjonalnych zmian dopuszczalnych w działalności
technologii danego obiektu.
Metoda DEA należy do jednych z najczęściej stosowanych do wyznaczania poziomu
produktywności obiektów gospodarczych i publicznych. Jest też najpowszechniej rozwijaną
metodą analizy produktywności zarówno w zakresie metodologicznym, jak i jej zastosowań153
.
Metoda FDH jest odmianą metody DEA. Metoda swobodnego ustalania obwiedni
została zaproponowana w 1984 roku przez D. Deprinsa, L. Simara i H. Tulkensa154
. W tej
153
A. Emrouznejad, B.R. Parker, G. Tavares, Evaluation o fresearch in efficiency and productivity: A survey
and analysis of the first 30 years of scholarly literature in DEA, “Socio-Economic Planning Sciences” 2008,
t. 42, s. 151-157. 154
C. Daraio, L. Simar, dz. cyt., s. 33-38 .
nakłady x
efekty y
A
B
C
D E
krzywa produktywności DEA
nieefektywność
krzywa produktywności FDH
66
metodzie nie uwzględnia się założenia o wypukłości zbioru możliwości produkcyjnych,
dlatego też otrzymana w niej krzywa efektywności znajduje się wewnątrz krzywej
wyznaczonej w metodzie DEA (rysunek 2.9). Model ma charakter dyskretny i punktem
odniesienia dla obiektu nieefektywnego nie jest punkt na krzywej ciągłej, lecz punkt
wyznaczony przez obiekt produktywny. Otrzymana przy użyciu metody FDH wycena
efektywności technicznej ma bardziej ogólny charakter niż przy użyciu metody DEA155
.
Istnienie różnych metod oceny produktywności pokazuje, że nie istnieje jeden
uniwersalny miernik produktywności. W wielowymiarowych układach danych, zarówno
po stronie nakładów, jak i efektów, tradycyjne metody analizy wskaźnikowej zawodzą.
Również metody bazujące na konstrukcji modeli ekonometrycznych wykazują w tym
wypadku szereg słabości. Dzieje się tak, ponieważ metody wskaźnikowe i ekonometryczne
zakładają znajomość wielkości nakładu, jaki został bezpośrednio przeznaczony na uzyskanie
poszczególnych efektów. Natomiast funkcja produkcji w sektorze naukowym nie jest
dostatecznie rozpoznana, więc tendencyjna i niespójna estymacja może prowadzić
do nieprawidłowego określenia parametrów. Ponadto, w wypadku regresji funkcji produkcji
na ogół nie jest możliwe wspólne oszacowanie wpływu wielu nakładów na wiele efektów156
.
Ograniczenia te skutecznie rozpatrywane są w modelach nieparametrycznych.
Produktywność jednego obiektu szacowana jest w odniesieniu do wyników innych obiektów,
co skutkuje niekoniecznością tworzenia założeń dotyczących produktywności a priori. Istotną
korzyścią stosowania metod nieparametrycznych jest możliwość ich zastosowania w wypadku
wielu wejść i wielu wyjść.
Metody nieparametryczne, w szczególności metoda DEA, znalazła szerokie
zastosowanie w ocenie produktywności sektora publicznego, gdzie istnieje konieczność
stosowania cech wyrażonych w różnych jednostkach. Przegląd literatury wskazuje metodę
DEA jako najbardziej trafną do pomiaru, oceny i analizy produktywności naukowej.
Przykłady zastosowań wymienionych w rozdziale metod zaprezentowano w tabeli 2.1.
155
C. Daraio, L. Simar, dz. cyt., s.2-3. 156
C. Salerno, What we know about the efficiency of higher education institutions: The best evidence, The Center for
Higher Education Policy Studies University of Twente, s. 23-24, http://doc.utwente.nl/47097/1/bhw-99-bgo99.pdf
[17.04.2013].
67
Tabela 2.1. Publikacje z przykładami zastosowania metod pomiaru produktywności nauki
METODY INDEKSOWE
G. Abramo, T. Cicero, C.A. D‟Angelo, A sensitivity analysis of research institutions’ productivity rankings
to the time of citation observation, “Journal of Infometrics” 2012, t. 6, s. 298-306.
G. Abramo, C.A. D‟Angelo, A. Caprasecca, Allocative efficiency in public research funding: Can bibliometrics
help?, “Research Policy” 2009, t. 38, s. 206-215.
H.F. Moed, New developments in the use of citation analysis in research evaluation, “Archivum Immunologiae
et Therapiae Experimentalis” 2009, t. 57, s. 13-18.
L. Bornmann, R. Mutz, C. Neuhaus, H.D. Daniel, Citation counts for research evaluation: standards of good
practice for analyzing bibliometric data and presenting and interpreting results, “Ethics In Science
And Environmental Politics” 2008, t. 8, s. 93-102.
Ç. Önder, M. Sevkli, T. Altinok, C., Tavukçuoğlu, Institutional change and scientific research: A preliminary
bibliometric analysis of institutional influences on Turkey’s recent social science publications, “Scientometrics”
2008, t. 76, nr 3, s. 543-560.
L.H. Barrow, J. Settlage, P.J. Germann, Institutional research productivity in science education for the 1990s:
Top 30 rankings, “Journal of Science Education and Technology” 2008, t. 17, s. 357-365.
A.J. Nederhof, Policy impact of bibliometric rankings of research performance of departments and individuals
in economics, “Scientometrics” 2008, t. 74, nr 1, s. 163-174.
Y. Hu, W. Liang, Malmquist index analysis of the dynamic changes in scientific research productivity of some
Chinese universities before and after merger, “Frontiers Education China” 2008, t. 3, nr 3, 2008, s. 429-447.
R. Wagner-Döbler, The system of research and development indicators: Entry points for information agents,
“Scientometrics” 2005, t. 62, nr 1, s. 145-153.
B. Taylor, G. Harris, Relative efficiency among South African universities: A data envelopment analysis, “Higher
Education” 2004, t. 47, s. 73-89.
G. Crespi, A. Geuna, The productivity of science, University of Sussex, 2004, s. 24 www.kurul.inet-
tr.org.tr/inovasyon/crespiost2.pdf [22.10.2013].
R.K. Toutkoushian, S.R. Porter, C. Danielson, PR. Hollis, Using publications counts to measure an institution’s
research productivity, “Research in Higher Education” 2003, t. 44, nr 2, s. 121-148.
A.C. Worthington, B.L. Lee, Efficiency, technology and productivity change in Australian universities, 1998-
2003, “Economics of Education Review” 2008, t. 27, s. 285-298.
R.K. Toutkoushian, S.R. Porter, C. Danielson, P.R. Hollis, Using publications counts to measure an institution’s
research productivity, “Research in Higher Education” 2003, t. 44, nr 2, s. 121-148.
METODY PARAMETRYCZNE
R.R. Duh, K.T. Chen, R.C. Lin, L.C. Kuo, Do internal controls improve operating efficiency of universities?,
”Annals of Operations Research” 2014, t. 221, nr 1, s. 173-195.
A.C. Zoghbi, F. Rocha, E. Mattos, Education production efficiency: Evidence from Brazilian universities,
“Economic Modelling” 2013, t. 31, s. 94-103.
Z. Daghbashyan, The economic efficiency of Swedish higher education institutions, The Royal Institute
of Technology, Centre of Excellence for Science and Innovation Studies (KTH-CESIS), Working Paper Series in
Economics and Institutions of Innovation, Stockholm 2012, nr 245,
http://www.kth.se/dokument/itm/cesis/CESISWP245.pdf [17.04.2013].
J. Wolszczak-Derlacz, A. Parteka, Efficiency of European public higher education institutions: a two-stage
multicountry approach, “Scientometrics” 2011, t. 89, 2011, s. 887-917.
G. Johnes, J. Johnes, Higher education institutions’ costs and efficiency: Taking the decomposition a further step,
“Economics of Education Review” 2009, t. 28, s. 107-113.
G. Abramo, C.A. D‟Angelo, F. Pugini, The measurement of Italian universities’ research productivity by a non
parametric-bibliometric methodology, “Scientometrics” 2008, t. 76, nr 2, s. 225-244.
J. Horne, B. Hu, The cost efficiency impact of the university operation fund on public universities in Taiwan,
“Mathematics and Computers Simulation” 2008, t. 78, s. 266-275.
68
J.S. Kuo, Y.C. Ho, The cost efficiency impact of the university operation fund on public universities in Taiwan,
“Economics of Education Review” 2008, t. 27, s. 603-612.
P. Lenton, The cost structure of higher education in further education colleges in England, „Economics
of Education Review” 2008, t. 27, s. 471-482.
M.C.N. Castano, E.C.Cabanda, Performance evaluation of the efficiency of Philippine Private Higher
Educational Institutions: application of frontier approaches, “International Transactions in Operational
Research” 2007, t. 14, s. 431-444.
G. Kempkes, C. Pohl, The efficiency of German universities – some evidence from non-parametric
and parametric methods, Ifo Working Paper nr 36, 2006, www.ifo.de.
L. Johnes, Data envelopment analysis and its application to the measurement of efficiency in higher education,
“Economics of Education Review” 2006, t. 25, nr 3, s. 273-288.
M. Gulbrandsen, J. Smeby, Industry funding and university professors’ research performance, “Research Policy”
2005, t. 34, s. 932-950.
G. Johnes, J. Johnes, P. Lenton, E. Thanassoulis, A. Emrouznejad, An exploratory analysis of the cost structure
of higher education in England, Lancaster University Management School, Research Report RR641, 2005.
W. Chapple, A.Lockett, D. Siegel, M.Wright, Assessing the relative performance of U.K. university technology
transfer offices: parametric and non-parametric evidence, “Research Policy” 2005, t. 34, s. 369-384.
A. Crespi, A. Geuna, The productivity of science, University of Sussex, 2004, s. 25-28, www.kurul.inet-
tr.org.tr/inovasyon/crespiost2.pdf, [22.10.2013].
C. Salerno, What we know about the efficiency of higher education institutions: The best evidence, The Center
for Higher Education Policy Studies, University of Twente, 2003, http://doc.utwente.nl/47097/1/bhw-99-
bgo99.pdf [22.10.2013].
METODY NIEPARAMETRYCZNE
J. Nazarko, J. Ńaparauskas, Application of DEA method in efficiency evaluation of public higher education
institutions, “Technological and Economic Development of Economy” 2014, t. 20, No 1, s. 1-20.
M.H.C. Ho, J.S. Liu, W.M. Lu, C.C. Huang, A new perspective to explore the technology transfer efficiencies
in US universities, “Journal of Technology Transfer” 2014, t. 39, nr 2, s. 247-275.
H.-Y. Wu, J.-K. Chen, I-S. Chen, H.-H. Zhuo, Ranking universities based on performance evaluation by a hybrid
MCDM model, “Measurement” 2014, t. 45, nr 5, s. 856-880.
M.A.S. Monfared, M. Safi, Network DEA: an application to analysis of academic performance, “Journal
of Industrial Engineering International” 2013, t. 9, nr 15, s. 1-10.
S. Sunitha, M. Duraisamy, Measuring efficiency of technical education institutions in Kerala, India: A Data
Envelopment Analysis approach, [w:] Human capital and development. The Indian experience, N.S. Siddharthan,
K. Narayan (red.), Springer 2013, s. 129-145.
Z. Daghbashyan, The economic efficiency of Swedish higher education institutions, The Royal Institute
of Technology, Centre of Excellence for Science and Innovation Studies (KTH-CESIS), Working Paper Series in
Economics and Institutions of Innovation, Stockholm 2012, nr 245,
http://www.kth.se/dokument/itm/cesis/CESISWP245.pdf [17.04.2013].
S.Y. Sohn, Y. Kim, DEA based multi-period evaluation system for research in academia, “Expert Systems
with Applications” 2012, t. 39, s. 8274-8278.
G. Abramo, T. Cicero, C.A. D‟Angelo, A field-standardized application of DEA to national-scale research
assessment of universities, “Journal of Infometrics” 2011, t. 5, s. 618-628.
G. Li, Output efficiency evaluation of university human resource based on DEA, “Procedia Engineering” 2011,
t. 15, s. 4707-4711.
M. Świtłyk, Z. Mongiało, Zastosowanie metody Data Envelopment Analysis do pomiaru efektywności
na uczelniach publicznych w latach 2004-2008, „Zeszyty Naukowe Uniwersytetu Ekonomicznego w Poznaniu”
2011, nr 171, s. 375-384.
J. Urban, Measuring productivity of Polish research units: A DEA approach, [w:] Performance management
and measurement with data envelopment analysis, A. Emrouznejad, I.H. Osman, A.L. Anouze (red.), Olayan
School of Business, American University of Beirut, 2010, s. 233-238.
69
Y.M. Wang, K.S. Chin, Some alternative models for DEA cross-efficiency evaluation, “International Journal
of Production Economics” 2010, t. 128, s. 332-338.
N. Tzeremes, G. Halkos, A DEA approach for measuring university departments’ efficiency, University
of Thessaly, Paper nr 24029, 2010, 26 s., http://mpra.ub.uni-muenchen.de/24029/ [17.04.2013].
P. Tyagi, S.P. Yadav, S.P. Singh, Relative performance of academic departments using DEA with sensitivity
analysis, “Evaluation and Program Planning” 2009, t. 32, s. 168-177.
J. Nazarko, M. Komuda, K. Kuźmicz, E. Szubzda, J. Urban, Metoda DEA w efektywnym zarządzaniu podmiotami
sektora publicznego, „Badania Operacyjne i Decyzje” 2008, nr 4, s. 89-105.
W. Meng, D. Zhang, L. Qi, Q. Liu, Two-level DEA approaches in research evaluation, “The International
of Management Science” 2008, t. 36, s. 950-957.
C. Kao, H.T. Hung, Efficiency analysis of university departments: An empirical study, “The International Journal
of Management Science” 2008, t. 36, nr 4, s. 653-664.
J. Johnes, L. Yu, Measuring the research performance of Chinese higher education institutions using data
envelopment analysis, “China Economic Review” 2008, t. 19, s. 679-696.
G. Abramo, C.A. D‟Angelo, F. Pugini, The measurement of Italian universities’ research productivity by a non
parametric-bibliometric methodology, “Scientometrics” 2008, t. 76, nr 2, s. 225-244.
M.C.N. Castano, E.C. Cabanda, Performance evaluation of the efficiency of Philippine Private Higher Educational
Institutions: application of frontier approaches, “International Transactions in Operational Research” 2007, t. 14,
s. 431-444.
E.C. Wang, W. Huang, Relative efficiency of R&D activities: A cross-country study accounting for environmental
factors in the DEA approach, “Research Policy” 2007, t. 36, s. 260-273.
B.I.S. Fernando, E.C. Cabanda, Measuring efficiency and productive performance of colleges at the university
of Santo Tomas: a nonparametric approach, “International Transactions in Operational Research” 2007, t. 14,
s. 217-229.
K.H. Leitner i in., The impact of size and specialisation on universities’ department performance: A DEA
analysis applied to Austrian universities, “Higher Education” 2007, t. 53, s. 517-538.
W.D. Cook, J. Zhu, Classifying inputs and outputs in data envelopment analysis, “European Journal of Operational
Research”, t. 180, nr 2, 2007, s. 692-699.
M. Khodabakhshi, A super-efficiency model based on improved outputs in data envelopments analysis, “Applied Mathematics and Computation” 2007,t. 184, nr 2, s. 695-703.
G. Fandel, On the performance of universities in North Rhine-Westphalia, Germany: Government’s redistribution of
funds judged using DEA efficiency measures, “European Journal of Operational Research” 2007, t. 176, s. 521-533.
T. Groot, T. Garciá-Valderrama, Research quality and efficiency. An analysis of assessments and management
issues in Dutch economics and business research programs, “Research Policy” 2006, t. 35, s. 1362-1376.
G. Kempkes, C. Pohl, The efficiency of German universities – some evidence from non-parametric and parametric
methods, Institute for Economic Research, Univeristy of Munich, Working Paper nr 36, Dresden 2006,
http://www.cesifo-grous.de/ifoHome/publications/docbase/details.html?docId=14582089 [22.10.2013].
A. Bonaccorsi, C. Daraio, L. Simar, Advanced indicators of productivity of universities. An application of robust
nonparametric methods to Italian data, “Scientometrics” 2006, t. 66, nr 2, s. 389-410.
J.C. Glass, G. McCallion, D.G. McKillop, S. Rasaratnam, K.S. Stringer, Implications of variant efficiency measures
for policy evaluations in UK higher education, “Socio- Economic Planning Sciences” 2006, t. 40, s. 119-142.
M.L. Bougnol, J.H. Dulá, Validating DEA as a ranking tool: An application of DEA to assess performance
in higher education, “Annals of Operations Research” 2006, t. 145, s. 339-365.
M.G. Kocher, M. Luptacik, M. Sutter, Measuring productivity of research in economics: A cross-country study
using DEA, “Socio- Economic Planning Sciences” 2006, t. 40, s. 314-332.
J. Johnes, Data envelopment analysis and its application to the measurement of efficiency in higher education,
“Economics of Education Review” 2006, t. 25, s. 273-288.
W. Chapple, A. Lockett, D. Siegel, M. Wright, Assessing the relative performance of U.K. university technology
transfer offices: parametric and non-parametric evidence, “Research Policy” 2005, t. 34, s. 369-384.
R. Carrington, T. Coelli, D.S.P. Rao, The performance of Australian universities: conceptual issues
and preliminary results, “Economic Papers”, t. 24, nr 2, 2005, s. 145-163.
Źródło: opracowanie własne.
70
Metody indeksowe są stosowane głównie do analiz bibliometrycznych. Według
badaczy, ocena jednowskaźnikowa nie daje wiarygodnej informacji o dorobku naukowym.
Wybór decydującego wskaźnika jest w znacznym stopniu dowolny, a uzyskany obraz jest
powierzchowny i jednostronny. Zdecydowanie lepsze są systemy wielowskaźnikowe. Zbiór
dużej liczby dobrze określonych wskaźników daje stosunkowo obiektywny obraz dorobku
i reputacji. Obraz taki sugeruje profil działalności obiektu, uwidacznia jego silne i słabe strony.
Metody parametryczne znajdują zastosowanie przy pomiarze efektywności kosztowej
lub ekonomicznej. Metody nieparametryczne znajdują najszersze zastosowanie, zarówno
w analizach bibliometrycznych, jak i w analizach wielokryterialnych. Spośród proponowanych
metod porównawczych, najszersze zastosowanie mają metody DEA i SFA. Metody COLS,
DFA, TFA, FDH prezentowane są w zestawieniu porównawczym bądź uzupełniającym
z metodami wiodącymi, natomiast brak jest propozycji jednoznacznych ich zastosowań
w badaniu produktywności nauki.
Odniesienie się do założeń metody DEA i metody SFA (tabela 2.2) ułatwia wybór
jednej z nich.
Tabela 2.2. Porównanie założeń metod DEA i SFA
Kategoria porównania Data Envelopment Analysis (DEA) Stochastic Fontier Analysis (SFA)
Zmienne wiele nakładów i wiele efektów pojedynczy nakład i wiele efektów
lub wiele nakładów i jeden efekt
Algorytm programowanie liniowe regresja (zwykle za pomocą
największej wiarygodności)
Zakłócenia model deterministyczny model stochastyczny
Postać funkcyjna relacji
wejścia-wyjścia nie określa się postać funkcyjna jest określona
Wagi czynników indywidualny zestaw wag dla każdej
jednostki (nieparametryczna)
brak indywidualnego zestawu wag
(parametryczna)
Źródło: H.W. Lampe, D. Hilgers, Trajectories of efficiency measurement: A bibliometric analysis of DEA and SFA,
“European Journal of Operational Research” 2015, t. 240, p. 2.
Metoda DEA z powodzeniem stosowana jest w obszarach sektora publicznego. Liczne
przykłady aplikacji metody DEA w Polsce i na świecie prezentują analizę między innymi
jednostek sektora edukacji i szkolnictwa wyższego, bibliotek, instytucji kultury, szpitali
i zakładów opieki zdrowotnej, policji i więziennictwa. W literaturze polskojęzycznej większość
prac ma charakter poglądowy, wskazujący jedynie na możliwość zastosowania metody,
bez pogłębionej analizy i interpretacji wyników*.
* publikacje na temat zastosowań metody DEA w Polsce, będące wynikiem studiów literaturowych autorki,
przedstawiono w aneksie, załącznik 7.
71
Analiza produktywności, w tym jej pomiar, ma szczególne znaczenie w ocenie
instytucji sektora publicznego. Ograniczoność środków finansowych i brak presji
konkurencyjnej w sektorze publicznym powoduje, że zarządzanie jednostkami non-profit jest
niekiedy trudniejsze od zarządzania przedsiębiorstwami prywatnymi. Jest to rynek
reprezentujący dużą część gospodarki. Istotne staje się zatem wykreowanie stymulatorów
racjonalnego gospodarowania środkami publicznymi oraz poprawy jakości świadczonych
usług. Ocena produktywności może być traktowana jako substytut konkurencyjności
i kreować proefektywnościowe reguły wolnego rynku bez utraty korzyści płynących
z tradycyjnych zasad administracji publicznej. Obecnie w światowych badaniach
porównawczych produktywności znaczącą pozycję zajmuje metoda DEA, wskazywana
również do pomiaru produktywności nauki.
72
ROZDZIAŁ 3.
SYSTEMY OCENY JEDNOSTEK NAUKOWYCH
W WYBRANYCH KRAJACH
3.1. Uwarunkowania systemów oceny jednostek naukowych w Europie
Ostatnie dziesięciolecia były okresem istotnych przemian w systemach nauki
w Europie, które dokonywały się w wyniku rosnącego znaczenia badań naukowych
i innowacji w poszczególnych krajach oraz w skali międzynarodowej. Relatywny spadek
nakładów publicznych wraz z niewystarczającym poziomem finansowania ze środków
prywatnych, coraz szersza konkurencja skłoniły do rewidowania struktur zarządzania nauką.
W Europie, jedną z głównych sił napędowych zmian była Strategia lizbońska,
realizowana w latach 2000-2010, której nadrzędnym celem było zmniejszenie luki
rozwojowej między Europą a Stanami Zjednoczonymi i Japonią oraz konieczność podjęcia
działań w związku z rosnącą konkurencyjnością Chin i Indii – przez zwiększenie środków
na badania i rozwój dla przyspieszenia rozwoju technologicznego1. Nie osiągnięto jednak
założonego poziomu wzrostu produktywności krajów uprzemysłowionych, szczególnie
w zakresie przeznaczenia 3% PKB na działalność badawczo-rozwojową2. Nowa strategia
Europa 2020 zakłada między innymi racjonalne wykorzystanie środków publicznych, których
wielkość na badania i rozwój ma osiągnąć niezrealizowany w poprzedniej strategii poziom,
a ponadto stworzenie innowacyjnych instrumentów finansowania, wykorzystanie działalności
badawczo-rozwojowej i innowacji do rozwiązywania kwestii społeczno-gospodarczych
przez szybki wzrost transmisji wiedzy teoretycznej do praktyki gospodarczej3.
Istotny wpływ na sektor nauki miał również kryzys gospodarczy, który radykalnie
wpłynął na możliwości sprostania wyzwaniom sektora naukowego. Zmniejszenie dostępnych
zasobów publicznych skłoniło do podejmowania działań w kierunku bardziej wydajnego
i skutecznego sektora publicznego. Stało się ważne, aby aktywizować działania
naukowo-badawcze i zwiększać ich produktywność, ponieważ, jak uzasadnia F. Betz, nauka
jest kosztowna4. Wymaga środków na wynagrodzenia dla naukowców, zakup sprzętu
1 European Commission, Europe 2020 flagship initiative innovation union, communication nr 546, Brussels 2010,
http://ec.europa.eu/commission_2010-2014/geoghegan-quinn/headlines/documents/com-2010-546-final_en.pdf
[19.01.2014]. 2 Komisja Europejska, Ocena strategii lizbońskiej, SEK nr 114, Bruksela 2010, s. 3,
ec.europa.eu/europe2020/pdf/lisbon_strategy_evaluation_pl.pdf [19.09.2013]. 3 Komisja Europejska, Europa 2020. Strategia na rzecz inteligentnego i zrównoważonego rozwoju sprzyjającego
włączeniu społecznemu, KOM nr 2020, Bruksela 2010, ec.europa.eu/eu2020/pdf/1_PL_ACT_part1_v1.pdf
[19.09.2013]. 4 F. Betz, Managing science: Methodology and organization of research, Springer, New York 2011, s. 54, 107.
73
badawczego, konserwację urządzeń laboratoryjnych, badań i wsparcia administracji badań5.
Stąd podstawowym instrumentem zarządzania w sektorze nauki są nakłady na badania*.
Poziom finansowania działalności badawczo-rozwojowej w krajach europejskich oraz USA,
Japonii i Chinach w 2011 roku przedstawiono na rysunku 3.1. Wskaźnik GERD (ang. Gross
Domestic Expenditure on R&D) prezentuje całkowite wydatki na prace B+R realizowane
na terytorium kraju w danym okresie sprawozdawczym jako % PKB. Na rysunku
przedstawiono także strukturę wskaźnika GERD według sektorów. Wyznaczając wskaźnik
GERD uwzględnia się fundusze, które są sumą wszystkich rocznych inwestycji w badania
i rozwój w biznesie (ang. Business Expenditures on R&D, BERD), ośrodkach akademickich
(ang. Higher Education Expenditures on R&D, HERD) oraz w sektorach rządowym
(ang. Government Expenditures on R&D, GOVERD) i non-profit (ang. Private Non-profit
Expenditures on R&D, PNPERD).
*Turcja, Japonia 2010
Rysunek 3.1. Krajowe wydatki na badania i rozwój (GERD) w podziale na sektory
Źródło: opracowanie własne na podstawie danych: Eurostat, Erawatch (2011).
5 M. Herbst, Financing Public Universities: The case of performance funding, Higher Education Dynamics,
t. 18, Springer, Zurich 2007, s. 90.
* Patrz: rozdział 2.2.
0 0,5 1 1,5 2 2,5 3 3,5 4
CyprRumuniaBułgaria
GrecjaSłowacja
ŁotwaMalta
PolskaChorwacja
Turcja*Litwa
WęgryWłochy
HiszpaniaPortugalia
CzechyNorwegia
IrlandiaChiny
HolandiaBelgia
FrancjaEstoniaIslandia
SłoweniaUSA
AustriaNiemcy
DaniaJaponia*SzwecjaFinlandia
GERD
BERD HERD GOVERD PNPERD
Euro
pa 2
020
GE
RD
, średn
ia EU
28
=2
,04
74
Ranking krajów względem wskaźnika GERD różnicowany jest głównie przez wydatki
na działalność B+R w sektorze przemysłowym. W Europie, Finlandia oraz Szwecja mają
najwyższy udział badań w tym sektorze i są jedynymi krajami UE, w których nakłady
na badania przekroczyły w roku 2011 3% PKB. Wydatki tylko 9 krajów osiągają poziom
średniego wskaźnika dla krajów Unii Europejskiej (2,04). W krajach, gdzie wskaźnik GERD
przyjmuje wartość poniżej 1% PKB dominują publiczne wydatki B+R na działalność
w jednostkach naukowych. Poza Grecją, są to kraje, które przystąpiły do UE w 2004 roku
lub później.
Udział sektora przemysłowego jest dominujący także w zakresie źródeł finansowania
działalności badawczo-rozwojowej. Strukturę źródeł nakładów na badania i rozwój
w poszczególnych krajach przedstawiono na rysunku 3.2, w kolejności odpowiadającej
wielkości wskaźnika GERD na rysunku 3.1. Można zaobserwować, że proporcja środków
finansowych z poszczególnych źródeł jest zgodna ze strukturą inwestycji na badania i rozwój.
Rysunek 3.2. Struktura krajowych nakładów na badania i rozwój (GERD) według źródeł finansowania
Źródło: opracowanie własne na podstawie danych Eurostatu (2011).
0 10 20 30 40 50 60 70 80 90 100
CyprBułgaria
ŁotwaPolskaLitwa
GrecjaSłowacjaRumunia
CzechyChorwacjaPortugaliaNorwegiaHiszpania
WłochyTurcja
AustriaWęgry
IslandiaIrlandia
HolandiaMalta
EstoniaFrancja
SzwecjaUSA
BelgiaDania
SłoweniaNiemcy
FinlandiaChiny
Japonia*
Przemysł Fundusze rządowe Środki zagraniczne Szkolnictwo wyższe Prywatne instytucje non-profit
*Japonia 2010
b.d.
75
Zasadniczo, działalność badawcza wymaga finansowania przez rząd, przemysł
lub filantropów6. Z danych Eurostatu (rysunki 3.1 i 3.2) wynika, że o wielkości krajowych
nakładów na B+R stanowią wydatki sektora biznesowego. Środki z biznesu zwykle pozostają
w biznesie. Im niższy wskaźnik GERD, tym niższy udział funduszy z sektora
przemysłowego. W takim wypadku wzrasta udział funduszy rządowych oraz zagranicznych.
Należy jednak podkreślić, że fundusze publiczne i niepubliczne są względem siebie
komplementarne7. A. Muscio i in. przeprowadzili badania dotyczące relacji finansowania
publicznego i niepublicznego i ich wpływu na działania publicznych jednostek naukowych.
Badania empiryczne miały na celu określenie, czy presja finansowa związana
ze zmniejszeniem interwencji rządowej, wywołuje efekt substytucji, to znaczy wpływa
na poszukiwanie alternatywnych źródeł finansowania i stymulowanie interakcji między
publicznymi jednostkami naukowymi a przemysłem, czy efekt komplementarności,
czyli hamuje ich zdolność do pozyskiwania funduszy zewnętrznych. Autorzy badań wyraźnie
podkreślają, że finansowanie publiczne i finansowanie z umów badawczych
i konsultingowych są pozytywnie powiązane, co oznacza, że te dwie formy finansowania
są strategicznie komplementarne. Innymi słowy, środki publiczne mogą odgrywać ważną rolę
w stymulowaniu interakcji pomiędzy publicznymi jednostkami naukowymi a przemysłem.
W konsekwencji, obecne inicjatywy mające na celu cięcia środków publicznych jednostek
naukowych mogą negatywnie wpłynąć na współpracę uczelni z przemysłem oraz ich
zdolności pozyskiwania środków zewnętrznych. Co ciekawe, fundusze z projektów UE
są bardziej skuteczne w zwiększaniu środków prywatnych niż inne źródła finansowania
krajowego. Ponadto, autorzy wskazują na wysoki stopień trwałości środków prywatnych
w czasie, co oznacza, że zmniejszenie środków publicznych jednostek naukowych
prawdopodobnie skutkować będzie dalszym poszerzeniem obecnie istniejącej luki pomiędzy
tymi jednostkami naukowymi, które są w stanie przyciągać środki prywatne i tymi,
które nie mają tej zdolności8.
Znaczenie środków publicznych w finansowaniu działalności B+R podkreślają także
R. Viale i H. Etzkowitz. Ich zdaniem, w okresie kryzysu, gdy przemysł ogranicza swoje
wydatki na badania i rozwój, to właśnie działania rządowe na szczeblu centralnym
66
F. Betz, dz. cyt., s. 54. 7 A. Muscio, D. Quaglione, G. Vallanti, Does government funding complement or substitute private research
funding to universities?, “Research Policy” 2013, t. 42, s. 63-75. 8 Tamże, s. 74.
76
i regionalnym mogą okazać się niezbędnym wsparciem dla utrzymania i rozwoju relacji
nauka-przemysł9.
Udział środków publicznych w finansowaniu działalności jednostek naukowych jest
zatem pożądany. Zasadnicze znaczenie ma jednak poziom i forma tego finansowania.
Systemy finansowania, a zwłaszcza mechanizmy alokacji zasobów dla środków publicznych
są istotnym elementem reform systemów nauki w wielu krajach. Obecnie mechanizmy
finansowania jednostek naukowych przyjmują cztery główne formy (rysunek 3.3):
– dotacje;
– środki konkursowe;
– kontrakty rządowe i pozarządowe;
– fundusze filantropijne.
W zależności od kraju, rozwijane są różne strumienie finansowania.
Rysunek 3.3. Źródła finansów jednostek naukowych
Źródło: opracowanie własne na podstawie: Erawatch, http://erawatch.jrc.ec.europa.eu [27.11.2013].
Z przeglądu 32 krajów europejskich przeprowadzonego przez autorkę wynika,
że formy finansowania jednostek naukowych różnią się w poszczególnych krajach. Dotacja
czy granty blokowe stanowią główne źródło finansowania publicznych jednostek naukowych
w Europie. W celu rozdzielenia tych środków, niemal we wszystkich krajach stosuje się
algorytmy. W większości krajów europejskich w algorytmach finansowania wykorzystuje się
wskaźniki. Finansowanie w wyniku negocjacji i przetargów politycznych, tak zwany budżet
negocjowany, stosowany jest na przykład we Francji. System cypryjski jest przykładem
9 R. Viale, H. Etzkovitz, The capitalization of knowledge: a triple helix of university-industry-government,
Edward Elgar Publishing Ltd., Northampton, USA 2010, s. 1-2.
Władze publiczne
dotacja instytucjonalna
finansowanie celowe
finansowanie projektów
kontrakty
UE / Inne fundusze międzynarodowe
finansowanie projektów
przetargi inne
(np. fundusze filantropijne)
Przemysł/ Sektor biznesu
kontrakty badawcze / konsultacje
kontrakty szkoleniowe
fundusze filantropijne
nabycie innych usług
(wyposażenie badawcze,
konferencje)
Studenci
czesne i opłaty
administracyjne
Fundacje / organizacje
charytatywne
darowizny, finansowanie
projektów, usług
Inne (np. absolwenci)
opłaty, usługi, finansowanie filantropijne
JEDNOSTKI NAUKOWE
77
systemu finansowania, w którym poziom finansowania ustalany jest na podstawie poziomu
finansowania z poprzedniego okresu oraz wielkość zasobów. Z kolei system kontraktowy
realizowany jest w Danii. Finansowanie filantropijne popularne jest przykładowo w USA,
Szwecji, Danii, we Włoszech. Znaczny udział w finansowaniu badań naukowych w Wielkiej
Brytanii mają organizacje charytatywne.
Formy finansowania są różnie uwarunkowane przez wewnętrzne krajowe zasady.
Szczególnie formy finansowania publicznego przyjmują wiele wariantów. Klasyfikację form
finansowania publicznego według J. Jabłeckiej przedstawiono w tabeli 3.1.
Tabela 3.1. Klasyfikacja form publicznego finansowania działalności naukowej
Kryterium Rodzaj finansowania
Obiekt finansowania instytucjonalne (podmiotowe), przedmiotowe, strukturalne
Swoboda dysponowania środkami warunkowe, finansowanie bezwarunkowe
Charakter powiązań dotacja, kontrakt
Zasady przyznawania funduszy w wyniku negocjacji i przetargów politycznych (budżet
negocjowany), na podstawie poziomu finansowania z poprzedniego
okresu (tzw. metoda historyczna lub przyrostowa), na podstawie
kalkulacji kosztów i planu rzeczowego realizacji zadań, konkursowe
na podstawie oceny ex ante, konkursowe na podstawie oceny ex post
Zasięg instytucji finansującej międzynarodowe, krajowe, regionalne, lokalne
Forma organizacji system scentralizowany, system zdecentralizowany
Liczba źródeł finansowania dwa strumienie finansowania (dotacje podstawowe, granty
(finansowanie konkursowe), trzy strumienie finansowania (dotacje
podstawowe, granty oraz środki zewnętrzne, uzupełniające, dotacje
i kontrakty pozarządowe)
Źródło: opracowanie własne na podstawie: J. Jabłecka, Innowacje w sposobie finansowania uniwersytetów.
Analiza na przykładzie wybranych krajów OECD, „Problemy Zarządzania” 2004, t. 1, s. 62-81.
Dotacja instytucjonalna to podstawowa forma finansowania jednostek naukowych
(ang. core funding, floor funding), przekazywana bezpośrednio przez ministerstwo
odpowiedzialne za naukę, w celu umożliwienia realizacji działalności naukowej
w podstawowym zakresie. Przyjmuje różne formy w zależności od poziomu i sposobu
różnicowania dotacji. Występuje głównie jako10
:
ogólna dotacja bezwarunkowa (ang. block grant, lump sum), gdzie dysponowanie
środkami przyznanej dotacji nie jest zastrzeżone szczegółowymi warunkami; jest
to forma finansowania stosowana w sytuacji obfitych zasobów;
dotacja z wyszczególnieniem kategorii kosztów (ang. indicator-based, formula-based,
formula-driven), szacowana na podstawie kosztów bieżących i inwestycji; algorytm
finansowania może być oparty na wskaźnikach wejściowych (zasobach) lub wzorcach
historycznych, gdzie punktem odniesienia dla ustalenia poziomu finansowania jest
10
J. Jabłecka, Innowacje w sposobie finansowania uniwersytetów. Analiza na przykładzie wybranych krajów
OECD, „Problemy Zarządzania” 2004, t. 1, s. 65-68; M. Herbst, Financing public universities: the case
of performance funding, Higher Education Dynamics, t. 18, Springer, Zurich 2007, s. 65-76.
78
poziom z roku poprzedniego; swoboda dysponowania środkami ograniczona jest rygorem
przestrzegania zaplanowanych kosztów; system ten dominował pod koniec XX wieku,
obecnie jednak odchodzi się od tego typu finansowania;
dotacja oparta na algorytmie, ustalana na podstawie oceny nakładów i uzyskiwanych
efektów działalności naukowej w określonych czasie (ang. performance-based);
kategoria finansowania ustalana może być na podstawie oceny wskaźników wyjściowych
(efektów), poziomu produktywności jednostek naukowych, oceny jakości, bądź
stosowane mogą być kryteria mieszane; finansowanie ma charakter selektywny
i konkurencyjny, gdzie wysokość dotacji zależy od rangi określonej na podstawie
określonych wskaźników związanych z wynikami;
finansowanie celowo-zadaniowe, może występować w formie dotacji lub kontraktowania
na realizację programów określonych w założeniach strategicznych kraju; ten rodzaj
finansowania łączony jest z innym typem finansowania instytucjonalnego; występuje
tu zwiększona kontrola wydatkowania środków przez ich celowe ukierunkowanie.
W krajach europejskich dominuje system dualny obejmujący finansowanie blokowe
oraz finansowanie oparte na konkursach. W ostatnich latach obserwuje się stopniowe
przechodzenie od pełnego finansowania instytucjonalnego w kierunku finansowania
konkursowego.
We wszystkich krajach dominuje sektor publiczny, jednak udział sektora prywatnego
stale się zwiększa. Sprzyja temu lokalizacja dużych koncernów przemysłowych, które
podnoszą wskaźniki BERD, ale i współpracują z podmiotami publicznymi.
We wszystkich krajach środki na określone projekty lub programy badawcze przyznaje
się na zasadach konkurencyjnych. W kilku krajach ten mechanizm podziału środków stanowi
główne źródło środków publicznych na badania. Niemal wszystkie kraje przyznają również
dotacje instytucjonalne na badania, które nie są związane z określonymi projektami
badawczymi. Podstawą algorytmów finansowania blokowego instytucjonalnego w niektórych
krajach jest skala działalności jednostki naukowej, lecz najbardziej znaczące formy
finansowania publicznego – w ramach nowego sposobu zarządzania zorientowanego na rynek
– przyjęły formę finansowania opartego na wynikach (ang. performance-based funding)11
.
Alokację zasobów opartą na wynikach należy rozpatrywać w szerszym kontekście
alokacji zasobów opartych na wskaźnikach. Analiza oparta na wynikach ma miejsce
wówczas, gdy wskaźniki związane są z alokacją zasobów, tj. do finansowania opartego
11
M. Herbst, dz. cyt., s. 67.
79
na wynikach lub budżetowania, niezależnie od tego czy są to wskaźniki określające relację
efektów do nakładów (efektywność, produktywność)12
.
Według M. Herbsta, uzasadnieniem finansowania na podstawie wyników jest
założenie, że finansowane powinny być jednostki „manifestujące” swoją produktywność.
Efektywniej działające jednostki powinny otrzymywać więcej niż jednostki mniej efektywne,
co powinno stanowić podstawę ich przewagi konkurencyjnej i aktywizacji działalności
naukowej. Nagradzane powinny być efekty, a nie nakłady. Innymi słowy, nakłady powinny
dynamizować efekty. Herbst podkreśla także, że dobrze finansowany system działa sprawniej,
szczególnie w obrębie jednostek tej samej klasy. Należy jednak pamiętać, że finansowanie
wyników nie ma służyć jako substytut sił rynkowych, ponieważ sprzyja bardziej
cementowaniu istniejących struktur, aniżeli promowaniu wydajności13
.
W niektórych krajach jedynie część środków publicznych przyznaje się adekwatnie
do osiągnięć naukowych. Wielka Brytania jest przykładem kraju, w którym dotacja blokowa
na działalność badawczą jest bezpośrednio uzależniona od wyników jednostek naukowych.
W większości krajów europejskich uwzględnia się wielkość jednostek i ich osiągnięcia naukowe.
Tylko w niektórych krajach występuje trzeci strumień finansowania – zewnętrzny,
przykładowo w Szwajcarii i Luksemburgu. Z uwagi na duży udział funduszy z sektora
przemysłowego, wzrasta presja polityczna w publicznych jednostkach naukowych
do zintensyfikowania interakcji jednostek naukowych z przemysłem w celu powiększenia
możliwości finansowania ich badań. Wiąże się to z przyjęciem przez jednostki naukowe,
oprócz tradycyjnych funkcji prowadzenia badań naukowych i kształcenia, tak zwanej trzeciej
misji (ang. third mission), czyli zaangażowanie się w działania przyczyniające się do wzrostu
gospodarczego i konkurencyjności przez bezpośredni transfer wiedzy. Jednostki naukowe
zwiększają nacisk na: poszerzanie form przedsiębiorczości akademickiej, powoływanie
uniwersyteckich spółek spin-off, czy generowanie patentów lub licencji. Ostatnio, więcej
uwagi poświęca się też innym kanałom współpracy pomiędzy uczelniami a przemysłem,
takim jak kontrakty badawcze i działalność konsultingowa, charakteryzujących się wyższym
stopniem relacyjnych powiązań, zdolnych do wywoływania efektów uczenia się przez
interakcje14
. Te formy trzeciej misji odzwierciedlone są w zwiększonym trzecim strumieniu
finansowania (ang. third-party funding) w budżecie jednostek naukowych. Ten rodzaj
finansowania ma swoje źródło u użytkowników wiedzy i technologii z otoczenia zewnętrznego.
12
M. Herbst, dz. cyt., s. 65. 13
Tamże, s. 90. 14
A. Bonaccorsi, L. Secondi, E. Setteducati, A. Ancaiani, dz. cyt., s. 170-171.
80
Z przeglądu przeprowadzonego przez autorkę wynika, że mechanizmy i formy
finansowania zależne są od sposobu organizacji systemów nauki. Złożoność tych systemów
wynika przede wszystkim ze zróżnicowania podmiotów w nim uczestniczących i relacji
między tymi podmiotami. Poza takimi krajami jak Belgia, Francja i Niemcy, w Europie
dominują silnie scentralizowane systemy nauki. Władze publiczne odgrywają centralną rolę
w regulowaniu i koordynacji rozwiązań w systemach nauki w całej Europie. Ogólnie przyjęty
model struktury systemu nauki opiera się na czterech poziomach (rysunek 3.4).
Rysunek 3.4. Model systemu nauki w Europie
Źródło: opracowanie własne na podstawie przeglądu modeli europejskich krajowych systemów nauki, Erawatch,
http://erawatch.jrc.ec.europa.eu [10.2013-12.2013].
Parlament i rząd krajowy są odpowiedzialne za podejmowanie decyzji na najwyższym
szczeblu. Zwykle dotyczy to ustalenia poziomu środków finansowych z budżetu państwa.
Decyzje te często wspomagane są przez rady i agencje doradcze. Ministerstwa działają
na poziomie operacyjnym, będąc odpowiedzialnymi za ustanawianie programów
badawczych, implementację polityki naukowej. Trzeci poziom wykonawczy stanowią agencje
finansowania nauki oraz monitorujące. Czwarty poziom to organizacje realizujące działalność
naukowo-badawczą, czyli ośrodki akademickie, krajowe akademie nauk i ich instytuty,
publiczne instytuty badawcze oraz ośrodki przemysłowe.
O potencjale badawczo-rozwojowym kraju stanowi poziom i jakość jednostek
naukowych. Potencjał badawczo-rozwojowy stanowi podaż wyników badań naukowych,
które zwiększają zasób wiedzy w samej nauce i podnoszą innowacyjność gospodarki. Wpływ
na to ma liczba jednostek prowadzących działalność tego typu, zasoby kadrowe i ponoszone
• parlament
Poziom polityczny
• ministerstwa
• agencje
Poziom operacyjny
• agencje finansujące lub/i nadzorujące programy
• agencje monitorujące
Poziom wykonawczy
• ośrodki akademickie
• krajowe akademie nauki
• publiczne instytuty badawcze
• ośrodki przemysłowe
Jednostki naukowe
81
nakłady. Liczba i struktura publicznych jednostek naukowych jest dość zróżnicowana
w krajach europejskich (tabela 3.2). W większości krajów europejskich badania naukowe
są realizowane głównie w ośrodkach akademickich. Jedynie w Danii większość badań
naukowych jest realizowanych w sektorze prywatnym15
.
Tabela 3.2. Liczba jednostek naukowych w wybranych krajach europejskich
Kraj
Liczba publicznych jednostek naukowych (2012) Populacja
[mln] (2013) ośrodki
akademickie
instytuty
badawcze Łącznie
Niemcy ~300 264 ~564 80,5
Francja 83 13 96 65,6
Wielka Brytania 115 98 213 63,9
Włochy 67 13 80 59,7
Hiszpania 50 582 632 46,7
Polska 132 186 318 38,5
Rumunia 56 179 235 20,0
Holandia 53 95 148 16,7
Belgia 55 209 264 11,2
Grecja 34 31 65 11,1
Czechy 26 54 80 10,5
Portugalia 30 · · 10,5
Węgry 28 131 159 9,9
Szwecja 33 28 61 9,6
Austria 43 272 315 8,4
Szwajcaria 21 28 49 7,9
Bułgaria 37 90 127 7,3
Dania 8 7 15 5,6
Słowacja 23 64 87 5,4
Finlandia 41 18 59 5,4
Norwegia 39 113 152 4,95
Irlandia 21 4 25 4,6
Chorwacja 20 26 46 4,2
Litwa 15 45 60 3,0
Łotwa 18 138 156 2,24
Słowenia 3 47 50 2,06
Estonia 16 24 40 1,3
Cypr 3 12 15 0,87
Luksemburg 1 4 5 0,5
Malta 2 2 4 0,4
Źródło: opracowanie własne na podstawie: Erawatch, GUS, Forskning.se.
Analizując liczbę ośrodków akademickich, należy przyjąć, że jest to liczba uczelni
publicznych o różnym profilu. Strukturalnie wyodrębnia się w ramach każdej co najmniej
kilka obszarów badawczych. Ponieważ jednak jest to zorganizowane różnie, brak jest danych
szczegółowych na ten temat. Natomiast liczba ośrodków akademickich jest zależna
od wielkości populacji danego kraju.
15
Private sector interaction in the decision making processes of public research policies: Denmark,
http://ec.europa.eu/invest-in-research/pdf/download_en/psi_countryprofile_denmark.pdf [22.11.2013].
82
W wypadku instytutów badawczych, przeważnie dominujących jest kilka ośrodków
w kraju, na które przeznaczana jest większość środków finansowych. Głównie
są to państwowe akademie nauk, w ramach których są zorganizowane zależne ośrodki
badawcze, lub inne instytuty o dużej skali działania lub obszarach naukowych strategicznych
dla danego kraju. Pozostałe ośrodki mają charakter zwykle regionalny lub lokalny.
Przykładem kraju, w którym instytuty badawcze są silnie rozproszone jest Hiszpania.
Liczba jednostek naukowych w systemie determinuje złożoność instrumentów
finansowania. Poszczególne kraje różnią się w zakresie organizacji systemów nauki
i sposobów finansowania jednostek naukowych. Te uwarunkowania mają wpływ
na stosowane systemy oceny i ewaluacji jednostek naukowych.
W wielu krajach Europy obowiązują ogólnokrajowe systemy ewaluacji oparte
na ocenie jakościowej, ilościowej bądź formie mieszanej. Ewaluacja instytucjonalna
w zależności od kraju stanowi podstawę decyzji finansowanych lub/i decyzji zarządczych.
Udział finansowania instytucjonalnego badań naukowych różni się pomiędzy poszczególnymi
krajami. Z tych uwarunkowań wynikają różnice w stosowanych systemach oceny. Wyraźnie
zauważa się rozwój funduszy konkursowych, lecz widzi się też potrzebę wprowadzenia
finasowania statutowego. W Wielkiej Brytanii w latach 2013-2014 dotacja instytucjonalna
ma stanowić około 65% przychodów jednostek naukowych16
. Alokacja dotacji
instytucjonalnej dokonywana jest na podstawie oceny jakościowej i względnych kosztów
badań w poszczególnych obszarach naukowych. W Szwecji i Norwegii dostrzega się
znaczenie dotacji instytucjonalnej i obecne rozwijane są w tych krajach systemy oceny
jednostek naukowych w kontekście alokacji środków publicznych. W Holandii finansowanie
instytucjonalne stanowi 60% funduszy publicznych na badania17
. Ośrodki akademickie
w Finlandii otrzymują dotację rządową, która stanowi 64% ich finansów18
.
Rezultaty działalności naukowej są wypadkową zasobów i struktury instytucji,
w której są prowadzone badania. Kraje różnią się wielkością i jakością naukowej produkcji.
Wynika to z różnych czynników, ale badania pokazują, że istnieje istotna korelacja pomiędzy
wydatkami publicznymi na badania a wskaźnikami cytowań19
.
16
Higher Education Founding Council for England (HEFCE), How we fund research,
http://www.hefce.ac.uk/whatwedo/rsrch/howfundr/ [22.11.2013]. 17
Platform on research and innovation policies and systems,
http://erawatch.jrc.ec.europa.eu/erawatch/opencms/information/country_pages/nl/country [21.11.2013]. 18
Education, research and innovations in Finland, http://www.research.fi/en/innovationsystem.html
[21.11.2013]. 19
A. ab Iorwerth, Methods of Evaluating University Research Around the World, Department of Finance,
Canada, Working Paper 2005-04, s. 17, 22; O. Auranen, M. Nieminen, dz. cyt, s. 822-834.
83
3.2. Przegląd narodowych systemów oceny jednostek naukowych
Systematyczna ocena jednostek naukowych przeprowadzana jest w wielu krajach
Europy i świata. W rozdziale dokonano przeglądu systemów głównie krajów europejskich,
z uwagi na porównywalne uwarunkowania do realiów polskiego systemu nauki.
Charakterystykę poszczególnych systemów zaprezentowano w celu wskazania uzasadnienia
pewnych procedur i metodyk oraz identyfikacji dobrych praktyk. Odniesiono się także
do kontekstu międzynarodowego.
Praktyka ewaluacji działalności rządowej w sektorze nauki w krajach rozwiniętych
gospodarczo sięga lat pięćdziesiątych i wiąże się, ogólnie, z opieraniem działalności
na ocenach porównujących docelowe rezultaty z uzyskanymi efektami. Problematyka
wdrażania, adaptowania i doskonalenia tego procesu jest dość złożona. Różne
uwarunkowania systemów nauki w poszczególnych krajach różnicują specyfikę jednostek
naukowych. Wymaga to odrębnego podejścia do praktyki oceny i ewaluacji instytucjonalnej.
Różny status, charakter i założenia systemów ewaluacji wynikają z praktycznych
potrzeb politycznych. Jak wynika z przeglądu autorki, bywa nim selektywna alokacja środków
finansowych, wyznaczenie wskaźników jakości w odniesieniu do międzynarodowych
standardów, zapewnienie stabilnych ram dla wsparcia wiodących ośrodków badawczych,
określenie przyszłości ocenianej organizacji, ustalenie jej struktury, przyjęcie programu zadań
lub zmiana profilu badawczego, bieżąca kontrola, dostarczenie informacji porównawczej
i ustalenie miary reputacji jednostek naukowych, ocena strategii, instrumentów i stylu
zarządzania agencji centralnych, uzasadnienie inwestycji publicznych, wprowadzenie zmian
do polityki naukowej bądź ocena skuteczności wdrożonych działań.
Można zaobserwować wzrost znaczenia systematycznej oceny jednostek naukowych.
Systemy oceny z reguły są przeprowadzane co kilka lat i stopniowo doskonalone w myśl
zmian zachodzących zarówno w roli społecznej nauki, jak i charakterze polityki naukowej,
a także w wyniku pogłębiania doświadczeń w zakresie metodyki oceny i ewaluacji. Można
zauważyć, że kryteria są coraz bardziej precyzyjne. Ustala się wyraźne standardy jednostek
naukowych, od najwyższego światowego lidera, przez międzynarodowego, krajowego,
po lokalnego czempiona. Od wyników oceny uzależnia się poziom finansowania
podstawowego bądź kwalifikuje się dostęp do funduszy dodatkowych, przykładowo
w Wielkiej Brytanii, Australii, Polsce, Hong Kongu czy Chinach. Inną przesłanką stosowania
oceny jest funkcja informacyjna, wydawanie opinii i komentarzy o poszczególnych
jednostkach lub obszarach naukowych, jak na przykład w Holandii, Finlandii, Szwajcarii,
Danii czy Japonii.
84
Kraje europejskie, w których wdrożono systematyczne inicjatywy oceny lub ewaluacji
instytucjonalnej jednostek naukowych zaznaczono na rysunku 3.5. W pozostałych krajach
stwierdzono brak systematycznego podejścia do analizowanego zagadnienia lub dostęp
do informacji był znacznie ograniczony.
Legenda:
kolorem szarym zaznaczono kraje, w których wdrożono systematyczne inicjatywy oceny lub ewaluacji instytucjonalnej
jednostek naukowych
Rysunek 3.5. Systematyczne inicjatywy oceny lub ewaluacji instytucjonalnej jednostek naukowych
w Europie
Źródło: opracowanie własne.
W Europie można wyróżnić dwa rodzaje systemów pomiaru działalności naukowej
jednostek naukowych. Podejście to konkretyzuje D.F.J. Cambell, który wskazuje systemy
parametryczne oraz systemy ewaluacyjne20
. W systemach parametrycznych dokonuje się
pomiaru poziomu działalności naukowej na podstawie danych ilościowych. Kluczowe
są wskaźniki dotyczące poziomu i struktury kadr i zespołów badawczych, publikacji,
patentów i innych artefaktów działalności naukowej. Liczbowa reprezentacja wyników
umożliwia zastosowanie zaawansowanych analiz statystycznych i graficznych. Wskaźniki
stosowane systematycznie przyjmują formę systemów monitorujących.
20
D.F.J. Cambell, The evaluation of university research in the United Kingdom and the Netherlands, Germany
and Austria [w:] Learning from science and technology policy evaluation. experiences from the United States
and Europe, P. Shapira, S. Kuhlmann, Edward Elgar Publishers, Northampton, Cheltenham, 2003, s. 106-107.
85
Systemy oparte na ewaluacji odnoszą się głównie do wskaźników jakościowych.
Metodycznie mogą być wsparte również wskaźnikami liczbowymi. Główne zastosowanie
mają tu oceny ekspertów. W krajach europejskich dominuje ten typ ewaluacji. Najbardziej
rozpoznawalny jest system Wielkiej Brytanii, do którego odniesienia są zauważalne
w systemach Łotwy, Estonii, Portugalii czy Włoch. Główne charakterystyki obu rodzajów
systemów zestawiono na rysunku 3.6.
Ewaluacja Parametryzacja
Metodyka
ocena ekspercka peer review,
wskaźniki ilościowe
wskaźniki ilościowe
zewnętrzna ewaluacja (możliwe
zastosowanie wskaźników ilościowych)
wewnętrzna ewaluacja
Zalety kompleksowość obiektywizm
Słabości subiektywizm fragmentaryczność
Rysunek 3.6. Zestawienie podejścia parametrycznego i ewaluacji w systemach instytucjonalnej oceny
jednostek naukowych
Źródło: opracowanie własne na podstawie D.F.J. Cambell, The evaluation of university research in the United
Kingdom and the Netherlands, Germany and Austria, [w:] Learning from Science and Technology Policy
Evaluation. Experiences from the United States and Europe, P. Shapira, S. Kuhlmann, Edward Elgar Publishers,
Northampton, Cheltenham 2003, s. 107.
Ewaluacja odnosi się z reguły do szerszego spektrum informacji. W większość
wypadków w procesie ewaluacji wyodrębnia się dwa etapy, w pierwszym następuje ocena
wskaźników ilościowych lub raportu samooceny, po czym panele ekspertów dokonują oceny
jakości wyników działalności naukowej. W drugim etapie przeprowadza się wizyty
i wywiady pogłębione. Słabością ewaluacji może być subiektywny charakter oceny
ekspertów. Ważnym elementem ewaluacji jest sformułowanie rekomendacji – dla każdej
jednostki odrębnie, dla grupy jednostek reprezentujących wyodrębnioną dziedzinę
lub dyscyplinę naukową, lub systemu nauki w kontekście instytucjonalnym.
Systemy jakościowe mają bardziej złożoną procedurę niż ilościowe. Wymagają zatem
większego nakładu pracy i finansowania. Z obserwacji wynika, że procedura ewaluacji
jest osadzona w dłuższej perspektywie czasowej, wynikającej przykładowo z konieczności
zrealizowania wizyt lub przeprowadzenia wywiadów pogłębionych.
Z przeglądu europejskich systemów przeprowadzonego przez autorkę wynika,
że systemy silnie zorientowane na ocenę ekspercką wprowadzone zostały w krajach
o wieloletnich doświadczeniach w praktyce ewaluacji. Systemy stosowane w wybranych
krajach europejskich i pozaeuropejskich zestawiono w tabeli 3.3.
86
Tabela 3.3. Modele oceny instytucjonalnej jednostek naukowych w wybranych krajach europejskich
i pozaeuropejskich
Kraj Nazwa systemu Rodzaj
systemu
Austria
Belgia,
Region Flamandii The Special Research Fund key (BOF-key) parametryczny
Bułgaria
Chorwacja Reakredytacja (akredytacja) publicznych jednostek naukowych mieszany
Cypr
Czechy
Ocena rezultatów organizacji badawczych
(systematyczna ewaluacja w celu powiązania z finansowaniem
planowana jest na rok 2014-2016)
Dania
Estonia Evaluating institutional research parametryczny
Finlandia
Francja Ewaluacja AERES ewaluacja
Grecja Ewaluacja prowadzona przez Hellenic Quality Assurance Agency
for Higher Education (QAAHE) ewaluacja
Hiszpania
Holandia Standard Evaluation Protocol (SEP) ewaluacja
Irlandia
Litwa Ewaluacja wyników instytucji naukowych mieszany
Luksemburg
Ewaluacja coroczna publicznych instytutów badawczych oparta
na peer review z rekomendacjami, uniwersytety poddawane są
ewaluacji zewnętrznej zleconej ekspertom międzynarodowym
ewaluacja
Łotwa Latvia: Research Assesment Excersise RAE ewaluacja
Malta · ·
Niemcy Ewaluacja instytucji naukowych ewaluacja
Norwegia Model instytucjonalnej oceny w przygotowaniu
Polska Ocena parametryczna MNiSW parametryczny
Portugalia Research Unit Evaluation parametryczny
Rumunia Ocena instytucjonalna jednostek naukowych ·
Słowacja Ewaluacja jednostek szkolnictwa wyższego oraz ewaluacja
jednostek Słowackiej Akademii Nauk ·
Słowenia · ·
Szwajcaria · ·
Szwecja
Węgry
Wielka Brytania Research Excellence Framework (REF) ewaluacja
Włochy The Research Evaluation Exercise ewaluacja
Australia Excellence in Research for Australia (ERA) ewaluacja
USA
Południowa Korea Research Assessment Excercise (RAE) ewaluacja
Hong Kong RAE ewaluacja
Chiny RAE ewaluacja
Tajwan RAE ewaluacja
Nowa Zelandia Performance-Based Research Fund (PBRF) ewaluacja
Źródło: opracowanie własne.
Jednym z najbardziej zaawansowanych systematycznych systemów oceny działalności
naukowej w Europie jest system Wielkiej Brytanii. Rozwijany od roku 1986 system RAE
(ang. Research Assessment Excercise) obecnie został przekształcony w system REF
(ang. Research Excellence Framework).
87
Przez system oceny działalności naukowej w Wielkiej Brytanii podejmuje się próbę
stymulowania pożądanego rozwoju jednostek naukowych przez dostrzeganie i promowanie
współpracy naukowej, interdyscyplinarnego charakteru badań, rozróżnianie specyfiki wyników
naukowych w dyscyplinach naukowych, uwzględnianie różnych form i przejawów działalności
naukowej – oprócz wskaźników bibliometrycznych. Jakościowy charakter oceny pozwala na
kształtowanie indywidualnego charakteru działania jednostek naukowych i zachowanie
autonomii w sposobie realizowania działań statutowych. Ocena jakościowa wymaga złożonej
procedury poczynając od określenia metodyki i kryteriów ewaluacji, doboru i zaangażowania
ekspertów (wykluczając konflikt interesów), zebrania i weryfikacji raportów jednostek, analizy
i oceny jednostek, zachowania możliwie najwyższego poziomu obiektywizmu oraz poufności.
Jest to proces długotrwały. System ewaluacji w Wielkiej Brytanii ma charakter
bezprecedensowy. Możliwość uwzględnienia zróżnicowanych form wyników pozwala
na uniknięcie wąskotorowego rozwoju jednostek naukowych, gdyż naturalną tendencją
ocenianych obiektów jest koncentrowanie działań na kryteriach oceny.
System REF przeprowadzany jest przez cztery brytyjskie organy finansowania
szkolnictwa wyższego i nauki: Radę Finansowania Szkolnictwa Wyższego w Anglii
(ang. Higher Education Funding Council for England, HEFCE), Szkocką Radę Nauki
(ang. Scottish Funding Council, SFC), Radę Finansowania Szkolnictwa Wyższego Walii
(ang. Higher Education Funding for Wales, HEFCW) oraz Departament Edukacji
i Doskonalenia Zawodowego Irlandii Północnej (ang. Department for Employment
and Learning, Northern Ireland, DEL).
Podobnie do poprzedniego systemu RAE, obecny system oparty jest na ocenie
ekspertów, którzy dokonują oceny wyników działalności jednostek naukowych zgłoszonych w
formie ankiet. Formularze nie mają jednolitej formy, w dużej części mają charakter opisowy.
Ocenie poddawane są różnorodne formy rezultatów prac naukowo-badawczych
z ograniczeniem ich liczebności.
Ewaluacja przeprowadzana jest w czterech panelach głównych: A, B, C, D, w których
zgrupowano 36 dyscyplin tematycznych (ang. Units of Assessment, UOA), (tabela 3.4). Ocena
przeprowadzana jest jedynie wśród jednostek akademickich. Każda uczelnia może złożyć tylko
jedną aplikację w UOA. Grupy oceny z założenia są rozłączne i homogeniczne, choć ich
identyfikacja, a także kwalifikacja jednostek naukowych do poszczególnych grup nastąpiła
na podstawie oceny ekspertów. Badania interdyscyplinarne oceniane są w grupie najbliższej,
istotnej tematycznie.
88
Tabela 3.4. Grupy oceny w systemie REF
Panel Grupa oceny UOA
A 1) medycyna kliniczna
2) zdrowie publiczne, usługi zdrowotne oraz opieka podstawowa
3) zawody medyczne wspierające, stomatologia, pielęgniarstwo i farmacja
4) psychologia, psychiatria i neuronauka
5) nauki biologiczne
6) rolnictwo, weterynaria i nauki o żywności
B 7) nauki o Ziemi i środowisku
8) chemia
9) fizyka
10) nauki matematyczne
11) informatyka
12) inżynieria lotnicza, inżynieria mechaniczna, inżynieria chemiczna i inżynieria produkcji
13) elektrotechnika i elektronika, metalurgia i inżynieria materiałowa
14) inżynieria lądowa i budownictwo
15) inżynieria ogólna
C 16) architektura, ochrona i kształtowanie środowiska i planowanie przestrzenne
17) geografia, badania środowiska, archeologia
18) ekonomia i ekonometria
19) zarządzanie
20) prawo
21) politologia i studia międzynarodowe
22) praca socjalna i polityka społeczna
23) socjologia
24) antropologia i studia rozwoju
25) edukacja
26) nauki o kulturze fizycznej, rekreacja i turystyka
D 27) studia przestrzenne
28) języki nowożytne i językoznawstwo
29) język i literatura angielska
30) historia
31) klasyka
32) filozofia
33) teologia i studia religijne
34) sztuka i projektowanie: historia, praktyka i teoria
35) muzyka, teatr, taniec i sztuki performatywne
36) komunikacja, media i kultura, bibliotekoznawstwo i zarządzanie informacją
Źródło: REF2014: Assessment framework and guidance on submissions, Northhavon House, Bristol 2011, s. 49,
http://www.ref.ac.uk/pubs [29.10.2013].
W modelu REF jednostki naukowe oceniane są w trzech grupach kryteriów21
:
– rezultaty badań – ocena jakości wyników prac pod względem ich oryginalności,
znaczenia i poziomu warsztatu badawczego, z wagą 0,65;
– wpływ badań – ocena zasięgu i wpływu na gospodarkę i społeczeństwo w różnych
aspektach, z wagą 0,2;
– środowisko badawcze – ocena środowiska badawczego pod względem jego aktywności
i trwałości jego rozwoju stanowiących o poziomie wkładu w rozwój dyscypliny
naukowej lub bazy badawczej, z wagą 0,15.
21
REF2014: Assessment framework and guidance on submissions, Northhavon House, Bristol 2011, s. 6-8,
http://www.ref.ac.uk/pubs [29.10.2013]; REF2014: Panel criteria and working methods, Northhavon House,
Bristol 2012, http://www.ref.ac.uk/pubs [29.10.2013].
89
Produktami badań są artefakty prac naukowo-badawczych. Jednostki naukowe
dla każdego pracownika mogą zgłosić maksymalnie 4 rezultaty jego pracy naukowej.
Do rezultatów pracy naukowej zalicza się różne formy przejawów pracy naukowej22
:
publikacje (monografie lub rozdziały w monografiach, prace w recenzowanych
czasopismach, artykuły w materiałach konferencyjnych; recenzje, podręczniki, raporty
z badań, publikacje syntetyzujące, w tym systematyczne przeglądy, analizy, metaanalizy,
metasyntezy, artykuły przeglądowe lub podręczniki i podobne prace naukowe, gdzie
dodano znaczącą nową perspektywę, oparte na badaniach studia przypadków, prace
teoretyczne i metodologiczne; raporty badawcze dla instytucji rządowych, organizacji
charytatywnych, sektora wolontariatu, organizacji zawodowych, przemysłowych
lub handlowych inne dokumenty);
inne (nowe materiały, urządzenia, oprogramowanie, fotografie, przedmioty kultury
materialnej, spektakle, wystawy i wydarzenia, produkty, budynki, raporty techniczne,
poufne raporty, prawa własności intelektualnej, badania pochodzące z opracowania,
analizy i interpretacji baz danych bioinformatycznych; prace niedrukowane, publikowane
w mediach, wyceny technologii i inne).
Produkty badań są poddawane ocenie na trzech poziomach: oryginalności, znaczenia
dla poszerzenia wiedzy oraz metodycznym23
.
Kryteria wpływu analizowane są w kategoriach oddziaływania na gospodarkę
i społeczeństwo, w zależności od rodzaju i formy prowadzonych badań naukowych. Odnoszą
się do dwóch obszarów: zasięgu, ale nie tylko w kategoriach geograficznych, lecz także
w odniesieniu do potencjału badawczego oraz znaczenia wyników badań. Podstawowym
elementem oceny wpływu są wskaźniki cytowań, dalej raporty samooceny, studia
przypadków, opinie użytkowników badań.
Interesującym elementem oceny jest sposób oceny wpływu wyników naukowych
w obszarze nauk humanistycznych i artystycznych. Sposób oceny wpływu badań jest inny
od pozostałych obszarów naukowych, ponieważ zauważa się, iż wpływ tych badań często
ma charakter rozproszony, nieliniowy i trudno przewidywalny. Rozpatrywany jest wpływ
na jakość życia na szczeblu lokalnym, krajowym i międzynarodowym wykazanego dorobku
w zakresie oddziaływania na rozwój społeczeństwa obywatelskiego, życia kulturalnego,
edukacji, kształtowania polityki, usług publicznych oraz na rzecz publicznego dyskursu24
.
22
REF2014: Assessment framework…, dz. cyt., s. 21-28. 23
Tamże, s. 141. 24
Tamże, 143-144.
90
Przedmiotem oceny kryteriów środowiska badawczego są grupy, zespoły, jednostki
naukowe, analizowane pod kątem udziału i wpływu na dynamikę rozwoju, rolę, istotność
oraz aktualność i trwałość dyscypliny naukowej. Ocena dokonywana jest na podstawie
analizy trzech aspektów: zasobów, zarządzania i zaangażowania. Pod uwagę brane są dane
jakościowe i liczbowe dotyczące organizacji badawczej i jej struktur, strategii badawczej
i osiągnięć celów strategicznych, zasobów, rekrutacji i rozwoju kadry oraz studentów
i doktorantów zaangażowanych w prace badawcze, dochodów, infrastruktury i wyposażenia
oraz współpraca w ramach dyscypliny lub badań (sieci współpracy, partnerstwo na szczeblu
lokalnym, krajowym i międzynarodowym, włączając współpracę o charakterze
interdyscyplinarnym), a także zaangażowanie w inicjatywy publiczne.
W wymienionych trzech grupach kryteriów, panele eksperckie dokonują oceny
w kierunku określenia profilu jakości dla każdej jednostki naukowej w każdej grupie
kryteriów. Profile jakości skategoryzowano w pięciu klasach: poziom wybitny (lider
wiodący), poziom doskonały (lider międzynarodowy), poziom znaczący (lider krajowy),
poziom uznany (lider lokalny) oraz poziom niesklasyfikowany (tabela 3.5).
W każdej z grup kryteriów określa się procentowy udział badań w każdym profilu
jakości (rysunek 3.6). Profil jednostki naukowej stanowi sumę ważonych ocen w grupach:
rezultaty, wpływ i środowisko. Profil jakości jednostki naukowej określany jest na podstawie
wartości skumulowanych i nie oznacza pojedynczej oceny, lecz określa procentowy udział
działalności naukowej w każdym z profili jakości. Definiuje się profile dla każdej kategorii
kryteriów oraz profil ogólny.
**** *** ** * NS Suma
Określenie
procentowego udziału
badań w każdym
profilu jakości
Rezultaty (r) 100%
Wpływ (w) 100%
Środowisko (s) 100%
**** *** ** * NS
Wyznaczenie profilu
jednostki naukowej
Profil wstępny
Profil ostateczny
Rysunek 3.7. Metodyka oceny w systemie Research Excellence Framework (REF)
Źródło: opracowanie własne na podstawie: REF2014: Assessment framework and guidance on submissions,
Northhavon House, Bristol 2011, s. 46-47, http://www.ref.ac.uk/pubs [29.10.2013].
91
Określając profil jakości w systemie REF promuje się poziom i jakość badań,
istotność i znaczenie podejmowanych tematów badawczych, wpływ na rozwój obszaru
badawczego, wkład w sposób myślenia, rozwój paradygmatów i praktyk, skalę badań i ich
zastosowań, innowacyjność, twórczość i nowatorstwo (tabela 3.5).
Tabela 3.5. Klasyfikacja jednostek naukowych w systemie oceny REF
Profil jakości
Punkt
odniesienia
w badaniach
Wpływ
na rozwój
obszaru
badawczego
Wkład w sposób
myślenia, rozwój
paradygmatów
i praktyk
Poziom
zakresu
i skali
badań i ich
zastosowań
Poziom
innowacyjności
**** Wiodący lider
główny silny kluczowy znaczący wybitny
*** Międzynarodowy
lider ważny trwały
ważny (będący
katalizatorem) istotny istotny
** Krajowy lider
uznany obserwowalny podstawowy przydatny niezauważalny
* Lokalny lider
niezauważalny niezauważalny
opierający się
na istniejącej
tradycji myślenia,
metodologii i/lub
praktyce twórczej
przydatny niezauważalny
Niesklasyfikowany poniżej progu jakości lokalnego lidera
Źródło: opracowanie własne.
Cztery gwiazdki przyznawane są jednostkom o cechach lidera wiodącego, których
poziom i jakość dokonań naukowych osiąga poziom światowego lidera w zakresie
oryginalności prowadzonych badań, ich znaczenia oraz metodyki pracy. Trzy gwiazdki
określają międzynarodowego lidera, który jednak nie spełnia najwyższych standardów.
Badania stanowią ważny punkt odniesienia i wywierają trwały wpływ na rozwój dyscypliny
naukowej i ważny wkład w rozwój myślenia i paradygmatów. Dwie gwiazdki są przyznawane
liderom krajowym, których jakość pracy jest rozpoznawana na świecie w zakresie
oryginalności, znaczenia i metodyki pracy. Jedna gwiazdka oznacza poziom lidera lokalnego,
którego działania naukowe są rozpoznawane w kraju. Jednostki sklasyfikowane niżej
nie spełniają wymogów oceny.
W ostatniej rundzie ewaluacji w 2008 roku zbadano jakość 2363 obiektów
w 67 obszarach oceny25
. Analiza wyników pokazała, że około 47% prowadzonych badań
w Wielkiej Brytanii ma charakter badań wiodących lub doskonałych z skali międzynarodowej.
Około 84% brytyjskich jednostek wykazuje prowadzenie badań naukowych na poziomie
światowych liderów26
.
25
Research Assessment Excercise 2008: the outcome, http://www.rae.ac.uk/results [6.11.2013]. 26
Tamże.
92
W Europie można zaobserwować wiele odniesień do systemu RAE w krajowych
systemach oceny i ewaluacji jednostek naukowych. Bezpośredniej adaptacji dokonano
na Łotwie, gdzie procedura ewaluacji przeprowadzana jest co 6 lat przez niezależnych
międzynarodowych ekspertów w koordynacji organizacji Technopolis. Ewaluacja odbywa się
w 6 panelach głównych27
:
panel A – nauki rolnicze, leśne i weterynaryjne;
panel E – inżynieria i informatyka;
panel H – nauki humanistyczne;
panel L – nauki o życiu i medyczne;
panel M – nauki naturalne i matematyczne;
panel S – nauki społeczne.
W każdym panelu zasiada 6 ekspertów. Ostatnia ocena dotyczyła wyników
działalności naukowej w latach 2006-2011.
Jednostki naukowe oceniane są w kontekście pięciu kryteriów28
:
1. Poziom i jakość badań.
2. Wpływ badań na rozwój dyscypliny naukowej.
3. Wpływ gospodarczy i społeczny badań.
4. Środowisko naukowe oraz infrastruktura naukowa jednostki.
5. Potencjał rozwojowy jednostki.
Jakość działalności jednostki w każdej grupie kryteriów oceniana jest w pięciu poziomach:
(5) wybitnie wysoki poziom badań określa jednostkę naukową prowadzącą badania
na porównywalnym poziomie z najlepszymi instytucjami w innych krajach w tym samym
obszarze badań;
(4) bardzo dobry poziom badań na poziomie międzynarodowym;
(3) dobry poziom badań, wyniki publikowane na poziomie międzynarodowym i krajowym;
(2) umiarkowany poziom badań, wyniki badań dostrzegane tylko w kraju;
(1) niski poziom badań, badania wyłącznie krajowe, jednostka nie uczestniczy
w międzynarodowej społeczności naukowej.
27
E. Arnold, P. Knee, Latvia: Research Assessment Exercise, Technopolis, Riga 2013, s. 4, 18-24, izm.izm.gov.lv
[12.11.2013]. 28
Latvijas Republikas Izglitibas un zinãtnes ministrija, Zinātnisko institūciju zinātniskās darbības kvalitātes
vērtēšanas metodika, izm.izm.gov.lv [12.11.2013].
93
Sąsiadująca z Łotwą Litwa jest przykładem kraju, w którym zastosowano system
z elementami ewaluacji jakościowej wzorowanej na systemie brytyjskim z elementami systemu
parametrycznego. System na Litwie opiera się głównie na ocenie publikacji i dokonań
naukowych mających wpływ na życie gospodarcze-społeczne. System oceny instytucji
naukowych na Litwie przeprowadzany jest w celu zbadania rocznej produkcji naukowej,
efektywności działalności naukowej i poziomu konkurencyjności międzynarodowej. Ocena
składa się z dwóch poziomów. Poziom pierwszy stanowi ocena ekspertów, poziom drugi
to ocena formalna. Na poziomie pierwszym dokonuje się oceny najlepszych osiągnieć jednostki
naukowej. Ocena formalna wskazuje zakres prac badawczych i rozwojowych, efektywność
pracy, zasobów i źródeł finansowania oraz jego wpływu na rozwój gospodarczy i społeczny
kraju. Ocena formalna ma stanowić weryfikację oceny ekspertów.
Ocena przeprowadzana jest na podstawie różnych kryteriów ilościowych przyjętych
w skali międzynarodowej. Do kryteriów jakościowych stosowana jest ocena ekspertów.
Na poziomie pierwszym dokonuje się oceny najlepszych osiągnieć jednostki naukowej
według przyjętych międzynarodowych kryteriów dotyczących publikacji w czasopismach
recenzowanych i monografiach, patentów oraz nowych osiągnięć w dziedzinie naukowej.
Kryteria są jasno sprecyzowane, przykładowo publikacje z listy filadelfijskiej są uznawane,
jeśli wskaźnik impact factor (IF) czasopisma jest wyższy o 20% od średniego wskaźnika IF
dla danej grupie czasopism. Każdej pozycji przyznawane są punkty i ostatecznie sumowane.
Na poziomie drugim są analizowane pozostałe osiągnięcia działalności naukowej w zakresie
publikacji i patentów.
Ostateczna ocena jest syntezą obu poziomów i wyznaczana jest w skali od 0 do 5:
(5) lider światowy;
(4) praca na wysokim szczeblu międzynarodowym;
(3) praca międzynarodowa;
(2) praca na wysokim poziomie krajowym;
(1) praca na poziomie krajowym;
(0) praca niesklasyfikowana.
Jednostki naukowe poddane ocenie sklasyfikowane są w trzy grupy naukowe:
nauki humanistyczne i społeczne;
nauki naturalne, rolnicze, biomedyczne i technologiczne;
dziedziny artystyczne.
94
Litewski system jest efektem intensywnej polityki kraju w celu podniesienia
potencjału naukowego kraju. Rozwój jednostek naukowych i poprawa jakości badań została
przyspieszona przez zastosowanie systemu ewaluacji jednostek naukowych29
.
Zdaniem autorki, interesujący system jest realizowany we Włoszech. System włoski
również inspirowany jest brytyjskim systemem RAE30
. Niedawna gruntowna reforma
wprowadziła system promowania efektywności w budżecie i dystrybucji dodatkowych
środków finansowych dla najlepszych uczelni w dziedzinie badań i szkoleń.
Ewaluacja instytucjonalna jednostek naukowych została przeprowadzona po raz pierwszy
w roku 2003 (wł. Valutazione triennale della ricerca VTR, ang. Triennial Research Assessment,)
za lata 2001-200331
. Druga ewaluacja odbyła się w roku 2013 (wł. Valutazione della Qualità
della Ricerca VQT, ang. Evaluation of Research Quality) i obejmowała lata 2004-2010.
Metodyka ewaluacji obejmuje 14 obszarów naukowych i paneli eksperckich
zdefiniowanych przez National University Council (CUN)32
. W systemie włoskim ocenie
poddawane są następujące rezultaty pracy naukowej:
– artykuły w czasopismach, książki oraz rozdziały, włączając materiały konferencyjne;
– analiza bibliometryczna na podstawie cytowań oraz wskaźnika impact factor czasopism;
– recenzje, tłumaczenia i komentarze naukowe;
– patenty;
– kompozycje, malarstwo i projektowanie, występy, pokazy, wystawy, produkcja i sztuka
operowa, bazy danych i oprogramowanie.
Ocena niezależnych ekspertów na temat jakości ocenianych rezultatów następuje
względem następujących kryteriów33
:
– znaczenie dla obszaru naukowego, wpływ społeczny, efektywność;
– oryginalność i innowacyjność badań;
– pozycja międzynarodowa;
– transfer technologii i rozwój technologii.
29
Ministry of Higher Education and Research, Higher education and research reform in Lithuania: resetting the
system towards competitive future, Vilnius 2011, 13 s., planipolis.iiep.unesco.org [12.11.2013]. 30
G. Rebora, M. Turri, The UK and Italian research assessment exercises face to face, “Research Policy” 2013,
t. 42, s. 1657-1666. 31
M. Franceschet, A. Costantini, The first Italian research assessment exercise: a bibliometric perspective,
2009, http://arxiv.org/abs/0912.2601[19.11.2013]. 32
National Agency for the Evaluation of Universities and Research Institutes (ANVUR), Evaluation of Research
Quality (VQR), Evaluation of research quality 2004-2010, 2011, s. 2,
www.researchitaly.it/en/understanding/overview/assessment [26.11.2013]; G. Rebora, M. Turri, dz. cyt. 33
ANVUR, dz. cyt., s. 7.
95
System VQR opiera się na analizie jakości wyników badań wiodących w zakresie
istotności, oryginalność i internacjonalizacji. Kryteria te oceniane są w skali
sześciostopniowej i jednostce przyznawana jest ocena jakości produkcji naukowej
odpowiednio od A do F: doskonała (waga 1), dobra (waga 0,8), akceptowalna (waga 0,5),
minimalna (waga 0), niepodlegający ocenie (waga -1) oraz ocena przyznawana w wypadkach
oszustwa lub plagiatu (waga -2).
W literaturze przedmiotu, przeciwstawianym często do systemu brytyjskiego
jest rozwiązanie zastosowane w Holandii, gdzie praktyka ewaluacji również jest dość
zaawansowana. W Holandii obowiązuje system ewaluacji instytucjonalnej pod nazwą
Standard Evaluation Protocol (SEP) przeprowadzany co 6 lat przez trzy holenderskie organy:
Królewską Holenderską Akademię Sztuki i Nauki (ang. Royal Netherlands Academy of Arts
and Sciences, KNAW), Stowarzyszenie Uniwersytetów w Holandii (ang. Association
of Universities in the Netherlands, VSNU) oraz Holenderską Organizację Badań Naukowych
(ang. Netherlands Organisation for Scientific Research, NWO). Rezultaty systemu SEP
są podstawą dotacji instytucjonalnej. Obowiązujący SEP 2009-2015 jest czwartą edycją
ewaluacji. Poprzednie przeprowadzane były w latach 1994, 1998 i 200334
.
Obecny system jest przeprowadzany na dwóch poziomach: jednostki naukowej
jako całości oraz zespołów badawczych lub programów35
. Ocena jednostki naukowej skupia
się na jakościowych aspektach prowadzonej polityki naukowej i zarządzaniu badaniami
naukowymi. Natomiast ocena zespołów lub programów ma charakter ilościowo-jakościowy.
Proces ewaluacji składa się z trzech głównych etapów: samooceny, ewaluacji
zewnętrznej i ewaluacji monitorującej. Podstawą oceny jest raport samooceny jednostki
naukowej, w którym jednostki dostarczają informacje ilościowo-jakościowe o efektach
działalności naukowej jednostki w okresie 6 lat. Na tej podstawie przeprowadzana jest
ewaluacja zewnętrzna wraz z wizytą w jednostce naukowej.
Komitet ewaluacji zewnętrznej ocenia jednostkę naukową względem czterech
kryteriów: jakości, produktywności, znaczenia społecznego badań i ich aktualności
oraz wykonalności, w odniesieniu do trzech głównych zadań jednostek naukowych: produkcji
wyników naukowych, produkcji wyników istotnych dla społeczeństwa oraz rozwoju młodej
kadry naukowej (tabela 3.6).
34
KNAW, VSNU, NWO, Standard Evaluation Protocol 2009-2015. Protocol for research assessment
in the Netherlands, The Netherlands 2010, s. 12-22, www.knaw.nl/ses. 35
Tamże.
96
Tabela 3.6. Kryteria oceny zewnętrznej w systemie Standard Evaluation Protocol 2009-2015 w Holandii
Kryterium główne Kryteria cząstkowe
Jakość jakość i przydatność naukowa badań; przywództwo; prestiż naukowy; zasoby
ludzkie i finansowe; kształcenie doktoranckie
Produktywność relacja efektów działalności naukowej do nakładów
Znaczenie społeczne badań wymiar, wpływ i waloryzacja
Aktualność i wykonalność
prowadzonych badań strategia, SWOT, trwałość i stabilizacja
Źródło: opracowanie własne na podstawie: KNAW, VSNU, NWO, Standard Evaluation Protocol 2009-2015.
Protocol for research assessment in the Netherlands, The Netherlands 2010, s. 11, www.knaw.nl/sep [11.12.2013].
Co 3 lata przeprowadzana jest ewaluacja monitorująca (ang. mid-term evaluation).
Głównym celem przeglądu śródokresowego jest ocena działań następczych z zaleceń ewaluacji
zewnętrznej oraz formułowanie przyszłych działań. Wyniki ewaluacji monitorującej
wraz z kolejnym raportem samooceny dają podstawę do następnej ewaluacji zewnętrznej.
Jednym z głównych celów systemu SEP jest dążenie do ciągłej poprawy poziomu
i jakości badań oraz samego zarządzania badaniami naukowymi. Przyjęte rozwiązanie
opracowywania przez jednostkę naukową raportu samooceny nawiązuje do systemu
brytyjskiego. Odmiennym elementem jest analiza SWOT, która pozwala określić pozycję
jednostki i możliwe perspektywy rozwoju. Kategorie i kryteria przyjęte do oceny w systemie
SEP zestawiono w tabeli 3.7. Dane te określa się dla całej jednostki i poszczególnych
programów lub zespołów badawczych.
Na podstawie kryteriów z raportu samooceny, eksperci w ewaluacji zewnętrznej
oceniają jednostkę według czterech kryteriów przedstawionych w tabeli 3.7.
Według kryterium jakości oceniany jest poziom i istotność badań naukowych, sposób
zarządzania badaniami naukowych, prestiż naukowy, poziom zasobów oraz kształcenie
na poziomie doktoranckim. Kształcenie doktoranckie w Holandii organizowane jest zwykle
w szkołach badawczych. Częstą praktyką na tej płaszczyźnie jest współpraca różnych uczelni
lub różnych jednostek w ramach uczelni. Kształcenie doktoranckie wymaga akredytacji raz
na sześć lat. Kryterium produktywności jest wyrażone w relacji efektów do nakładów. Jako
efekty przyjmuje się publikacje naukowe, rozprawy doktorskie, inne publikacje, wykorzystanie
infrastruktury badawczej przez osoby trzecie. Kryterium znaczenia społecznego, gospodarczego
i kulturalnego badań naukowych jest akcentowane podobnie do systemu REF. Czynnik ten
nawiązuje do potrzeby realizowania badań o praktycznym wymiarze, ukierunkowanych na
realizowanie potrzeb społeczeństw. Kryterium czwarte dotyczy zdolności reagowania na istotne
zmiany w otoczeniu wyrażające się w planowaniu strategicznym, trybie wyboru tematów
badawczych, polityce badawczej, pozycji jednostki naukowej w otoczeniu, zasobach
finansowych, wyposażeniu badawczym oraz mobilności kadry.
97
Tabela 3.7. Kategorie i kryteria raportu samooceny w systemie SEP 2009-2015
Kategoria Kryteria
1. Cele i obszary
badawcze – wizja, misja i cele jednostki
– obszary badawcze i programy
2. Struktura – liczba pracowników na poszczególnych stanowiskach
– zestawienie różnych źródeł finansowania (wewnętrzne i zewnętrzne)
3. Środowisko
badawcze
– krajowa i międzynarodowa pozycja (benchmarking oparty na analizie SWOT),
liczba i przynależność naukowców wizytujących (wewnętrznie i zewnętrznie
finansowanych)
4. Jakość
i znaczenie
naukowe
– 3-5 najistotniejszych rezultatów dla dyscypliny dla każdej grupy/zespołu badawczego
– 3-5 kluczowych publikacji dla każdej grupy/zespołu badawczego oraz ich cytowania
– liczba artykułów naukowych wśród 10% najbardziej cenionych publikacji z danej
dyscypliny naukowej
– liczba artykułów naukowych wśród 25% najbardziej cenionych publikacji z danej
dyscypliny naukowej
– 3-5 najważniejszych monografii lub rozdziałów w monografiach
5. Efekty – liczba publikacji (artykuły recenzowane i nierecenzowane, monografie, rozdziały
w monografiach, rozprawy doktorskie, artykuły konferencyjne, publikacje
zawodowe, publikacje skierowane do ogółu społeczeństwa, inne efekty naukowe)
– liczba przewodów doktorskich i uzyskanych doktoratów
– liczba użytkowników korzystających z infrastruktury badawczej (jeśli jest to misją
jednostki)
6. Zdolność
pozyskiwania
środków
finansowych
– liczba projektów i programów z funduszy konkurencyjnych, z funduszy
publicznych i prywatnych, krajowych i międzynarodowych, i innych
7. Prestiż
naukowy
– najważniejsze przejawy uznania dla pracowników naukowych (nagrody,
wyróżnienia, zaproszenia do podejmowania największych konferencji, działalność
organizacji konferencji, redaktorstwo, członkostwo akademii)
8. Znaczenie
społeczne:
jakość, wpływ
i waloryzacja
Informacje dotyczące trzech aspektów:
– społeczny wymiar działalności naukowej – dotyczy interakcji z decydentami
społecznymi w odpowiedzi na ich zapotrzebowanie na naukowe podejście
do danego zagadnienia, wkład i zaangażowanie w sprawy ważne społecznie
wyrażające się między innymi przez debaty społeczne
– społeczny wpływ działalności naukowej na interesariuszy lub regulacje
i procedury (prawne, protokoły)
– waloryzacja wyraża się w prowadzeniu badań użytecznych, ukierunkowanych
na opracowanie produktów, procesów, usług
9. Rentowność – aktywność jednostki w zakresie zarządzania zasobami, dostępnej infrastruktury
i potencjału badawczego
10. Rozwój młodej
kadry naukowej
– dane o kształceniu doktoranckim: cele i rezultaty programu doktorskiego,
przynależność instytucjonalna, nadzór: prawa i obowiązki przełożonych
i doktorantów , elementy kształcenia, wskaźniki sukcesu (uzyskiwanie doktoratów
w poszczególnych latach kariery od 4 do 7 roku, liczba ukończonych doktoratów,
w trakcie realizacji oraz zaniechanych )
11. Analiza SWOT – procedura i wyniki analizy SWOT
– wnioski dotyczące strategii i działań na podstawie analizy SWOT
12. Strategia – na podstawie analizy SWOT
Źródło: opracowanie własne na podstawie: KNAW, VSNU, NWO, Standard Evaluation Protocol 2009-2015.
Protocol for research assessment in the Netherlands, The Netherlands 2010, s. 11, www.knaw.nl/sep
[11.12.2013].
98
W efekcie jednostkom naukowym są przyznawane oceny w skali pięciostopniowej36
:
1. Ocena doskonała, która oznacza jakość badań naukowych na światowym poziomie,
o istotnym i znaczącym wkładzie w swojej dyscyplinie naukowej.
2. Ocena bardzo dobra, która określa badania naukowe jako konkurencyjne w skali
światowej, o znaczącym wkładzie w rozwój dyscypliny naukowej; badania mają
charakter wiodący w kraju;
3. Ocena dobra, która oznacza realizację badań naukowych konkurencyjnych w skali kraju
i jednocześnie wartościowych na poziomie międzynarodowym.
4. Ocena satysfakcjonująca nadawana jest, gdy badania naukowe przyczyniają się
do lepszego zrozumienia i są znaczące w skali kraju.
5. Ocena niesatysfakcjonująca przyznawana jest za badania odtwórcze, nieprawidłowe
w podejściu naukowych i technicznym.
Holandia ma wieloletnie doświadczenie i stabilny system zapewnienia jakości
w badaniach naukowych w porównaniu z innymi krajami. System SEP zapewnia
różnorodność zakresu oceny pod względem przedmiotowym i podmiotowym, co niekiedy
ogranicza analizy porównawcze. Należy jednak podkreślić skuteczność systemu. Wyniki
działalności naukowej w Holandii znacznie wzrosły i są konkurencyjne w skali
międzynarodowej37
. Trzeba zwrócić uwagę, że system ewaluacji w Holandii jest konsekwencją
systematycznych działań politycznych i organizacyjnych na szczeblu krajowym.
System SEP w wersji z lat 2003-2009 stanowił podstawę oceny jednostek Akademii
Nauk w Bułgarii. Zmodyfikowane kryteria zastosowane w systemie Bułgarii to:
– jakość i produktywność międzynarodowe uznanie i innowacyjny potencjał, dorobek
naukowy oraz pozycja międzynarodowa instytutów;
– znaczenie badań skutki społeczno-gospodarcze;
– perspektywy badawcze żywotność badań, ich wykonalności, zarządzanie, przywództwo,
potencjał i zdolność podejmowania nowych wyzwań naukowych.
Bogate doświadczenia w praktyce ewaluacji nauki na różnych poziomach wykazuje
również Finlandia. Prowadzone są tam działania w zakresie ewaluacji polityki i narodowego
systemu nauki, dyscyplin i obszarów naukowych, centralnych organizacji naukowych,
36
KNAW, VSNU, NWO, dz. cyt. 37
L. van Drooge, S. de Jong, M. Faber, D. Westerheijden, Twenty years of research evaluation, „Facts&Figures”,
Rathenau Instituut, The Hague 2013, www.rathenau.nl [11.12.2013].
99
programów i projektów badawczych oraz centrów doskonałości38
. Finlandia jest przykładem
kraju, w którym stosowane są dwa rodzaje systemów: ewaluacji i parametryczny.
Ewaluacja jednostek naukowych przeprowadzana jest w kontekście finansowania
w postaci dotacji publicznej oraz ewaluacji jednostek w obszarach naukowych. Nie ma jednak
charakteru systematycznej oceny, lecz jest realizowana doraźnie dla różnych obszarów
naukowych z uwzględnieniem różnych kryteriów od 1983 roku. W każdym przedsięwzięciu
powoływany był panel ekspertów, którego zadaniem było przeprowadzenie oceny
i sformułowanie rekomendacji dla obszaru naukowego, podobszarów i indywidualnie
jednostek naukowych. Celem ewaluacji była ocena wpływu finansowania w danym obszarze
naukowym i dalsze doskonalenie instrumentów finansowania oraz optymalna alokacja
środków finansowych. Ewaluacja przeprowadzana jest przez Akademię Fińską i ma charakter
ilościowo-jakościowy. Istotną część ewaluacji stanowi autoewaluacja, w której jednostki
prezentują wymagane informacje na temat strategii, analizy SWOT, oceny dostępnej
infrastruktury, najistotniejszych publikacji, oceny jednostki w relacji do głównych
konkurentów naukowych, współpracy naukowej, wpływu społecznego badań, obciążeń
administracyjnych i dydaktycznych, budżetu, perspektyw na przyszłość39
.
Jeśli chodzi o finansowanie podstawowe, w Finandii przekazywane jest ono
z Ministerstwa Edukacji i Kultury w postaci dotacji statutowej na podstawie ustalonego
algorytmu (ang. funding formula for allocation of university resources). Dotychczas algorytm
opierał się głównie na liczbie uzyskanych stopni naukowych. Obecnie trwają prace nad nowym
systemem40
. Proponowany algorytm podzielony został na trzy grupy kryteriów: wskaźniki
dydaktyczne (41%), wskaźniki naukowe (34%) i inne wskaźniki naukowo-dydaktyczne
związane ze strategią finansowania obszarów naukowych i zadań krajowych (25%). Naukowe
kryteria dotyczą uzyskanych doktoratów (9%), publikacji (13%, z czego 10% dotyczą
publikacji międzynarodowych), pozyskanych projektów ze źródeł konkursowych (9%),
doktoratów przyznawanych obcokrajowcom (1%) oraz obcokrajowych pracowników
naukowych i dydaktycznych (2%)41
. W trzeciej grupie wskaźników 8% przeznaczonych jest na
obszary badawcze. Priorytety w tym zakresie ustalono między dziedziny sztuki (2,75%), nauki
naturalne (1,5%), nauki techniczne (1,5%) oraz medyczne (2,25%)42
.
38
Academy of Finland, www.aka.fi [11.12.2013]. 39
Tamże. 40
The Finnish Higher Education Evaluation Council (FINHEEC), http://www.finheec.fi/en [11.12.2013]. 41
Finnish Ministry of Eduation and Culture, Proposal for a reform of the university financing model from 2013,
http://www.minedu.fi/OPM/Julkaisut/2011/yliopistot.html?lang=en [11.12.2013]. 42
Tamże.
100
Większość systemów oceny i ewaluacji jednostek naukowych jest dokonywana
na podstawie osiągniętych wyników, przyjmuje zatem charakter oceny ex post. Odmienne
podejście zastosowano w Estonii, gdzie dotacja instytucjonalna jest przydzielana
na podstawie oceny raportu proponowanych badań.
Ocena instytucjonalna jednostek naukowych w Estonii jest najważniejszym
instrumentem finansowania badań43
. System w Estonii ma charakter systemu
parametrycznego. Instytucje składają raporty, na podstawie których ocenianych jest pięć
zagadnień: obszar badawczy, zespół badawczy, infrastruktura badawcza, znaczenie
instytucjonalne i krajowe jednostki oraz budżet jednostki.
Dwie pierwsze grupy kryteriów są oceniane przez zewnętrznych ekspertów, natomiast
pozostałe przez ekspertów lokalnych lub krajowy komitet ewaluacji w skali 1-5 (wybitny,
bardzo dobry, dobry, zadowalający, niezadawalający), a sekcja 4 oceniana jest w skali 1-3
(wybitny, dobry, niezadawalający).
Jeszcze inny rodzaj systemu parametrycznego z elementami ewaluacji jest
prowadzany w Portugalii, gdzie ewaluacji instytucjonalnej jednostek naukowych dokonuje się
od roku 1996 co 3 lata44
. Finansowanie statutowe jest zależne od wyników ewaluacji. Ostatnia
miała miejsce w 2013 roku (ang. Performance Indicators for 2008-2012 and the Strategic
Programme for 2015-2020). Ocenie poddawane są dwa obszary: wyniki działalności
naukowej za zdefiniowany okres oraz strategia naukowa jednostki i plan pracy na następne
6 lat. Główne kryteria oceny przedstawiono w tabeli 3.8. W pierwszym etapie ewaluacji
kryteria A-D oceniane są w pięciostopniowej skali w równych wagach 25%. W drugim etapie,
kryteria A-E oceniane są w skali dziesięciopunktowej z wagami odpowiednio A – 20-30%;
B, C, D – 20%; E – 5-20%, w zależności od obszaru naukowego. Drugi etap procesu oceny
polega głównie na bardziej szczegółowej ocenie. Do drugiego etapu oceny kwalifikują się
jednostki, które w pierwszym etapie uzyskały założony poziom minimalny uzyskanych
punktów. Drugi etap obejmuje również wizyty i wywiady.
Ewaluacja przeprowadzana jest w czterech dziedzinach naukowych i 47 obszarach
naukowych. Rezultatem procedury jest ocena jednostki naukowej w zakresie:
od nadzwyczajnej, jako rozpoznawalnej w zakresie dorobku naukowego, technologicznego
i badawczego w skali międzynarodowej, przez ocenę doskonałą, bardzo dobrą, dobrą,
dostateczną do oceny słabej.
43
Fundação para a Ciência e a Tecnologia (FCT), http://www.fct.pt/apoios/unidades/avaliacoes [12.12.2013]. 44
Tamże.
101
Tabela 3.8. Kryteria ewaluacji jednostek naukowych w Portugalii
1 2 3 4
4a 4b
A
Produktywność
i wkład
do krajowego
systemu naukowo-
technologicznego
wyniki działalności naukowej, transfer technologii i wiedzy;
akumulacja wiedzy, szkolenia naukowców; wkład w promowanie
i upowszechnianie badań naukowych i technologicznyc,
relacja między finansowaniem a efektami tego finansowania
stopień multidyscyplinarności i internacjonalizacji badań
X
B
Zasługi naukowe
i technologiczne
zespołu naukowego
produktywność naukowa i poziom wyników badań jednostki,
poziom internacjonalizacji działalności naukowej, w tym
publikacje i cytowania opublikowanych prac
kompetencje i skład zespołu badawczego
zdolność do skutecznego konkurowania na krajowych
i międzynarodowych grantów badawczych i umów,
w tym umów z przedsiębiorstwami
X X
C
Innowacyjność
programu
badawczego
znaczenie, oryginalność i wpływ programu strategicznego
udział w działaniach naukowych, technicznych, artystycznych
lub kulturalnych proponowanego programu na rzecz strategii
inteligentnych specjalizacji w regionie, w którym jest
zarejestrowana jednostka badawczo-rozwojowa
stopień multidyscyplinarności i internacjonalizacji
X
D
Wykonalność
planu pracy
i zasadność
budżetu
organizacja zasobów
adekwatność budżetu
zasoby instytucjonalne (techniczne, naukowe, organizacyjne
i kierownicze)
X
E
Wpływ efektów
naukowych,
technologicznych
i kulturowych
produkcja wiedzy, która może stymulować gospodarkę opartą
na wiedzy;
wkład do krajowego i regionalnego wzrostu gospodarczego
i rozwoju;
transfer wiedzy i technologii oraz ich rozpowszechnianie.
X X
Legenda:
1 – grupa kryteriów
2 – nazwa grupy
3 – wyszczególnienie informacji
4 – obszary oceny
4a – wskaźniki działalności
4b – program strategiczny
Źródło: opracowanie własne na podstawie: Fundacja na rzecz Nauki i Technologii (FCT), Ministerstwo Edukacji
i Nauki, FCT Evaluation of R&D Units 2013. Evaluation guide, s. 8-9,
www.fct.pt/apoios/unidades/avaliacoes/2013 [31.07.2013].
Środki na finansowanie statutowe są przydzielane wyłącznie jednostkom, które uzyskały
ocenę co najmniej dobrą. Środki z funduszy strategicznych przekazywane są jednostkom
naukowym z oceną bardzo dobrą, doskonałą oraz nadzwyczajną45
.
We Francji ewaluacje w obszarze nauki i szkolnictwa wyższego są scentralizowane
w jednostce o nazwie Agence d’évaluation de la recherche et de l’enseignement supérieur (ang.
Evaluation Agency for Research and Higher Education, AERES). Ewaluacja jednostek
naukowych obejmuje sześć grup szczegółowych kryteriów o charakterze mieszanym
– jednostki są oceniane według wskaźników ilościowych i jakościowych (tabela 3.9)46
.
45
Fundacja na rzecz Nauki i Technologii (FCT), Ministerstwo Edukacji i Nauki, FCT Evaluation of R&D Units
2013. Evaluation guide, s. 8-9, www.fct.pt/apoios/unidades/avaliacoes/2013 [31.07.2013]; Critérios
de Atribuiçăo de Financiamento 2015-2020, http://www.fct.pt/apoios/unidades/avaliacoes/2013 [20.11.2014]; 46
AERES, Criteria for the evaluation of research institutions: The AERES standards, 2013, s. 10-16,
www.aeres-evaluation.com [19.12.2013].
102
Tabela 3.9. Kryteria oceny instytucjonalnej we Francji
Kryterium Wskaźniki ilościowe Wskaźniki jakościowe
Produkcja
naukowa i jej
jakość
publikacje: książki, rozdziały, tłumaczenia, artykuły w czasopismach,
recenzje, prace w materiałach konferencyjnych
wykłady i inne niepublikowane formy ustne, plakaty konferencyjne,
referaty, zestawy slajdów
inne raporty naukowe lub techniczne (np. raporty wykopaliskowe),
katalogi wystaw, atlasy, korpusy, testy psychometryczne, pokazy,
oprogramowanie, prototypy, naukowe, produkcje audiowizualne
opracowania instrumentów, zasobów, metodologii: słowniki, bazy
danych, zbiory, kohorty, obserwatoria, platformy technologiczne
oryginalność i zakres badań
teoretyczne i metodologiczne przełomy, zmiany paradygmatu,
pojawienie się nowych problemów i nowych badań
wpływ badań w kategoriach naukowych w całym środowisku
akademickim (np. cytowania)
obecność na polu międzynarodowym lub krajowym
reputacja i selektywność opracowań do publikacji
Reputacja
akademicka udział w krajowych i międzynarodowych projektach badawczych
współpraca z innymi laboratoriami
udział w krajowych i międzynarodowych sieciach, organach
międzynarodowych, organizacjach, towarzystwach naukowych
udział we francuskim programie „Inwestycje w przyszłość”
organizacja krajowych i międzynarodowych sympozjów
liczba naukowców
nagrody i wyróżnienia dla pracowników jednostki, zaproszenia
na imprezy naukowe
zarządzanie wydawnictwami ciągłymi, udział w komitetach
redakcyjnych, komitetach sympozjów, konwencji lub naukowych
organach odwoławczych
odpowiedzialność za kierunek i poziom zaangażowania naukowego
w międzynarodowych projektach
partner wiodący w sieci, sieci doskonałości (np. REX )
wysoki standard zagranicznych naukowców i adiunktów
rekrutowanych przez instytucję
obowiązki podjęte w międzynarodowych instytucjach akademickich
reputacja nagród i wyróżnień przyznawanych pracownikom jednostki
jakość naukowa recenzowanych czasopism, w których pracownicy
jednostki zasiadają w radach redakcyjnych
proces selekcji i znaczenie zagadnień naukowych poruszanych na
międzynarodowych imprezach, w których instytucja uczestniczy
lub które organizuje
poziom i renoma czasopism, którymi jednostka zarządza
Relacje
ze środowiskiem
gospodarczym,
społecznym
i kulturalnym
rezultaty naukowe skierowane do różnych nieakademickich decydentów
zaangażowanie w partnerstwa, w działania społeczno-gospodarcze
i kulturalne
wskaźniki wpływu badań i partnerstw
oryginalność transferowanych metod i produktów
jakość i sukces rozpowszechniania wiedzy
wskaźniki wykorzystania transferowanej wiedzy i obiektów
technicznych
pozycja w partnerstwie: strategiczny lider w dziedzinie, kreator
wartości innowacyjnej w spółce start-up
jakość i czas trwania partnerstwa
wpływ partnerstwa na gospodarczą, społeczną lub kulturową pozycję
partnerów; wpływ na politykę publiczną
akredytacja lub certyfikacja procedur przeznaczonych do użytku
publicznego
102
103
Kryterium Wskaźniki ilościowe Wskaźniki jakościowe
Organizacja
i życie instytucji posiadanie celów lub strategii naukowej w poprzednim okresie
organizacja jednostki w zespoły lub grupy tematyczne
koordynacja naukowa i interakcje między zespołami, tematami
i dyscyplinami
proces decyzyjny i zaangażowany personel, rola inżynierów, techników,
pracowników administracyjnych, pracowników tymczasowych (np. na
podstawie umów na czas określony) w systemie naukowym jednostki
komunikacja wewnętrzna i zewnętrzna
podejście do kwestii ochrony środowiska i BHP oraz ich powiązań
w zakresie badań i kształcenia
realizacja celów strategicznych i sposobów, w jaki strategia została
wdrożona
organizacja instytucji w kierunku spójnej logiki naukowej
istnienie naukowych struktur koordynacyjnych, bodźców
do powstania zespołów, tematów i innowacyjnych programów
rola działów technicznych
strategia zasobów ludzkich w odniesieniu do kształcenia i mobilności
klarowność komunikacji polityki naukowej i programów badawczych
adekwatność pomieszczeń do prowadzenia działalności naukowej
jednostki i potrzeb pracowników
Zaangażowanie
w szkolenia udział stażystów studiów II stopnia i doktorantów w badaniach
prace dyplomowe i doktorskie obronione
posiadanie polityki wsparcia dla stażystów i doktorantów
materiały dydaktyczne
projektowanie i koordynacja przez instytucję certyfikowanych modułów
szkoleniowych i kursów oraz wkład w ewolucję ich treści edukacyjnych
seminaria dla studiów doktoranckich lub szkół letnich dla młodych
naukowców
wkład w międzynarodową sieć szkoleń (ITN, Erasmus, itp.)
udział w pracach komitetów sterujących w zakresie kształcenia
magisterskiego i doktoranckiego
skuteczność wsparcia udzielanego studentom i jakość nadzoru
wyrażająca się m.in. w czasie realizacji prac dyplomowych, liczbie
studentów przerywających naukę
jakość zakończonych prac dyplomowych
monitorowanie kariery doktorantów
zapewnienie, że najnowsze osiągnięcia nauki są zintegrowane
z nauczaniem
krajowe lub międzynarodowe certyfikaty szkoleń
stopień zaangażowania i odpowiedzialności w międzynarodowych
sieciach szkoleniowych
zaangażowanie naukowców w obowiązki dydaktyczne
Strategia
i perspektywy
badawcze
na następny
okres
kontraktowy
zrozumienie przyszłej ewolucji w dziedzinie naukowej i dobra
znajomość bieżących prac w danej dziedzinie
specyfikacja potencjalnego wkładu projektu badawczego w rozwiązanie
problemów zidentyfikowanych przez decydentów społecznych,
gospodarczych i kulturowych
cele w dziedzinie naukowej krajowej lub międzynarodowej, w krótkim
i średnim okresie
cele szkoleniowe przez prowadzenie badań
kompetencje dostępnych zasobów
rozwój umiejętności (szkolenia, mobilność, rekrutacja)
polityka własności intelektualnej
oryginalność perspektyw badawczych i podejmowanie ryzyka
ogólna spójność perspektyw badawczych
synergia zespołu projektowego, zadania, cele
wiarygodność strategii
otwartość na partnerstwa z jednostkami naukowymi
i nieakademickimi
umiejętność strategicznie adaptacji i reorientacji w odpowiedzi
na zmiany w środowisku
jakość samooceny (np. analiza SWOT)
Źródło: opracowanie własne na podstawie: AERES, Criteria for the evaluation of research institutions: The AERES standards, 2013, s. 10-16, www.aeres-evaluation.com
[19.12.2013].
103
104
Ewaluacja składa się z dwóch zasadniczych etapów: ocena wniosków oraz wizyta
ekspertów. Kryteria te oceniane są w skali czterostopniowej i jednostce przyznawana jest
ocena jakości produkcji naukowej A+, A, B, C. Oprócz kryteriów podanych w tabeli 3.9
oceniana jest działalność multi-, inter- oraz transdyscyplinarna47
. Metodyka ewaluacji
we Francji uwzględnia zróżnicowane kryteria ilościowe i ich jakościowe określenia. Mnogość
wskaźników wynika z faktu, że nie różnicuje się metodyki dla różnych obszarów i dyscyplin
naukowych. Jedynie doprecyzowane są kryteria dla nauk społecznych i humanistycznych,
głównie w zakresie publikacji48
.
Inny model jest realizowany w Niemczech, gdzie na sektor naukowy przeznacza się
najwięcej środków finansowych wśród krajów Unii Europejskiej. System ten charakteryzuje
współodpowiedzialność między szczeblem federalnym i 16 landami. Rządy poszczególnych
landów są odpowiedzialne za finansowanie badań naukowych i kształcenie w uczelniach
publicznych w danym landzie. Duży udział badań podstawowych w Niemczech jest
realizowany w nieuniwersyteckich placówkach badawczych (na przykład Max Planck
Society, Fraunhofer Society, Helmholtz Association, Leibniz Association).
Ewaluacja instytucjonalna przeprowadzana jest przez Niemiecką Radę Nauki
(Wissenschaftsrat, WR) ze wsparciem Instytutu Informacji Naukowej i Zapewnienia Jakości
(Institut für Forschungsinformation und Qualitätssicherung, iFQ). Ocena instytucji
naukowych w Niemczech ma na celu określenie celów organizacji, jej mocnych i słabych
stron w dążeniu do zapewnienia rekomendacji dalszych działań jednostki i poprawy jakości
badań i nauczania, infrastruktury, usług naukowych i konsultingowych49
.
Ewaluacja w Niemczech ma charakter jakościowy i jest oparta na ocenie w czterech
grupach kryteriów: wyniki badań, usługi w zakresie udostępniania infrastruktury i doradztwa,
struktury organizacji i jej wyposażenia oraz zgodności realizacji działalności z federalną
i stanową polityką naukową (tabela 3.10).
47
AERES, dz. cyt., s. 17-23. 48
Tamże. 49
Wissenschaftsrat WR, Aufgaben, Kriterien und Verfahren des Evaluationsausschusses des Wissenschaftsrates,
Mainz 2013, s. 7, www.wissenschaftsrat.de [17.12.2013].
105
Tabela 3.10. Kryteria oceny instytucjonalnej w Niemczech
Grupa kryteriów Kryteria
I. OCENA WYNIKÓW BADAŃ
Program badawczy innowacyjność realizowanych zadań (w tym szczególnie kreatywne, ryzykowne
i interdyscyplinarne projekty)
spójność programu badawczego
średniookresowe perspektywy pracy naukowej
integracja w krajowej i międzynarodowej społeczności naukowej
Wyniki badań w naukach humanistycznych: kwalifikowane publikacje, artykuły
w czasopismach recenzowanych, monografie, udział w radach redakcyjnych
czasopism
w naukach inżynierskich: referaty konferencyjne, patenty
zaproszenia do wykładów na konferencjach krajowych i międzynarodowych
finansowanie konkursowe, w tym w szczególności przyznawane w procesie
intensywnej kontroli jakości,
nagrody i wyróżnienia naukowe
Jakość wyników badań instytucji jest monitorowana przez uzupełniający przegląd
wybranych publikacji, odwołanie się do wskaźników bibliometrycznych i analizy
cytowań.
Zapewnienie jakości
zapewnienie regularnej wewnętrznej kontroli jakości przez Radę Naukową
lub podobną instytucję, audyt wewnętrzny, controlling, zasady dobrej praktyki
naukowej.
Współpraca naukowa
współpraca z innymi jednostkami naukowo-badawczymi w kraju i za granicą
tworzenie i rozwój regionalnych klastrów i współpracy badawczej
wspólne spotkania z kadrą zarządzającą i doświadczonymi naukowcami z innych
szkół wyższych
udział naukowców z instytucji w dydaktyce
zaproszenia naukowców na stanowiska profesorskie i stanowiska kierowniczych
w innych instytucjach badawczych
wizyty naukowe w kraju i za granicą, wizyty naukowców z kraju i zagranicy
znaczenie jednostki w krajowym i międzynarodowym środowisku badawczym.
Promowanie młodych
talentów
opieka nad pracami doktorskimi, udział w promocji absolwentów
dostępność punktów szkolenia umiejętności lub/i stypendiów podoktorskich
stabilność perspektywy rozwoju młodych naukowców (organizacja pracy
i wyposażenie)
zespoły naukowo-badawcze
organizacji szkół letnich, konferencji oraz innych imprez dla młodych
naukowców
Orientacja
na zastosowania
praktyczne
wykorzystanie wyników badań
rejestracja przedsiębiorstw spin-off
Orientacja
międzynarodowa
zagraniczna i międzynarodowa współpraca w zakresie publikacji, konferencji
i pozyskiwania funduszy zewnętrznych
zatrudnienie młodych pracowników naukowych i badaczy z zagranicy
zagraniczne staże naukowe pracowników
II. OCENA USŁUG INFRASTRUKTURY I DORADZTWA
Usługi badawcze
i infrastruktura rozwój infrastruktury badawczej i konkretnych rozwiązań związanych
z metodami naukowymi
znaczenie infrastruktury badawczej dla środowiska naukowego
dostępność wewnętrzna i zewnętrzna infrastruktury badawczej
rezultaty wyników badań naukowych uzyskane przez zewnętrznych
użytkowników infrastruktury (istotność, wpływ)
usługi naukowe świadczone przez realizację badań własnych i/lub wykorzystanie
wiedzy eksperckiej
strategie komunikacji z użytkownikami/społeczeństwem
transfer wyników badań do praktyki, w tym innowacje produktowe
produktywność (stosunek nakładów do rezultatów/produktów)
106
Grupa kryteriów Kryteria
Ocena usług
doradczych usługi doradcze świadczone przez realizację badań własnych i/lub wykorzystanie
wiedzy eksperckiej
działalność autonomicznych agencji doradczych
strategia i przejrzystość procedur konsultacyjnych
pozyskanie odpowiednich grup docelowych dla usług konsultingowych
III. OCENA ORGANIZACJI I WYPOSAŻENIA
Kontrola wewnętrzna – interakcje różnych organów (rady powierniczej, rady doradczej) w działalność
jednostki
– adekwatność struktury zarządzania
– znaczenie i zastosowanie systemów motywacyjnych
– elastyczność organizacyjna w realizacji zadań
– kontroling
Struktura
i kwalifikacje kadr
– adekwatność struktury zatrudnienia do realizowanych zadań
– elastyczność kariery i stabilne perspektywy rozwoju dla młodych naukowców
– dostateczny udział kadry finansowanej ze środków zewnętrznych
– równość kobiet i mężczyzn w obszarze zarządzania, środki mające na celu
pogodzenie pracy zawodowej z życiem rodzinnym
Finanse
i infrastruktura
badawcza
– adekwatność struktury finansowania
– elastyczność wykorzystania zasobów
– adekwatność i długoterminowość użyteczności infrastruktury badawczej
– koordynacja z innymi instytucjami na nabycie urządzeń wysokiej jakości
IV. KRYTERIA POLITYKI NAUKOWEJ
Opinia na temat jednostki naukowej reprezentantów władz federalnych i stanowych wchodzących w skład
Komitetu Ewaluacji Nauki z perspektywy politycznej
Źródło: opracowanie własne na podstawie: Wissenschaftsrat WR, Aufgaben, Kriterien und Verfahren des
Evaluationsausschusses des Wissenschaftsrates, Mainz 2013, www.wissenschaftsrat.de [14.01.2014].
Doświadczenia niemieckie pozwoliły sformułować dobre praktyki mające wpływ
na powodzenie procesu ewaluacji50
. Są to:
1. Przejrzystość kryteriów i procedur, dane ekspertów i opinie znane są wszystkim
zaangażowanym stronom.
2. Udział wszystkich stron postępowania, w tym instytucji finansujących.
3. Akceptacja procedury oceny przez wszystkie strony – podkreśla się między innymi,
aby jednostki miały możliwość skomentowania raportów, uzasadnienia swoich postaw.
4. Wykorzystanie potencjału recenzentów – optymalny udział młodszej kadry, kobiet
naukowców i naukowców z kraju i zagranicy.
5. Unikanie stronniczości przez wykazanie braku powiązań ekspertów z ocenianymi obiektami.
6. Koncentracja na interdyscyplinarności jednostek, przez między innymi zapewnienie
ekspertów z najszerszej możliwej orientacji zawodowej.
7. Rozpatrywanie różnych profili zadaniowych jednostek – przy definiowaniu wymagań
jakościowych i wyborze ekspertów uwzględnienie różnych akcentów jednostek w zakresie
badań, nauczania, infrastruktury, usług lub/i usług konsultacyjnych.
50
Wissenschaftsrat WR, Aufgaben, Kriterien und Verfahren des Evaluationsausschusses des Wissenschaftsrates,
Mainz 2013, s. 15-17, www.wissenschaftsrat.de [14.01.2014].
107
8. Klasyfikacja w zakresie badań – odniesienie ogólnej oceny do klasyfikacji krajowej
i międzynarodowej.
9. Niezamierzone skutki ewaluacji nie powinny ulegać regulacji w trakcie oceny, kryteria
i procedury powinny być poddawane regularnemu przeglądowi w celu ich doskonalenia.
10. Ustalenie warunków reakcji jednostki na rekomendacje.
W Chorwacji przeprowadzana jest tak zwana reakredytacja jednostek naukowych.
Ewaluacji poddawane są uczelnie i ich jednostki organizacyjne, instytuty badawcze, Chorwacka
Akademia Nauki i Sztuki oraz inne wymienione w rejestrze organizacji naukowych. Ocena
jednostek naukowych jest przeprowadzana na podstawie czterech kryteriów51
:
1) jakość badań naukowych;
2) produktywność jednostek naukowych (ujęcie ilościowe wyników naukowych w odniesieniu
do liczby pracowników naukowych);
3) wpływ i znaczenie badań naukowych;
4) skuteczność i efektywność organizacji naukowych.
Kryteria są współzależne i są podstawą końcowej oceny jakości. W założeniu, jednostka
naukowa musi na określonym poziomie realizować zadania trzech pierwszych kryteriów.
Dla każdego typu jednostek naukowych jest przeprowadzana inna ocena. Uczelnie
publiczne i publiczne instytuty badawcze poddane są bardziej złożonej ocenie jakości badań
naukowych i instytucji jako całości. Są zobowiązane również do spełnienia bardziej
rygorystycznych wymagań. Niepubliczne organizacje naukowe, których główne obszary
działania wykraczają poza badania naukowe (szpitale, muzea) są oceniane tylko w tej części,
która jest finansowana ze środków publicznych przeznaczonych na działalność naukową
i według różnych minimalnych wymagań.
W wypadku publicznych jednostek naukowych, w zakresie jakości oceniane są zasoby
kadry naukowej w kontekście realizowanych zadań badawczych, doktoranci i kierownicy
projektów i zespołów badawczych, oraz badania naukowe (tabela 3.11). Zgodnie z kryterium
produktywności badań naukowych, ocenie poddawane są publikacje w czasopismach,
materiałach konferencyjnych oraz książkach, patenty, rozwiązania techniczne
oraz opracowane produkty i usługi. Wpływ i znaczenie badań analizowane jest pod względem
ich wpływu na gospodarkę, transferu rezultatów badań do społeczeństwa, transferu rezultatów
badań do edukacji wyższej, międzynarodowe znaczenie badań jednostki naukowej. Poziom
skuteczności i efektywności organizacji naukowych określany jest na podstawie planów
strategicznych, zarządzania jednostką, infrastruktury, funduszy z projektów i kontraktów.
Kryteria oceniane są w skali od 1(niepoprawny) do 5 (poprawny).
51
Agency for Science and Higher Education, Principles and criteria for the evaluation of scientific
organisations in the Republic of Croatia, 2013, FILE NO. 355-02-05-13-7, s. 3-19, www.azvo.hr [29.10.2013].
108
Tabela 3.11. Kryteria oceny jakości jednostek naukowych w Chorwacji
Grupa kryteriów Liczba
zmiennych Waga
1. Jakość badań naukowych 13
1.1. Jakość kadry naukowej 7 10
1.2. Jakość badań naukowych 6 15
2. Produktywność jednostek naukowych 7 10
3. Wpływ i znaczenie badań naukowych 24
3.1. Transfer wyników badań do społeczeństwa 9 5
3.2. Wpływ międzynarodowy 6 10
3.3. Wpływ na gospodarkę 4 10
3.4. Transfer wyników badań do edukacji wyższej 5 5
4. Skuteczność i efektywność organizacji naukowych 32
4.1. Plan strategiczny 3 5
4.2. Zarządzanie 11 5
4.3. Infrastruktura 9 5
4.4. Fundusze z projektów i kontraktów 9 10
Źródło: opracowanie własne na podstawie: Agency for Science and Higher Education, Principles and criteria
for the evaluation of scientific organisations in the Republic of Croatia, 2013, FILE NO. 355-02-05-13-7, p. 19,
www.azvo.hr [29.10.2013].
W różnych obszarach naukowych dla poszczególnych jednostek naukowych
uwzględniane są zróżnicowane rodzaje rezultatów badawczych.
W niektórych krajach nie wdrożono systematycznej oceny instytucjonalnej,
co związane jest z modelem finansowania nauki. W Norwegii jednostki naukowe otrzymują
dotację Rady do spraw Badań Naukowych (ang. The Research Council of Norway)
pod warunkiem, że są oceniane co 6 lat. Fundusze przyznawane są na podstawie metody
historyczno-przyrostowej. Obecnie trwają prace nad opracowaniem nowego modelu opartego
na wynikach. W Szwecji nie prowadzi się systematycznej oceny instytucjonalnej. Ewaluacja
ogranicza się od oceny w ramach prowadzonych programów naukowo-badawczych.
Natomiast co cztery lata dokonuje się rewizji polityki naukowej i ustanowionych priorytetów.
W Danii również brak jest systematycznej oceny instytucjonalnej. W roku 1995 odrzucono
propozycję wprowadzenia modelu systemu brytyjskiego52
. W roku 2009 przeprowadzono
ewaluację instytucjonalną uczelni po przeprowadzeniu fuzji uczelni w celu zapewnienia
ciągłego pozytywnego rozwoju na duńskich uniwersytetach53
. W Hiszpanii nie wprowadzono
dotychczas systematycznego centralnego system oceny instytucjonalnej. Niemniej jednak
zauważa się potrzebę wprowadzenia takiego systemu. Przykładem jest model M. José
i G. López54
, gdzie wskazano czynniki związane z dydaktyką, nauką i administracją.
52
A. ab Iorwerth, Methods of Evaluating University Research Around the World, Departament of Finance,
Canada, Working Paper 2005-04, s. 46. 53
Ministry of Higher Education and Science, Denmark, http://fivu.dk/en/education-and-institutions/higher-
education/danish-universities/the-universities-in-denmark/university-evaluation-in-2009, [27.11.2013]. 54
M. José, G. López, Towards decentralized and goal-oriented models of institutional resource allocation: The
Spanish case, “Higher Education” 2006, t. 51, s. 589-617.
109
Wyróżniono dwie grupy jednostek: zorientowane na nakłady i procesy kształcenia
oraz zorientowane na wyniki i efekty kształcenia. Systematycznej oceny nie przeprowadzano
dotychczas również na Cyprze, w Irlandii i na Węgrzech. Brak szczegółowych danych w języku
angielskim ograniczyły wnikliwą analizę systemów w Austrii, Słowenii, Szwajcarii i na Malcie.
Odnosząc się do kontekstu pozaeuropejskiego, istotny wkład do rozwoju metodyki
oceny i ewaluacji instytucjonalnej jednostek naukowych wniósł system Australii
o nazwie Excellence in Research for Australia (ERA). System administrowany jest przez
Australijską Radę do spraw Badań Naukowych (ang. Australian Reseach Council, ARC). Jest
to system rozwijany równolegle do brytyjskiego systemu RAE i w obu systemach zauważyć
można wzajemne odwołania.
Pierwszy model oceny jednostek naukowych w Australii został wprowadzony w roku
2003 pod nazwą Research Quality Framework (RQF). Był to model opracowany na wzór
brytyjskiego systemu RAE z oceną ekspertów peer review. Celem systemu australijskiego
było jednak określenie banchmarków, czyli wzorców krajowych w dyscyplinach i obszarach
naukowych. W australijskim modelu RQF, w odróżnieniu do RAE, wprowadzono dodatkowo
ocenę wpływu badań na otoczenie środowiska akademickiego w zakresie społecznym,
ekonomicznym, środowiskowym i kulturalnym55
. Uwzględnienie tych kryteriów w systemie
brytyjskim widoczne jest dopiero w systemie REF. Innym elementem wprowadzonym
w Australii było unormowanie tzw. jednostek oceny (ang. Units of Evaluation). Przedmiotem
oceny były dyscypliny naukowe w instytucjach, co sprowadzało się do oceny zespołów
badawczych. Wynikało to ze stosowanego modelu otwartej struktury organizacyjnej.
W roku 2009, po wyborach nowego rządu, przekształcono system RQF w system
ERA, którego główną ideą jest dążenie do naukowej doskonałości. W 2009 roku
przeprowadzono rundę testową, natomiast pełnej oceny dokonano w latach 2010 oraz 2012,
a kolejna ma się odbyć w 2015 roku.
Procedura oceny w Australii przeprowadzana jest w 157 dyscyplinach naukowych
zgrupowanych w 22 obszarach badawczych, zgodnie ze Standardową Klasyfikacją Badań
Australii i Nowej Zelandii56
. Ocenie poddawane są grupy badawcze z 41 uniwersytetów57
.
Jednostki oceny poddawane są ewaluacji względem siedmiu grup kryteriów (tabela 3.12).
55
L. Butler, Using a balanced approach to bibliometrics: quantitative performance measures in the Australian
Research Quality Framework, “Ethics in Science and Environmental Politics” 2008, t. 8, s. 1. 56
Australian Research Council, ERA 2012 Evaluation Handbook, Commonwealth of Australia 2012, s. 101-127
www.arc.gov.au [16.12.2013]. 57
Australian Research Council, ERA 2012 National Report – institution list,
http://www.arc.gov.au/era/Outcomes_2012/InstitutionIndex [17.12.2014].
110
Tabela 3.12. Kryteria oceny w systemie Excellence in Research for Australia 2012 (ERA)
Kryterium Wskaźniki
Skala i aktywność liczba i struktura kadr, rezultaty naukowe
Publikacje
artykuły w czasopismach recenzowanych, publikacje konferencyjne, monografie,
rozdziały w monografiach
Cytowania profil rang centylowych (1, 5, 10, 25, 50), klasa relatywnego wskaźnika cytowań RCI
(ang. relative citation impact), RCI w odniesieniu do światowych i australijskich
benchmarków
Opinia peer review
Miary uznania redakcja prestiżowych czasopism, beneficjenci stypendiów lub grantów australijskiej
rady naukowej, członkostwo w komitetach ustawowych lub centralnych
Przychody finansowe kategorie 1-4
Miary zastosowań patenty, przychody z komercjalizacji badań, efekty spełniające wymogi i normy
ustalone przez krajową radę zdrowia i badań medycznych (National Health
and Medical Research Council (NHMRC) endorsed guidelines), zarejestrowane
projekty, wzory użytkowe
Źródło: Australian Research Council, ERA 2012 Evaluation Handbook, Commonwealth of Australia 2012, s. 20,
www.arc.gov.au [16.12.2013].
Analizie poddawane są wskaźniki dotyczące skali jednostki i jej aktywności naukowej.
Skala jednostki wyrażona jest we wskaźnikach ilościowych dotyczących zatrudnienia
i struktury kadr. Aktywność naukowa określona jest przez zdefiniowane rezultaty działalności
naukowej – wskaźniki te stanowią przegląd rodzajów, ilości i struktury wyników badań, w tym
wkładu instytucji do wyników dyscypliny naukowej. W drugim kryterium ocenie poddawane są
publikacje, ich liczba, struktura, poziom i jakość. Trzecie kryterium stanowią cytowania, gdzie
określa się poziom cytowań w odniesieniu do poziomu światowego przez: analizę progów
centyli dla wielkości 1, 5, 10, 25, 50 oraz analizę relatywnego wskaźnika cytowań RCI.
Do oceny czwartego kryterium peer review jednostka oceny typuje 30% publikacji, które
poddawane są ocenie ekspertów. Kolejne miary określają poziom uznania w środowisku
naukowym, poziom przychodów finansowych oraz rezultaty badań stosowanych58
.
Skala oceny stosowana w Australii jest zasadniczo zgodna z podejściem przyjętym
w procesach oceny badań w innych krajach w celu umożliwienia porównań
międzynarodowych. Przyjęto następujący podział kategorii jednostek naukowych59
:
(5) jednostka oceny wykazuje wybitny poziom, znacznie powyżej światowego standardu jakości;
(4) jednostka oceny wykazuje poziom powyżej światowego standardu jakości;
(3) jednostka oceny wykazuje średni poziom względem światowych standardów jakości;
(2) jednostka oceny wykazuje poziom poniżej światowego standardu jakości;
(1) jednostka oceny wykazuje poziom znacznie poniżej światowego standardu jakości;
(NA) jednostki nie oceniano z powodu niskiego poziomu. Liczba rezultatów naukowych
nie spełnia norm standardowego progu oceny w systemie ERA.
58
Australian Research Council, dz. cyt., s. 26-72. 59
Tamże, s. 22.
111
Wyniki oceny są publikowane w postaci raportu krajowego w odniesieniu
do obszarów, dyscyplin naukowych oraz jednostek naukowych60
. System oceny ERA jest
niezależny od skali jednostek naukowych, co oznacza, że konstrukcja jego metodyki
umożliwia małym jednostkom osiągnięcie wysokich kategorii.
W Stanach Zjednoczonych Ameryki Północnej nie wprowadzono systemowego
podejścia ewaluacji jednostek naukowych. Funkcjonuje tam ogromny, rozproszony i złożony
system B+R61
. Dominująca rola amerykańskich jednostek naukowych w wielu dziedzinach
badawczych jest odzwierciedleniem skali nakładów finansowych na sektor naukowo
-badawczy. Wydatki krajowe brutto na badania i rozwój pokrywają około 43% wspólnych
wydatków pozostałych krajów OECD. Należy jednak zwrócić uwagę, że poziom finansowania
publicznego jest stosunkowo niski w porównaniu z krajami europejskimi62
. W USA dominującą
rolę w finansowaniu badań pełni przemysł. Publiczne środki finansowe przekazywane są przez
30 federalnych agencji rządowych, związanych z konkretnymi dyscyplinami naukowymi63
.
W krajach azjatyckich uznanie zyskała metodyka systemu RAE. Stosowana jest
w Południowej Korei, Hong Kongu, Chinach i na Tajwanie.
60
Australian Research Council, dz. cyt., s. 22. 61
X. Wang, D. Liu, K. Ding, X. Wang, Science funding and research output: a study on 10 countries,
“Scientometrics” 2012, t. 91, s. 596. 62
M. Herbst, dz. cyt., s. 87. 63
OECD, www.oecd.org [17.12.2013]; X. Wang, D. Liu, K. Ding, X. Wang, dz. cyt., s. 596.
112
ROZDZIAŁ 4.
SYSTEM OCENY JEDNOSTEK NAUKOWYCH W POLSCE
4.1. System badań naukowych w Polsce
Fundamenty obecnego systemu nauki w Polsce ukształtowane zostały na początku lat
dziewięćdziesiątych XX wieku1. Ważnym czynnikiem kształtowania tego systemu stała się
akcesja Polski do Unii Europejskiej w 2004 roku, a ostatnio oddziaływania globalne i nasilona
konkurencja międzynarodowa w sektorze badań naukowych.
Rozwój nauki przyczynia się do rozwoju gospodarczego i konwergencji w skali
międzynarodowej. Większość dokumentów strategicznych dotyczących regulacji sektora badań
naukowych podporządkowana jest tym nadrzędnym celom. Fundamentem dla realizacji tych
celów są zasadniczo: wzrost nakładów na działalność badawczo-rozwojową oraz ustalenie
zasad efektywnego ich wykorzystania.
Rozwój nauki w Polsce jest utrudniony i ograniczony przez niedostateczny poziom
finansowania, zarówno ze źródeł publicznych, jak i prywatnych. Wydatki na naukę mierzone
wskaźnikiem GERD lokują Polskę wśród państw o najniższych indeksach*. Obecnie krajowe
nakłady na działalność badawczo-rozwojową, mierzone w odniesieniu do PKB, są przeszło
dwukrotnie mniejsze od zakładanego unijnego poziomu 3% do 2020 roku. Wyznaczony
przez UE poziom wydatków na badania i rozwój nie jest osiągalny w Polsce. W odpowiedzi
na dokument strategiczny Europa 2020 przyjęto prognozę wartości docelowej wskaźnika
nakładów na działalność badawczo-rozwojową w Polsce w roku 2020 na poziomie 1,7% PKB2.
Zgodnie jednak z tym założeniem, relatywne nakłady na badania w Polsce systematycznie
są zwiększane od 2006 roku (rysunek 4.1). Mimo to, w Polsce utrzymuje się nadal niski poziom
nakładów budżetowych oraz pozabudżetowych na B+R, szczególnie w porównaniu do innych
krajów UE. Suma krajowych nakładów wewnętrznych na działalność badawczą i rozwojową
(GERD) w 2012 roku wyniosła 14 352,9 mln zł i w stosunku do 2011 roku wzrosła o 22,8%.
Intensywność prac badawczych i rozwojowych, mierzona jako udział nakładów wewnętrznych
poniesionych na badania naukowe i prace rozwojowe w PKB, osiągnęła w 2012 roku wartość
0,90% i wzrosła o 0,14 punktu procentowego w porównaniu do roku poprzedniego3.
1 OECD, Przegląd narodowej polityki naukowej i technicznej: Polska, Fundacja Rozwój Szkoły Głównej
Gospodarstwa Wiejskiego, Warszawa 1996, s. 138-188.
* Patrz: rozdział 3.1, rysunek 3.1. 2 Ministerstwo Nauki i Szkolnictwa Wyższego, http://www.nauka.gov.pl/prognozy-rozwoju/nowa-prognoza-
gerd-dla-polski-w-2020-r-.html [13.01.2014]. 3 GUS, Działalność badawcza i rozwojowa w Polsce w 2012 roku, s. 1, stat.gov.pl/obszary-tematyczne/nauka-i-
technika-spoleczenstwo-informacyjne/nauka-i-technika/dzialalnosc-badawcza-i-rozwojowa-w-polsce-w-2012-
r-,8,2.html [17.04.2014].
113
Rysunek 4.1. Nakłady na działalność B+R w odniesieniu do PKB w Polsce w poszczególnych latach
Źródło: opracowanie własne na podstawie danych GUS-u.
W strukturze nakładów na B+R dominuje udział wydatków z budżetu państwa
(rysunek 4.2) i pod tym względem Polska jest jednym z krajów o najwyższym wskaźniku*.
Ponad połowę nakładów stanowią środki publiczne, natomiast około 1/3 wydatki podmiotów
gospodarczych. W krajach UE średni udział finansowania budżetowego w nakładach ogółem
na B+R wynosi około 38% (2011 rok) i połowa krajów osiąga niższy wskaźnik. Średni udział
wydatków podmiotów gospodarczych na B+R wynosi natomiast prawie 45%. Pod względem
udziału środków zagranicznych w finansowaniu działalności B+R, Polska zajmuje pozycję
blisko poniżej średniej, jednak połowa krajów UE uzyskuje wskaźnik poniżej 12%.
Rysunek 4.2. Nakłady na działalność B+R według źródeł finansowania [%]
Źródło: GUS, Działalność badawcza i rozwojowa w Polsce w 2012 roku, s. 1, stat.gov.pl/obszary-
tematyczne/nauka-i-technika-spoleczenstwo-informacyjne/nauka-i-technika/dzialalnosc-badawcza-i-rozwojowa-
w-polsce-w-2012-r-,8,2.html [17.04.2014].
* Patrz: rozdział 3.1, rysunek 3.1.
0,56 0,57 0,6
0,68 0,74 0,76
0,9
1,06 1,18
1,28 1,34
1,42 1,53
1,60
0,00
0,20
0,40
0,60
0,80
1,00
1,20
1,40
1,60
1,80
2,00
0
0,2
0,4
0,6
0,8
1
1,2
1,4
1,6
1,8
2
2006 2007 2008 2009 2010 2011 2012
PK
B [b
ln zł]
Wy
datk
i n
a B
+R
[%
PK
B]
[lata] GERD PKB
55,8
51,4
28,1
32,3
2,4
2,6
0,3
0,4
13,4
13,3
0 10 20 30 40 50 60 70 80 90 100
2011
2012
[%]
[Lata
]
sektor rządowy sektor przedsiębiorstw
sektor szkolnictwa wyższego sektor prywatnych instytucji niekomercyjnych
zagranica
114
Struktura nakładów na działalność B+R według rodzajów badań wskazuje, że w Polsce
dominują badania podstawowe i stosowane, i relacja ta nie zmienia się od wielu lat. Badania
podstawowe nie są bezpośrednio zorientowane na zastosowanie i nie znajdują się w obszarze
zainteresowania ze strony sektora prywatnego, dlatego ciężar ich finansowania spoczywa
głównie na państwie. Udział źródeł finansowania ze strony podmiotów gospodarczych
związany jest z nakładami w prace rozwojowe. Inwestycja w badania stosowane ma istotne
znaczenie dla transferu wiedzy od badań podstawowych do prac rozwojowych.
Rysunek 4.3. Struktura nakładów na działalność B+R według rodzajów badań [%]
Źródło: opracowanie własne na podstawie danych GUS.
Finansowanie nauki w Polsce obejmuje głównie finansowanie działań na rzecz
realizacji badań naukowych, prac rozwojowych oraz realizacji innych zadań istotnych
dla postępu cywilizacyjnego, rozwoju gospodarczego i kulturalnego państwa4. Rozwój
polityki naukowej i finansowanie opiera się na rocznych cyklach budżetowych, zgodnie
z wieloletnim krajowym planem strategicznym, obejmujących okres do 2020 roku,
oraz przyznanych dodatkowych programach długoterminowych (finansowanie badań
stosowanych z Narodowego Centrum Badań i Rozwoju opiera się na planach budżetowych
obejmujących horyzont czasowy dłuższy niż jeden rok).
4 ustawa z dnia 30 kwietnia 2010 r. o zasadach finansowania nauki, Dz. U. nr 96, poz. 615.
36,4
33,1
33,9
34,5
36,2
38,5
37,9
38,8
38,8
39,5
37,4
36,5
37,8
38,2
38,4
39,7
36,4
36,7
26,8
28,9
27,9
25,8
24,5
24,9
25,7
25,7
25,7
25,2
24,2
24,6
23,9
22,4
18,9
20,5
24
21
36,8
38
38,2
39,7
39,3
36,6
36,4
35,5
35,5
35,3
38,4
38,9
38,3
39,4
42,7
39,8
39,6
42,3
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
2012
[%]
[Lata
]
Badania podstawowe Badania stosowane Badania rozwojowe
115
Nakłady publiczne w Polsce na naukę zwiększane są od 2002 roku (rysunek 4.4).
Znaczny wzrost środków nastąpił po roku 2009. Jest to jednak spowodowane głównie
zwiększonym udziałem środków Unii Europejskiej. Środki budżetowe w ostatnich latach
relatywnie malały.
Rysunek 4.4. Zestawienie nakładów publicznych na finansowanie nauki (poz. 28 w budżecie kraju) oraz dotację
statutową [mln zł]
Źródło: opracowanie własne na podstawie:; Ministerstwo Finansów, Departament Budżetu Państwa,
www.finanse.mf.gov.pl/pl/web/bip; sprawozdania Najwyższej Izby Kontroli www.nik.gov.pl/kontrole/analiza-
budzetu-panstwa; Ministerstwo Nauki i Szkolnictwa Wyższego www.mnisw.gov.pl [7.7.2014].
Znaczna część środków z budżetu państwa na badania naukowe i prace rozwojowe
przekazywana jest w postaci dotacji podmiotowej lub dotacji celowej według zasad
określonych w ustawie z dnia 30 kwietnia 2010 r. o zasadach finansowania nauki
i rozporządzenia Ministra Nauki i Szkolnictwa Wyższego z dnia 5 listopada 2010 r. w sprawie
kryteriów i trybu przyznawania oraz rozliczania środków finansowych na naukę
na finansowanie działalności statutowej5. Wysokość dotacji statutowej na utrzymanie
potencjału badawczego nie ulega radykalnym zmianom na przestrzeni lat (rysunek 4.4),
ale jej relatywny udział w budżecie na naukę uległ znacznemu zmniejszeniu z 70% w 2001
roku do 47% w 2014 roku na rzecz finansowania konkursowego. Nadal jednak dotacja
podmiotowa stanowi główne źródło finansów jednostek naukowych.
5 rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 5 listopada 2010 r. w sprawie kryteriów i trybu
przyznawania oraz rozliczania środków finansowych na naukę na finansowanie działalności statutowej, Dz. U.
2010 nr 218 poz. 1438.
2319,67
1990,60 1957,30 2138,59 2105,45
2294,65 2349,67 2285,86 2587,21 2293,99 2238,13 2227,46
2377,24 2408,69
0
1000
2000
3000
4000
5000
6000
7000
8000
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014*
[mln
zł]
[Lata] Dotacja na działalność statutową Dotacja na naukę ogółem Wydatki budżetu państwa
* projekt
116
Rysunek 4.5. Struktura wydatków w 2014 roku (poz. 28 w budżecie kraju)
Źródło: opracowanie własne na podstawie: Ministerstwo Finansów, Departament Budżetu Państwa,
www.finanse.mf.gov.pl/pl/web/bip; Ministerstwo Nauki i Szkolnictwa Wyższego, www.mnisw.gov.pl
[17.07.2014].
Alokacja dotacji instytucjonalnej w Polsce dokonywana jest na podstawie czterech
kryteriów zgodnie z § 6.1 rozporządzenia Ministra Nauki i Szkolnictwa Wyższego z dnia
5 listopada 2010 roku:
1) wielkości jednostki mierzonej liczbą pracowników zatrudnionych w jednostce naukowej
przy prowadzeniu badań lub prac rozwojowych;
0,93%
5,46%
24,18%
17,41%
0,34% 0,83% 3,31% 0,16%
23,02%
11,82%
5,87%
0,45%
0,47%
0,89%
4,86%
47,39%
Działalność upowszechniająca naukę
Współpraca naukowa z zagranicą
Narodowe Centrum Badań i Rozwoju (NCBiR)
Narodowe Centrum Nauki (NCN)
Pozostała działalność
Administracja publiczna
Obrona narodowa
Kultura i ochrona dziedzictwa narodowego
dotacja podmiotowa z budżetu dla jednostek naukowych
dotacja podmiotowa z budżetu dla jednostek niezaliczanych do sektora finansów publicznych
dotacja celowa z budżetu dla pozostałych jednostek zaliczanych do sektora finansów publicznych
dotacja celowa z budżetu na finansowanie lub dofinansowanie zadań zleconych do realizacji pozostałym
jednostkom niezaliczanym do sektora finansów publicznychstypendia różne (stypendia naukowe dla wybitnych młodych naukowców)
zakup usług pozostałych
inwestycje budowlane oraz inwestycje w zakresie dużej infrastruktury badawczej służącej potrzebom badań
naukowych lub prac rozwojowych
Dzi
ała
lność
sta
tuto
wa
i in
wes
tycy
jna j
edn
ost
ek n
au
kow
ych
117
2) przyznanej kategorii jednostki naukowej będącej rezultatem oceny jakości działalności
naukowej lub badawczo-rozwojowej jednostek naukowych (ocena parametryczna);
3) rodzaju jednostki naukowej;
4) względnych kosztów badań w poszczególnych obszarach naukowych.
Dotacje celowe przyznawane są jednostkom naukowym, które uzyskały kategorię A+, A
oraz B w ocenie parametrycznej. O dotacje celowe nie mogą natomiast ubiegać się jednostki
naukowe z kategorią C.
W strukturze wydatków budżetowych na naukę, oprócz dotacji podmiotowej, istotną
część stanowi finansowanie konkursowe (rysunek 4.5), które jest przekazywane
do redystrybucji Narodowego Centrum Badań i Rozwoju (NCBiR) oraz Narodowego
Centrum Nauki (NCN). Pozostałe środki przeznacza się na działalność wspierającą
działalność naukowo-badawczą.
Źródła i mechanizmy finansowania nauki w Polsce zharmonizowane są ze strukturą
systemu nauki (rysunek 4.6). Zgodnie z logiką modelu z rysunku 3.4*, w polskim systemie
można wyróżnić cztery poziomy.
Parlament
Rada Ministrów
UE
Ministerstwo Nauki
i Szkolnictwa WyższegoMinisterstwo Gospodarki Inne ministerstwa
Komitet Polityki Naukowej
(KPN)
Komitet Ewaluacji Jednostek
Naukowych (KEJN)
Narodowe Centrum Nauki (NCN)
Narodowe Centrum Badań
i Rozwoju (NCBiR)Polska Agencja Rozwoju
Przedsiębiorczości (PARP)
Polska Agencja Informacji
i Inwestycji Zagranicznych
(PAIZ)
Urząd Patentowy RP (UPRP)
Rada Główna Nauki
i Szkolnictwa Wyższego
Rada Główna Instytutów
Badawczych
Ośrodki
akademickie
Instytuty Polskiej
Akademii Nauk
Instytuty
badawcze
Ośrodki
przemysłoweInne jednostki
Fundacja Nauki Polskiej (FNP)
Rysunek 4.6. Struktura systemu nauki w Polsce
Źródło: opracowanie własne.
* Patrz: rozdział 3.1.
118
Na poziomie politycznym Parlament i Rada Ministrów zatwierdzają wysokość środków
budżetowych na naukę. Bezpośredni wpływ na kształtowanie krajowej polityki naukowej
ma również polityka unijna realizowana przez wieloletnie programy ramowe i operacyjne.
Na poziomie operacyjnym, system koordynowany jest przez Ministerstwo Nauki
i Szkolnictwa Wyższego (MNiSW)6. Ministerstwo posiada centralną rolę decyzyjną. Minister
Nauki i Szkolnictwa Wyższego planuje i przekazuje środki finansowe dla jednostek
naukowych i innych podmiotów jako dysponent części budżetowych Nauka oraz Szkolnictwo
Wyższe oraz instytucja pośrednicząca w trzech programach operacyjnych: Innowacyjna
Gospodarka, Kapitał Ludzki oraz Infrastruktura i Środowisko.
Minister Nauki i Szkolnictwa Wyższego, odgrywa kluczową rolę w formułowaniu
polityki badań i nauki w Polsce oraz przygotowaniu dokumentów strategicznych.
Najważniejsze z nich to: Krajowy Program Badań (KPB)7, Strategia rozwoju nauki w Polsce do
2015 roku8, Strategia innowacyjności i efektywności gospodarki „Dynamiczna Polska 2020”
9,
Program Operacyjny Inteligentny Rozwój 2014-2020 (POIR)10
, Europa 202011
.
Urząd Ministra Nauki i Szkolnictwa Wyższego jest także odpowiedzialny
za finansowanie dotacji podmiotowej, selekcję wniosków i ocenę jednostek naukowych.
Ministerstwo jest wspierane przez organy doradcze: Komitet Polityki Naukowej (KPN),
Komitet Ewaluacji Jednostek Naukowych (KEJN), Radę Główną Nauki i Szkolnictwa
Wyższego (RGNiSW) oraz Radę Główną Instytutów Badawczych (RGIB).
Główne agencje finansujące to Narodowe Centrum Nauki (NCN) nadzorujące
finansowanie badań podstawowych oraz Narodowe Centrum Badań i Rozwoju (NCBiR)
odpowiedzialne za zarządzanie strategicznymi programami badań naukowych i rozwoju
z naciskiem na komercjalizację i transfer wyników badań naukowych do gospodarki.
Inne ministerstwa sektorowe współuczestniczą w zarządzaniu sektorem nauki przez
nadzór niektórych uczelni, finansowanie projektów oraz dystrybucję środków unijnych.
6 rozporządzenie Prezesa Rady Ministrów z dnia 16 listopada 2007 r. w sprawie szczegółowego zakresu działania
Ministra Nauki i Szkolnictwa Wyższego, Dz. U. nr 216, poz. 1596; Rozporządzenie Rady Ministrów z dnia
5 maja 2006 r. w sprawie utworzenia Ministerstwa Nauki i Szkolnictwa Wyższego Dz. U. 2006 nr 76 poz. 533;
Zarządzenie nr 145 Prezesa Rady Ministrów z dnia 23 grudnia 2008 r. w sprawie nadania statutu Ministerstwu
Nauki i Szkolnictwa Wyższego, z późniejszymi zmianami, Monitor Polski z 31 grudnia 2008, nr 97, poz. 845. 7 Krajowy Program Badań, Warszawa 2011, http://www.bip.nauka.gov.pl/krajowy-program-badan [17.07.2013].
8 Departament Strategii i Rozwoju Nauki Ministerstwa Nauki i Szkolnictwa Wyższego, Strategia rozwoju nauki
w Polsce do 2015 roku, Warszawa 2007. 9 Ministerstwo Gospodarki, Strategia innowacyjności i efektywności gospodarki „Dynamiczna Polska 2020”
(SIEG), Warszawa 2013. 10
Ministerstwo Infrastruktury i Rozwoju, Program Operacyjny Inteligentny Rozwój 2014-2020 (POIR),
Warszawa 2014. 11
Komisja Europejska, Europa 2020..., dz. cyt.
119
Prace badawcze prowadzone są głównie przez ośrodki akademickie, jednostki naukowe
PAN, instytuty badawcze oraz przedsiębiorstwa. W Polsce powołanych jest 967 publicznych
jednostek naukowych, w tym 778 w uczelniach publicznych, 70 instytutów Polskiej Akademii
Nauk i 119 państwowych instytutów badawczych (rysunek 4.7). Dodatkowo, w uczelniach
niepublicznych wyodrębnionych jest 665 jednostek naukowych.
Rysunek 4.7. Liczba jednostek naukowych w Polsce w podziale na typ jednostki naukowej i województwo (stan na 31.12.2012)
Źródło: opracowanie własne na podstawie danych z raportu Nauka w Polsce 2013 roku, Edycja 1, Ministerstwo
Nauki i Szkolnictwa Wyższego, Warszawa 2013.
Analizując liczebność jednostek w układzie terytorialnym (rysunek 4.7) można
wyodrębnić cztery grupy ośrodków naukowych:
I grupa (powyżej 150 jednostek naukowych) – województwo mazowieckie;
II grupa (100-150 jednostek naukowych) – województwa śląskie, wielkopolskie, małopolskie,
łódzkie, dolnośląskie;
III grupa (50-100 jednostek naukowych) – województwa pomorskie, lubelskie, kujawsko-
pomorskie, zachodniopomorskie;
IV grupa (0-50 jednostek naukowych) – podkarpackie, podlaskie, świętokrzyskie, warmińsko-
mazurskie, opolskie, lubuskie.
Badania naukowe są prowadzone w 95 dyscyplinach naukowych i artystycznych
w ośmiu obszarach wiedzy: nauk humanistycznych, nauk społecznych, nauk ścisłych, nauk
przyrodniczych, nauk technicznych, nauk rolniczych, leśnych i weterynaryjnych, nauk
0 50 100 150 200 250 300 350 400 450
lubuskieopolskie
warmińsko-mazurskieświętokrzyskie
podlaskiepodkarpackie
zachodniopomorskiekujawsko-pomorskie
lubelskiepomorskie
dolnośląskiełódzkie
małopolskiewielkopolskie
śląskiemazowieckie
Liczba jednostek naukowych
Jednostki naukowe w uczelniach publicznych
Jednostki naukowe w uczelniach niepublicznych
Instytuty PAN
Instytuty badawcze
120
medycznych, o zdrowiu i o kulturze fizycznej oraz obszar sztuki12
. Zatrudnionych
w jednostkach naukowych w działalności naukowej i badawczo-rozwojowej, według stanu
na 31 grudnia 2012 roku, było 76 069 naukowców (z tytułem lub stopniem naukowym),
co stanowi 0,45% ogółem aktywnych zawodowo w wieku produkcyjnym w Polsce13
. Spośród
krajów europejskich większą liczbę zatrudnionych w działalności B+R wykazują Niemcy,
Wielka Brytania, Francja, Hiszpania i Włochy. Prawie 85% zatrudnionych naukowców
reprezentuje uczelnie, co dowodzi, że publiczne ośrodki akademickie odgrywają główną rolę
w kreowaniu wiedzy.
Ogółem w działalności badawczej i rozwojowej w Polsce zatrudnionych jest około
140 000 osób według stanu na 31 grudnia 2012 roku, z czego 21% stanowią pracownicy
podmiotów gospodarczych, ponad 57% to pracownicy szkół wyższych14
. Należy tu zaznaczyć,
że udział pracowników naukowo-badawczych w ogółem zatrudnionych w kraju w 2011 roku
wyniósł 0,65%, przy średniej UE27 1,17% i najwyższym wskaźniku Finlandii 2,27%15
.
Rysunek 4.8. Liczba i struktura zatrudnionych w działalności badawczej i rozwojowej według poziomu
wykształcenia [tys.]
Źródło: opracowanie własne na podstawie: Rocznik statystyczny 2013, GUS, Warszawa 2013, s. 426.
Pracownicy z tytułem lub stopniem naukowym stanowiący 51% ogółem zatrudnionych
w działalności B+R, głównie skoncentrowani są w ośrodkach akademickich, instytutach
badawczych i jednostkach PAN (rysunek 4.8).
Najliczniej pod względem zatrudnienia pracowników z tytułem lub stopniem
naukowym reprezentowane są odpowiednio nauki humanistyczne (21%), techniczne (20%),
12
Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 8 sierpnia 2011 r. w sprawie obszarów
wiedzy, dziedzin nauki i sztuki oraz dyscyplin naukowych i artystycznych , Dz. U. nr 179, poz. 1065. 13
Na podstawie danych GUS-u. 14
Rocznik statystyczny 2013, GUS, Warszawa 2013, s. 426. 15
Dane Eurostatu, http://appsso.eurostat.ec.europa.eu/nui/submitViewTableAction.do?dvsc=8 [17.07.2014].
0 10 20 30 40 50 60 70 80
Pozostałe jednostki
Jednostki naukowe PAN
Instytuty badawcze (dawne JBR)
Podmioty gospodarcze
Ośrodki akademickie
Liczba zatrudnionych [tys.] profesordoktor habilitowanydoktortytuł zawodowy magistra, inżyniera, lekarza, licencjatapozostali
10599
14046
46045 53644
15199
121
grupa nauk medycznych, nauk o zdrowiu i nauk o kulturze fizycznej (17%) oraz nauki
społeczne (16%). Strukturę zatrudnienia pracowników z tytułem lub stopniem naukowym
profesora, doktora habilitowanego oraz doktora w jednostkach naukowych według obszarów
wiedzy przedstawiono na rysunku 4.9.
Rysunek 4.9. Struktura zatrudnienia z tytułem lub stopniem naukowym profesora, doktora habilitowanego
oraz doktora w jednostkach naukowych według obszarów wiedzy (stan na 31.12.2012)
Źródło: opracowanie własne na podstawie danych z raportu Nauka w Polsce 2013 r., Edycja 1, MNiSW,
Warszawa 2013.
Badania w obszarze nauk humanistycznych i społecznych są rozwijane głównie
w ośrodkach akademickich. Uczelnie publiczne są dość zróżnicowane względem
uprawianych obszarów wiedzy. Instytuty PAN stanowią centrum badań nauk ścisłych,
przyrodniczych i technicznych. W instytutach badawczych głównie rozwijane są nauki
techniczne, rolnicze, leśne i weterynaryjne oraz grupa nauk medycznych.
Podsumowując, prawie 85% zatrudnionych naukowców reprezentuje uczelnie,
co dowodzi, że publiczne ośrodki akademickie odgrywają główną rolę w kreowaniu wiedzy.
Stosunkowo niewielka liczba zatrudnionych w sektorze B+R nie pozwala jednak
na wykorzystanie potencjału badawczego.
Główną cechą systemu badań w Polsce jest fakt, że jest nadal zdominowany przez
fundusze publiczne, charakteryzuje się dużym rozdrobnieniem organizacyjnym i tematycznym
oraz przewagą badań podstawowych i stosowanych nad badaniami przemysłowymi i pracami
rozwojowymi. Niesatysfakcjonujący postęp w rozwoju nauki w Polsce ma zatem swoje
przyczyny w rozwiązaniach instytucjonalnych i postawach przejawiających się na szczeblu
podstawowych jednostek naukowych16
. Wynikiem tego jest bardzo duże zróżnicowanie
16
Ministerstwo Nauki i Szkolnictwa Wyższego, Strategia rozwoju nauki...
0 0,2 0,4 0,6 0,8 1
Instytuty badawcze
Jednostki naukowe PAN
Jednostki naukowe w uczelniach
niepublicznych
Jednostki naukowe w uczelniach
publicznych
nauki humanistycznenauki społecznenauki ścisłenauki przyrodniczenauki technicznenauki rolnicze, leśne i weterynaryjnenauki medyczne, nauki o zdrowiu oraz nauki o kulturze fizycznejobszar sztuki
122
aktywności badawczej, jakości badań i kształcenia pomiędzy uczelniami i placówkami
badawczymi w kraju17
.
Należy podkreślić, iż mimo rozdrobnionej struktury podmiotowej nauki polskiej,
nie istnieje żaden mechanizm koordynacji finansowania i oceny efektywności ponoszonych
nakładów. Zdaniem autorki, kluczowe dla rozwoju innowacyjności w Polsce jest zwiększenie
poziomu finansowania, a przy jego znacznym ograniczeniu, wprowadzenie mechanizmów
finansowania, które będą stymulować produktywność jednostek naukowych. Dotacja statutowa
ma istotne znaczenie i powinna być silniej powiązana z jakością jednostek naukowych,
co zaleca również J. Wilkin18
. Według raportu Najwyższej Izby Kontroli w zakresie
prawidłowości wykorzystania środków publicznych przeznaczonych na naukę w latach
2009-2011, w tym środków budżetowych i środków z unii Europejskiej oraz ocena
uzyskanych efektów badawczych i wdrożeniowych, zjawisko rozproszenia środków
finansowych na naukę było podtrzymywane przez niewłaściwie skonstruowany system oceny
jednostek naukowych, który nie gwarantował koncentracji środków finansowych
w jednostkach o najwyższym potencjale naukowym19
.
Słabość polskiej gospodarki z punktu widzenia jej innowacyjności jest także związana
z niekorzystną strukturą finansowania. Pożądanym kierunkiem zmian jest przenoszenie
ciężaru finansowania wydatków na B+R z sektora rządowego do sektora przedsiębiorstw.
Następuje wówczas lepsze powiązanie działalności B+R z rynkiem, a to z kolei stwarza
warunki do poprawy efektywności gospodarowania20
. Istnieje jednak związek między
wysokością finansowania badań i wdrożeń ze środków publicznych i prywatnych. Tam, gdzie
przeznacza się stosunkowo dużo środków na badania z funduszy publicznych, tam również
wzrasta skłonność podmiotów prywatnych do finansowania badań naukowych i wdrożeń21
.
17
J. Wilkin, Finansowanie nauki i szkolnictwa wyższego w Polsce. Wybrane problemy i postulowane kierunki
reform, „Studia BAS” 2013, nr 3(35), s. 51-70. 18
Tamże, s. 63. 19
Najwyższa Izba Kontroli, Wykorzystanie środków publicznych na naukę, nr 162/2012/P/11/070/KNO,
Warszawa 2012, s. 23-28. 20
Z. Wołodkiewicz‑Donimirski, Innowacyjność polskiej gospodarki na tle międzynarodowym, „Studia BAS”
2011, nr 1(25), s. 12. 21
J. Wilkin, dz. cyt., s. 53.
123
4.2. Metodyka oceny parametrycznej jednostek naukowych
System instytucjonalnej oceny jednostek naukowych w Polsce opiera się na podejściu
parametrycznym. Przesłanki metodologiczne wynikają z przyjęcia założenia, że istotą
działalności naukowej jest „produkcja naukowa”, która znajduje swoje odzwierciedlenie m.in.
w publikacjach naukowych, awansach pracowników nauki, patentach, wdrożeniach its. Zakłada
się, że jej wielkość można zmierzyć posługując się metodami badań naukometrycznych. Stąd,
ocena parametryczna i wynikająca z niej kategoryzacja to pewien system porównywania
wielkości „produkcji naukowej” poszczególnych jednostek naukowych.
Podstawą oceny są udokumentowane wyniki badań naukowych i prac rozwojowych,
zawarte w ankiecie jednostki naukowej, corocznie składane w formie sprawozdań
do ośrodków centralnych. Efektem każdej oceny parametrycznej jest ranking jednostek
naukowych i przyznane kategorie jakości ustalone na podstawie syntetycznego wskaźnika.
Wskaźnik ten wyznaczany jest na podstawie zestawu kryteriów (zmiennych, cech)
o charakterze ilościowym, którym przypisuje się wartości punktowe, stanowiące wagi tych
cech. Kryteria i parametry wyznacza się arbitralnie w zespołach eksperckich.
Warunkiem sformalizowanych systemów oceny jednostek naukowych jest ich
uniwersalność problemowa i instytucjonalna. W ocenie parametrycznej wyraża się
to w stosowaniu zróżnicowanych kryteriów dla różnych dziedzin i dyscyplin naukowych,
metodyce wyznaczania wskaźnika oceny, lub grupowaniu jednostek naukowych o podobnym
profilu działania w celu uzyskania wspólnych odniesień.
Systematyczna ocena parametryczna w Polsce jest przeprowadzana jest od 1997 roku
(rysunek 4.10). Przeprowadzono wówczas pilotażową kategoryzację wybranych jednostek
w celu praktycznego sprawdzenia ustalonych kryteriów, a w 1998 roku skategoryzowano
wszystkie jednostki naukowe. Przedtem Komitet do Spraw Nauki i Postępu Technicznego
przy Radzie Ministrów, przeprowadził wstępną ocenę placówek naukowych w Polsce w 1990
roku. Rok później, powołany w 1991 roku Komitet Badań Naukowych wprowadził nową
koncepcję organizacji i finansowania badań naukowych, następnie w 1992 roku opracował
nowe zasady kategoryzacji22
.
Pierwsza inicjatywa systematycznej oceny parametrycznej obejmowała okres trzyletni
i miała charakter pilotażowy. Kolejne, cztery pełne oceny jednostek naukowych
przeprowadzono za działalność naukową w okresie czteroletnim. Następny cykl oceny ma
nastąpić w roku 2017 za lata 2013-2016.
22
D. Dąbrowska-Charytoniuk, Ocena parametryczna jednostki naukowej – utrapienie czy szansa dla bibliotek?,
XXI Konferencja Problemowa Bibliotek Medycznych, "Biblioteki medyczne wobec problemu
bibliometrycznej oceny dorobku naukowego uczelni", Poznań 28-29.10.2002.
124
1995
2013
1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013
2001 - 2004
Ocena parametryczna 2006
1997 - 2000
Ocena parametryczna 2003
1995 - 1997
Ocena parametryczna 1999
1
2005 - 2008
Ocena parametryczna 2010
2009 - 2013
Kompleksowa ocena
jakości naukowej 2013
Rysunek 4.10. Proces oceny parametrycznej w Polsce
Źródło: opracowanie własne.
Nadrzędnymi celami systemu oceny instytucjonalnej w Polsce jest:
dostarczenie w stałych odstępach czasowych, danych o faktycznej kondycji naukowej
jednostek;
ustalenie kategorii jakości działalności jednostek naukowych;
stymulowanie i ukierunkowanie rozwoju jednostek naukowych;
dostarczenie informacji jednostkom naukowym o ich pozycji w danym obszarze
naukowym.
Podstawę prawną systemu oceny instytucjonalnej stanowi właściwe rozporządzenie
ministra w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na działalność statutową, w którym ustala się zakres, metodykę oraz tryb przeprowadzania
oceny. Procedura systemu oceny jednostek naukowych obejmuje trzy główne etapy:
klasyfikację jednostek naukowych, parametryzację i kategoryzację. Można zaobserwować,
że metodyka realizacji tych etapów jest rozwijana w każdym cyklu oceny. Zestawienie
ogólnych zasad stosowanych w ocenie parametrycznej w poszczególnych latach
przedstawiono w tabeli 4.1.
Założenia systemu oceny parametrycznej zostały ugruntowane w roku 1999, kiedy
po raz pierwszy zastosowano ten system do oceny działalności jednostek naukowych
i badawczo-rozwojowych za lata 1995-1997. Ocena parametryczna opracowana
i przeprowadzona została wówczas przez Komitet Badań Naukowych (KBN) w 13 zespołach
eksperckich. W ogólnych zasadach przyjęto 19 zmiennych sklasyfikowanych w 6 grupach*.
Główny nacisk położony został na publikacje w wiodących czasopismach i monografiach oraz
rozwój naukowy pracowników naukowo-badawczych wyrażony w awansach naukowych.
* Patrz: kryteria oceny parametrycznej w 1999 roku zawarte w aneksie, załącznik 1.
125
Tabela 4.1. Założenia i rozwój oceny parametrycznej w Polsce w poszczególnych latach
Nazwa Nadzór
Klasyfikacja
jednostek
naukowych
Parametryzacja Kategoryzacja
Grupy kryteriów Liczba
zmiennych Metoda Kategorie
Ocena
parametryczna
1999
(OP1999)
Komitet Badań
Naukowych (KBN)
grupy
jednorodne
1. Publikacje recenzowane
2. Monografie naukowe, podręczniki akademickie
3. Stopnie naukowe, tytuły naukowe
4. Patenty, wzory użytkowe
5. Wykorzystanie w praktyce wyników prac jednostki (wdrożenia)
6. Systemy jakości, akredytacja laboratoriów
7. Ocena ogólna jednostki
20-28 ocena ekspercka 1, 2, 3, 4, 5, 6
Ocena
parametryczna
2003
(OP2003)
Ministerstwo Nauki
i Informatyzacji
(MNiI) – KBN
grupy
jednorodne
1. Publikacje recenzowane
2. Monografie naukowe (książki), prace zbiorowe i podręczniki
akademickie
3. Stopnie naukowe, tytuły naukowe
4. Opatentowane wynalazki, prawa ochronne na wzory użytkowe
5. Praktyczne wykorzystanie poza jednostką wyników badań
naukowych i prac rozwojowych prowadzonych w jednostce
6. Systemy jakości, akredytacja laboratoriów, udział w programach
ramowych unii europejskiej
7. Ocena ogólna jednostki
24-30 ocena ekspercka 1, 2, 3, 4, 5
Ocena
parametryczna
2006
(OP2006)
Ministerstwo
Edukacji i Nauki
(MEiN); Ministerstwo
Nauki i Szkolnictwa
Wyższego (MNiSW)
– Rada Nauki
grupy
jednorodne
1. Wyniki działalności naukowej
2. Aktywność jednostki naukowej
3. Zastosowania praktyczne
37 ocena ekspercka 1, 2, 3, 4, 5
Ocena
parametryczna
2010
(OP2010)
MNiSW – Komitet
Ewaluacji Jednostek
Naukowych (KEJN)
grupy
jednorodne
1. Wyniki działalności naukowej i uprawnienia do nadawania stopni
2. Zastosowania praktyczne
23-38 ocena ekspercka A, B, C
Kompleksowa
ocena jakości
2013
(OP2013)
MNiSW – Komitet
Ewaluacji Jednostek
Naukowych (KEJN)
grupy
wspólnej
oceny (GWO)
1. Osiągnięcia naukowe i twórcze
2. Potencjał naukowy
3. Materialne efekty działalności naukowej
4. Pozostałe efekty działalności naukowej
32-46 metoda
porównań
parami z
uwzględnieniem
jednostek
referencyjnych
A+, A, B, C
Źródło: opracowanie własne.
125
126
W ramach poszczególnych zespołów eksperckich opracowano szczegółowe kryteria
oraz przyporządkowano im wagi dla 13 obszarów naukowych. Dla każdej ocenionej jednostki
określono liczbę E, która była parametrem charakteryzującym efektywność prowadzonych
przez jednostkę prac B+R. Liczba E wyrażona była relacją ważonej sumy punktów oceny
parametrycznej do przeliczeniowej liczby N osób zatrudnionych w jednostce w celu
prowadzenia prac B+R.
j
n
i
iij
jN
vx
E 1
,
(4.1)
gdzie:
ijx , wartość i-tej zmiennej dla j-tej jednostki,
iv wartość wagi i-tej zmiennej,
n liczba zmiennych,
Nj liczba pracowników B+R w j-tej jednostce.
(4.2) gdzie:
x1 – liczba pracowników z tytułem profesora, na stanowisku profesorskim, lub ze stopniem doktora
habilitowanego
x2 – liczba pracowników liczba pracowników ze stopniem doktora
x3 – liczba pozostałych pracowników zatrudnionych przy badaniach
Na podstawie tak przyjętej procedury wyznaczano kategorię jednostki naukowej
od 1do 6 (tabela 4.2). Kategoria jednostki naukowej w założeniu miała wpływ na wysokość
dotacji statutowej. Uzyskanie kategorii 3 pozwalało na zachowanie wysokości dotacji
na stałych poziomie w stosunku do roku poprzedniego. Odpowiednio wyższa kategoria
gwarantowała wzrost dotacji, niższa kategoria jej zmniejszenie.
Tabela 4.2. Algorytm alokacji dotacji statutowej
Kategoria Przedział punktów liczby
E
Wysokość dotacji
(w stosunku do wysokości
dotacji z roku 1998)
1 > 35 pkt. 150%
2 35 – 30 pkt. 120%
3 30 – 25 pkt. 100%
4 20 – 25 pkt. 80%
5 20 – 10 pkt. 60%
6 < 10 pkt 0
Źródło: opracowanie własne na podstawie: Komitet Badań Naukowych,
http://kbn.icm.edu.pl/finauki98/zespoly.html [07.05.2011].
Kolejna ocena parametryczna, przeprowadzona w roku 2003 za lata 1999-2001,
opierała się na podobnych założeniach*. Doprecyzowano kryteria, modyfikacjom uległy też
* Patrz: kryteria oceny parametrycznej w 2003 roku zawarte w aneksie, załącznik 2.
127
poszczególnie parametry. Przyznawane kategorie zmniejszono do 5. Wprowadzono
ograniczenia ilościowe jednostek, którym przyznano kategorię 1 i 2.
Zasadnicze zmiany w procedurze oceny parametryczne wprowadzono w roku 2006
pod koordynacją Rady Nauki*. W przeprowadzonej wówczas ocenie parametrycznej
wyróżniono 36 zmiennych sklasyfikowanych w trzy grupy kryteriów działalności naukowej k:
(1) aktywność jednostki naukowej, (2) wyniki działalności naukowej oraz (3) zastosowania
praktyczne. Zastosowano ten sam zestaw zmiennych do wszystkich jednostek naukowych.
Znaczny nacisk został położony na realizację projektów naukowo-badawczych i zastosowania
praktyczne wyników badań naukowych.
Ważona suma zmiennych w każdej grupie k była podstawą do wyznaczenia
cząstkowych wskaźników efektywności (Ej,k) danej jednostki j. Obliczano je jako iloraz sumy
uzyskanych przez jednostkę punktów (dla zmiennych wchodzących w skład grupy) do liczby
pracowników zatrudnionych w jednostce na stanowiskach B+R (formuła 4.3).
j
n
i
iij
kjN
vx
E
k
1
,
, (4.3)
gdzie:
,j ix wartość i-tej zmiennej dla j-tej jednostki,
iv wartość wagi i-tej zmiennej,
kn liczba zmiennych w grupie cech k,
jN liczba pracowników B+R w j-tej jednostce.
Oceniane jednostki naukowe podzielone zostały na 20 tak zwanych grup
jednorodnych. Podstawą podziału były reprezentowane przez nie dyscypliny naukowe
(załącznik 3). W poszczególnych grupach jednorodnych wyznaczono wskaźniki efektywności
względnej jednostek (Ew,j,k) dla każdej grupy k. Obliczano je przez odniesienie cząstkowych
wskaźników efektywności jednostek do najwyższego wskaźnika w danej grupie jednorodnej.
)max(E
,
,
kj
kj
w,j,kE
E (4.4)
gdzie:
kjE , cząstkowy wskaźnik efektywności w grupie cech k dla jednostki j
Końcowy wskaźnik efektywności danej jednostki wyznaczano się jako sumę ważoną
jej wskaźników efektywności względnej dla trzech grup k, przy czym wagi poszczególnych
grup kryteriów ustalone były odrębnie dla poszczególnych grup jednorodnych.
3
1
,,,
k
gkkjwj wEE (4.5)
gdzie:
wk,g waga efektywności względnej jednostki w filarze k dla grupy jednorodnej g.
* Patrz: kryteria oceny parametrycznej w 2006 roku zawarte w aneksie, załącznik 3.
128
Tak wyznaczone wskaźniki efektywności stanowiły podstawę rangowania jednostek
w ramach grup jednorodnych i przyznania im odpowiedniej kategorii naukowej: od 1 do 5.
W roku 2010 powołano Komitet Ewaluacji Jednostek Naukowych (KEJN), który
opracował nowe zasady oceny parametrycznej. Komitet Ewaluacji Jednostek Naukowych
złożony z dwudziestu członków zgłoszonych przez jednostki naukowe posiadające
co najmniej kategorię A oraz dziesięciu zgłoszonych przez środowiska społeczno-
gospodarcze o uznanym dorobku w zakresie innowacyjności, poddał ocenie wyniki
działalności naukowej za lata 2005-2008. W ramach Komisji wypracowano trzy zestawy
zmiennych:
1) K1 dla nauk humanistycznych i społecznych – 23 zmienne;
2) K2 dla nauk ścisłych, technicznych i nauk o życiu – 34 zmienne;
3) K3 dla dziedzin sztuki i wchodzących w ich skład dyscyplin artystycznych –38 zmiennych.
Wyodrębniono 23 grupy jednorodne i przyporządkowano im jeden z trzech zestawów
zmiennych*. Zmienne sklasyfikowano w dwie grupy k o równych wagach: (1) wyniki
działalności naukowej i uprawnienia do nadawania stopni oraz (2) zastosowania praktyczne.
Wskaźnik efektywności jE obliczano jako ważoną sumę punktów oceny parametrycznej
do przeliczeniowej liczby N osób zatrudnionych w jednostce w celu prowadzenia prac B+R.
j
n
i
iij
jN
vx
E 1
,
(4.6)
gdzie:
,j ix wartość i-tej zmiennej dla j-tej jednostki,
iv wartość wagi i-tej zmiennej,
n liczba zmiennych,
jN liczba pracowników B+R w j-tej jednostce.
O przyznaniu określonej kategorii jednostce naukowej decyduje wysokość końcowego
wskaźnika efektywności tej jednostki. Przyjęto arbitralnie, że do kategorii pierwszej zalicza
się do 30% jednostek, które uzyskały najwyższe wartości końcowego wskaźnika
efektywności, a liczba jednostek pierwszej i drugiej kategorii nie powinna być wyższa niż
50% ogólnej liczby jednostek w grupie jednostek jednorodnych.
Przyznana kategoria naukowa A, B lub C była jednym z czynników uwzględnianych
w algorytmie podziału dotacji bazowej dla jednostek naukowych23
oraz algorytmie podziału
dotacji na finansowanie działalności polegającej na prowadzeniu badań naukowych lub prac
* Patrz: kryteria oceny parametrycznej w 2010 roku zawarte w aneksie, załącznik 4. 23
rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 5 listopada 2010 roku w sprawie kryteriów
i trybu przyznawania oraz rozliczania środków finansowych na naukę na finansowanie działalności statutowej,
Dz. U. 2010 nr 218 poz. 1438, załącznik 2.
129
rozwojowych oraz zadań z nimi związanych, służących rozwojowi młodych naukowców
oraz uczestników studiów doktoranckich24
.
W 2013 roku, na podstawie rozporządzenia Ministra Nauki i Szkolnictwa Wyższego
z dnia 13 lipca 2012 roku w sprawie kryteriów i trybu przyznawania kategorii naukowej
jednostkom naukowym roku wprowadzono nowe, obecnie obowiązujące, zasady oceny
parametrycznej i zmieniono jej nazwę na kompleksową ocenę jakości jednostek naukowej25
.
Kategoryzacji nadal dokonuje się na podstawie wartości syntetycznego wskaźnika jakości
działalności naukowej E. W ocenie wyróżniono cztery obszary naukowe, dla których
zdefiniowano zestawy zmiennych:
K1 dla grupy nauk humanistycznych i społecznych (32 zmienne);
K2 dla grupy nauk ścisłych i inżynierskich (46 zmiennych);
K3 dla grupy nauk o życiu (36 zmiennych);
K4 dla grupy nauk o sztuce i twórczości artystycznej (41 zmiennych).
W każdym zestawie zmiennych wyróżniono cztery zakresy działalności naukowej k:
(I) osiągnięcia naukowe i twórcze, (II) potencjał naukowy, (III) materialne efekty działalności
naukowej oraz (IV) pozostałe efekty działalności naukowej i przyporządkowano
im odpowiednie zmienne*. Dla każdej jednostki naukowej ustala się wartości miar zmiennych
na podstawie ankiet jednostek. Podstawą do wyznaczenia cząstkowych wskaźników (Ej,k)
w grupach I oraz III jest relacja ważonej sumy zmiennych do liczby pracowników B+R,
w grupach II oraz IV ważona suma zmiennych. Wyższa wartość wskaźnika odzwierciedla
lepszą jakość efektów działalności jednostki naukowej.
(II) osiągnięcia naukowe i twórcze
(III) materialne efekty działalności naukowej
(II) potencjał naukowy
(IV) pozostałe efekty działalności naukowej
j
n
i
iij
kjN
vx
E
k
1
,
, (4.7)
kn
i
iijkj vxE1
,, (4.8)
gdzie:
kjE , cząstkowy wskaźnik w grupie cech k dla jednostki j
,j ix wartość i-tej zmiennej dla j-tej jednostki,
iv wartość wagi i-tej zmiennej,
kn liczba zmiennych w grupie cech k,
jN liczba pracowników B+R w j-tej jednostce.
24
Algorytm podziału dotacji na finansowanie działalności polegającej na prowadzeniu badań naukowych
lub prac rozwojowych oraz zadań z nimi związanych, służących rozwojowi młodych naukowców
oraz uczestników studiów doktoranckich Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia
5 listopada 2010 roku w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych na
naukę na finansowanie działalności statutowej, Dz. U. 2010 nr 218 poz. 1438, załącznik 3. 25
rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 13 lipca 2012 roku w sprawie kryteriów i trybu
przyznawania oraz rozliczania środków finansowych na działalność statutową, Dz. U. 01.08.2012, poz. 877.
* Patrz: kryteria oceny parametrycznej w 2013 roku zawarte w aneksie, załącznik 5.
130
Grupy jednorodne zostały zastąpione przez 60 tak zwane grup wzajemnej oceny
(GWO), czyli zdefiniowane przez ekspertów zbiory jednostek podobnych w zakresie obszaru
prowadzonych badań, o wspólnych kryteriach oceny. Grupy wzajemnej oceny wyodrębniono
w ramach trzech obszarów: nauk humanistycznych i społecznych (HS), nauk ścisłych
i inżynierskich (SI) oraz nauk o życiu (NZ). Przynależność jednostki naukowej do danej
GWO nastąpiła na podstawie deklaracji jednostki oraz oceny ekspertów. Poddane
kategoryzacji jednostki naukowe zostały dodatkowo podzielone na cztery typy (uczelnie,
PAN, instytuty badawcze, inne), do których w ramach jednego obszaru były tworzone osobne
grupy wspólnej oceny (GWO).
Rangowanie jednostek naukowych zrealizowano z zastosowaniem metody porównań
parami. Metoda ta polega na porównaniu każdej jednostki z pozostałymi w ramach GWO
w obszarze każdego kryterium k względem wskaźników Ej,k. W wyniku pojedynczego
porównania P dwóch jednostek X oraz Y uzyskuje się wartości punktowe dla obu jednostek.
Zastosowana metoda bazuje na teorii wielokryterialnej analizy decyzyjnej, w której
zasadniczym problemem jest znalezienie rozwiązania, które zapewnia zadowalającą realizację
konkurencyjnych celów. Cele te formułowane są przez zbiór decyzji dopuszczalnych,
a podstawę rozstrzygnięcia stanowi zestaw warunków sformułowanych w stosunku
do celów26
. W kompleksowej ocenie jakości jednostek naukowych cele wyrażone zostały
w cząstkowych wskaźnikach (Ej,k).
Jednym z modeli w wielokryterialnej analizie decyzyjnej jest model relacyjny, którego
jedną z reprezentacji jest relacja przewyższania (ang. outranking relation), reprezentująca ściśle
określone preferencje podejmującego decyzję (warunki decyzyjne). Relacyjny model
wspomagania decyzji wykorzystuje aksjomat o ograniczonej porównywalności, w którym określa
się warunki sytuacji nierozróżnialności, nieporównywalności, silnej preferencji (próg pełnego
przewyższania) oraz słabej preferencji. Oznacza to, że wynikiem porównania par wskaźników
jednostek naukowych jest nie tylko stwierdzenie, która z wartości jest większa, lecz wycena ich
różnicy na podstawie zdefiniowanych warunków (preferencji) .
(4.9)
gdzie:
cząstkowy wskaźnik w grupie cech k dla jednostki wyżej ocenionej X,
cząstkowy wskaźnik w grupie cech k dla jednostki niżej ocenionej Y,
wartość różnicy wskaźników jednostek X i Y.
26
K. Stachowiak, Wielokryterialna analiza decyzyjna w badaniach przestrzenno-ekonomicznych
(w:) Możliwości i ograniczenia zastosowań metod badawczych w geografii społeczno-ekonomicznej
i gospodarce przestrzennej, H. Rogacki (red.), Bogucki Wydawnictwo Naukowe, Poznań 2002, s. 128-130.
131
Przyjęto następujące warunki brzegowe dla porównania pary jednostek naukowych X i Y:
1) próg nierozróżnialności wynosi 10% oceny przyznanej niżej ocenionej jednostce naukowej
za kryterium k, ale nie mniej niż 10% średniej wartości ocen uzyskanych za to kryterium
przez wszystkie jednostki naukowe w danej GWO ( );
2) próg pełnego przewyższania wynosi 30% oceny przyznanej niżej ocenionej jednostce
naukowej za kryterium k, ale nie mniej niż trzykrotność progu nierozróżnialności ( ).
Wynik relacji przewyższania jednostek X i Y przyjmuje wartość z przedziału <0,1>.
Punkty przyznawane są według następujących kryteriów:
1) jeżeli różnica wartości ocen uzyskanych przez dwie porównywane jednostki
naukowe za kryterium k nie przekracza założonego progu nierozróżnialności, to jednostki
naukowe w zakresie tego kryterium są traktowane jako równorzędne, a wynik punktowy
ich porównania wynosi 0;
2) jeżeli różnica wartości ocen uzyskanych przez dwie porównywane jednostki
naukowe za kryterium k przekracza próg pełnego przewyższania, to wynik punktowy ich
porównania dla jednostki ocenionej wyżej wynosi 1, a wynik punktowy
dla jednostki ocenionej niżej wynosi -1;
3) jeżeli różnica wartości ocen uzyskanych przez dwie porównywane jednostki
naukowe X i Y za kryterium k znajduje się między wartościami progowymi, to wynik
punktowy jest obliczany jako stosunek dodatniej różnicy ocen obu jednostek
naukowych pomniejszonej o wartość progu nierozróżnialności do różnicy
wartości progu pełnego przewyższania i progu nierozróżnialności .
Punkty są przyznawane jednostce naukowej, która w zakresie danego kryterium
została oceniona wyżej. Jednostce naukowej, która została oceniona niżej przyznaje się
punkty ujemne .
{
(4.10)
gdzie:
– cząstkowy wynik przypisany jednostce X przy porównaniu jej z jednostką Y względem kryterium k.
(4.11)
gdzie:
– cząstkowy wynik przypisany jednostce Y przy porównaniu jej z jednostką X względem kryterium k.
132
Całkowity wynik punktowy porównania pary jednostek naukowych stanowił
ważoną sumę wyników porównań względem poszczególnych kryteriów k, z uwzględnieniem
wartości wag dla tych kryteriów zdefiniowanych odrębnie dla każdej grupy, dziedzin nauki
i rodzaju jednostki naukowej (tabela 4.3).
∑
gdzie:
– całkowity wynik przypisany jednostce X przy porównaniu jej z jednostką Y,
– wagi przypisane poszczególnym kryteriom.
Tabela 4.3. Wartości wag w kompleksowej ocenie jakości w roku 2013
Kryterium
oceny
Rodzaj jednostki naukowej
podstawowe jednostki
organizacyjne uczelni
jednostki naukowe PAN
i międzynarodowe
instytuty naukowe
instytuty badawcze i inne
Obszary naukowe
K1 K2 K3 K4 K1 K2 K3 K4 K1 K2 K3 K4
65 70 65 60 65 75 65 60 65 60 35 60
15 5 10 20 15 5 10 20 15 5 10 20
5 15 15 5 5 10 15 5 5 25 45 5
15 10 10 15 15 10 10 15 15 10 10 15
Suma 100 100 100 100 100 100 100 100 100 100 100 100
Źródło: opracowanie własne na podstawie: rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia
13 lipca 2012 roku w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na działalność statutową, Dz. U. 01.08.2012, poz. 877, załącznik nr 8.
Ostateczna ocena jednostki naukowej jest relacją sumy wyników punktowych jej
porównań ze wszystkimi pozostałymi jednostkami naukowymi oraz tak zwanymi jednostkami
referencyjnymi w obrębie danej GWO, do liczby tych jednostek pomniejszoną o 1.
∑
gdzie:
– liczebność GWO wraz z jednostkami referencyjnymi.
Do każdej GWO włączono dwie jednostki referencyjne i . Są to jednostki
modelowe, dla których grupa ekspertów zdefiniowała odrębnie dla każdej GWO cząstkowe
wskaźniki w grupie cech k, które odpowiadają minimalnym wartościom ocen, jakich eksperci
oczekują odpowiednio od jednostek kategorii A oraz B. Wartości minimalne, w uproszczeniu,
eksperci ustalają bazując na swoim doświadczeniu w konkretnych obszarach nauki odnośnie
do zwyczajów publikacyjnych oraz na analizach statystycznych ocen jednostek w ramach GWO.
Tak wyznaczone wskaźniki jakości działalności naukowej stanowiły podstawę
rangowania i kategoryzacji jednostek w ramach grup wzajemnej oceny. W wyniku
(4.12)
(4.13)
133
kompleksowej oceny jakości działalności naukowej lub badawczo-rozwojowej jednostkom
naukowym przyznano kategorie:
A+ – poziom wiodący;
A – poziom bardzo dobry;
B – poziom akceptowalny, z rekomendacją wzmocnienia działalności naukowej, badawczo-
rozwojowej lub stymulującej innowacyjność gospodarki;
C – poziom niezadowalający.
Do kategorii A zaproponowano wszystkie jednostki, których wynik był nie niższy
od wyniku , przy czym jednostka zaliczona do kategorii A nie musiała mieć wszystkich
ocen wyższych od ocen jednostki referencyjnej A. Jeżeli jednostka nie spełniła wymagań
jednostki referencyjnej , ale wynik był nie niższy od wyniku , wówczas jednostce
przyznawano kategorię B. Pozostałym jednostkom przyznano kategorię C. Ostateczne kategorie
przydzielał minister. Kategoria A+ przyznawana jest na podstawie oceny eksperckiej27
.
4.3. Krytyczna analiza oceny parametrycznej
Ocena instytucjonalna w Polsce jest trudną i dyskusyjną próbą zobiektywizowania
decyzji o kategoryzacji jednostek sfery nauki i o finansowaniu ich działalności statutowej.
Dążenie do opracowania intersubiektywnego systemu oceny jednostek naukowych jest
procesem złożonym i wymaga uwzględnienia różnych czynników. Jednostki naukowe
są zróżnicowane pod względem sposobu prowadzenia badań, ich przydatności teoretycznej
i praktycznej, a za tym też formy prowadzenia działalności.
W różnych krajach są podejmowane liczne próby uwzględnienia różnych przejawów
działalności jednostek naukowych. Przyjmują one głównie formę systemów ewaluacyjnych
oraz systemów parametrycznych*. Podejście ewaluacyjne ocenia się jako bardziej
kompleksowe i wnikliwe, między innymi z uwagi na możliwość stosowania czynników
jakościowych. Słabości takiego rozwiązania wynikają jednak właśnie z atrybutów oceny
eksperckiej. Ma ona charakter subiektywny i jest czasochłonna. Odmiennym podejściem jest
podejście parametryczne. Zachowuje ono obiektywizm, ale ogranicza się do wskaźników
ilościowych.
27
rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 13 lipca 2012 roku w sprawie kryteriów i trybu
przyznawania oraz rozliczania środków finansowych na działalność statutową, Dz. U. 01.08.2012, poz. 877,
§ 18 pkt. 7.
* Patrz: rozdział 3.2.
134
W Polsce, z uwagi na dużą liczbę jednostek naukowych*, słusznym wydaje się być
przyjęcie podejścia parametrycznego jako podejścia systemowego. Wprowadzona w 1999 roku
ocena parametryczna w miejsce oceny jakościowej, ukształtowała fundamenty zasad
kategoryzacji jednostek naukowych. Zarówno sama ocena parametryczna, jak i jej kolejne
modyfikacje wywoływały liczne dyskusje środowiskowe. Najczęściej podnoszonym
argumentem było twierdzenie, że nie można obiektywnie zmierzyć poziomu i wartości pracy
naukowej. Subiektywność takiego pomiaru przejawia się w wyborze i definicji wskaźników,
a także wag przypisanych poszczególnym wskaźnikom28
.
W środowisku naukowym, można zaobserwować trzy nurty dyskusji nad zasadami oceny
parametrycznej – w zakresie merytorycznym, proceduralnym i organizacyjnym. Autorka zebrała
uwagi przedstawicieli nauki oraz uzupełniła je własnymi analizami (tabela 4.4).
Liczne publikacje odnoszące się do zasad oceny jednostek naukowych w Polsce
ukazują szereg słabości dotyczących prawidłowości doboru zmiennych będących podstawą
oceny jednostek, grupowania zmiennych w zakresy działalności naukowej i doboru wag
kryteriów oraz zakresów. Istotne wątpliwości środowiska budzi klasyfikacja jednostek
na grupy jednorodne (grupy wspólnej oceny). Dostrzega się także brak preferencji
dla jednostek oszczędnych.
Drugim wątkiem dyskusyjnym są przyjęte procedury i metodyka wyznaczania
wskaźnika jakości i przyznawania ostatecznych kategorii jednostkom naukowym. Mimo
istotnych zmian wprowadzonych w ostatnim cyklu oceny w 2013 roku, wątpliwości nadal
budzi brak transparentności i arbitralność pewnych etapów. Nie jest również jasny sposób
przyznawania kategorii poszczególnym jednostkom w ramach grupy jednorodnej
oraz identyfikacji jednostek o najwyższym potencjale naukowym. Jako niesatysfakcjonującą
ocenia się metodykę w zakresie porównywania małych jednostek naukowych z dużymi.
W trzecim zakresie polemikę wywołują zagadnienia organizacyjne oceny
parametrycznej. Argumentem najczęściej podnoszonym jest zbyt późne ogłoszenie zasad
oceny, brak informacji o wartościach cząstkowych wyników, nadmierna centralizacja systemu
oceny oraz dokonywanie zmian w zakresie przypisania jednostek naukowych
do poszczególnych grup jednorodnych w trakcie procesu parametryzacji po dokonaniu
pierwotnego podziału.
* Patrz: rozdział 4.1, rysunek 4.7. 28
J.M. Brzeziński, Reguły parametryzacji, „Forum Akademickie” 2007, nr 2, s. 21-24; M. Żylicz, Ocena
parametryczna dzisiaj i jutro, „Forum Akademickie” 2006, nr 6, s. 22-24.
135
Tabela 4.4. Uwagi krytyczne przedstawicieli środowiska nauki do oceny parametrycznej
Źródło Cykl
oceny Uwagi krytyczne
P. Kieraciński, Premia za jakość, „Forum
Akademickie” 2003, nr 2, s. 28-29.
OP2003 brak uwzględnienia działalności wdrożeniowej
J.M. Brzeziński, Reguły parametryzacji,
„Forum Akademickie” 2007, nr 2, s. 21-24.
OP2006 niejasny dobór kryteriów
brak powiązania wyników działalności naukowej jednostki z liczbą zatrudnianych przez nią badaczy
dyskusyjna klasyfikacja grup jednorodnych
nieporównywalność małych i wielkich jednostek naukowych
M. Żylicz, Ocena parametryczna dzisiaj
i jutro, „Forum Akademickie” 2006, nr 6,
s. 22-24.
OP2006 zbyt duża liczba kryteriów,
dyskusyjna relacja wag poszczególnych kryteriów
słabe zróżnicowanie najlepszych i przeciętnych osiągnięć naukowymi/wdrożeniowymi
brak preferencji jednostek oszczędnych
w małych jednostkach system oceny parametrycznej słabiej odzwierciedla rzeczywistość
nieprecyzyjna liczba pracowników uwzględniana w ocenie (problem wieloetatowości)
jedna lista czasopism dla wszystkich obszarów naukowych
zbyt późne ogłoszenie zasad oceny
dyskusyjna ocena publikacji wieloautorskich
Z. Drozdowicz, Kategoryzacja nauki, „Forum
Akademickie” 2006, nr 9, s. 21-23.
OP2006 wagi kryteriów
nadmierna (patologiczna) centralizacja systemu oceny
słaby nacisk na wskaźnik jakościowy publikacji, uwzględnianie zbyt dużej liczby publikacji
wykazywanych przez jednostkę przypadających na jednego statystycznego pracownika
(proponowane 2N)
M. Kosmulski, Quo vadis, KEJN?, „Forum
Akademickie” 2011, nr 10, s. 34.
OP2006 brak jasnych kryteriów zaliczania jednostek dla danej kategorii naukowej
zbyt duże jednostki naukowe
J. Nazarko, K.A. Kuźmicz, E. Szubzda,
J.Urban (Jakuszewicz), Analiza oceny
parametrycznej z perspektywy
benchmarkingu, [w:] Benchmarking
wsystemie szkolnictwa wyższego, J. Woźnicki
(red.), Oficyna Wydawnicza Politechniki
Warszawskiej, Warszawa 2008, s. 49-64.
OP2006 istotna i silna korelacja niektórych zmiennych
niski poziom zróżnicowania jednostek względem niektórych kryteriów
słaba różnicowalność jednostek przez nadmiarowy zbiór kryteriów
nieprawidłowy dobór zmiennych do poszczególnych zakresów działalności naukowej k
nieseparowalność grup jednorodnych
arbitralność wag poszczególnych zakresów działalności naukowej k
brak jasnych kryteriów zaliczania jednostek dla danej kategorii naukowej
A. Sawicki, Obraz polskiej nauki po rankingu
MNiSW, „Forum Akademickie” 2010, nr 11,
s. 40-41.
OP2010 dyskusyjny dobór zmiennych
arbitralne przyporządkowanie wag kryteriów
brak zróżnicowania jednostek pod względem formy prowadzenia działalności
brak wag dla różnych przejawów działalności naukowo-badawczej i rozwojowej
135
136
Źródło Cykl
oceny Uwagi krytyczne
K. Stępień, Rzeczywiste wyniki naukowe,
„Forum Akademickie” 2011, nr 2.
OP2010 niewłaściwy dobór kryteriów
J.M. Brzeziński, Kontrowersje wokół oceny
jednostek naukowych z obszaru nauk
społecznych, „Kultura i Edukacja” 2011, nr 2,
s. 177-192.
OP2010 heterogeniczność naukowa wydziałów szkół wyższych zakłóca klasyfikację wszystkich jednostek
naukowych do grup jednorodnych
nietrafna metoda klasyfikacji jednostek naukowych do kategorii naukowych
problem porównywania małych jednostek z dużymi
brak minimalnego ograniczenia liczby N jednostki naukowej, która będzie oceniana
brak jasnych zasad obliczania wskaźnika N
brak spójności liczby N oraz E w aspekcie uwzględnianych w ocenie pracowników (E – wszyscy, N
bez dodatkowych etatów), problem szczególnie osobliwy w wypadku jednostek niepublicznych
jednakowy wskaźnik liczby publikacji 3N dla wszystkich grup jednorodnych
dobór kryteriów nieuwzględniający specyfiki obszarów naukowych
jednakowe wagi kryteriów dla różnych grup jednorodnych
eliminacja dorobku doktorantów niezatrudnionych w jednostce naukowej
wielokrotne uwzględnianie jednej publikacji współautorów z różnych jednostek naukowych
M. Pigłowski, Prawny i moralny aspekt
publikowania, „Nauka” 2011, nr 3, s. 145-156.
OP2010 niekorzystna relacja punktów za monografię do punktów za artykuł w czasopiśmie
nieprawidłowości w interpretacji zasad oceny punktowej w zakresie monografii pokonferencyjnych
M. Ratajczak, Nie wszyscy razem i nie wszyscy
tak samo, „Forum Akademickie” 2012, nr 7-8,
s. 26-29.
OP2010 arbitralne wagi kryteriów
dobór kryteriów dyskryminujący nauki humanistyczne i społeczne
Najwyższa Izba Kontroli, Wykorzystanie
środków publicznych na naukę.
Informacja wynikach kontroli, KNO-4101-
08-00/2011, nr 162/2012/P/11/070/KNO, s.
10-11, 24-28.
OP2010 słabe zróżnicowanie jednostek naukowych
niesatysfakcjonująca identyfikacja jednostek o najwyższym potencjale naukowym
niezgodny z obowiązującymi przepisami prawa odsetek jednostek naukowych kategorii naukowej
pierwszej i drugiej
brak zróżnicowania jednostek prowadzących podstawowe badania naukowe oraz jednostki
nastawione na rozwój technologiczny i innowacje
zastosowanie średniej arytmetycznej (zamiast średniej ważonej) przy obliczaniu wskaźnika
efektywności naukowej jednostki (na czele rankingów w zdecydowanej większości grup
jednorodnych znalazły się instytuty badawcze jako osiągające znaczne przychody z działalności
B+R, ale posiadające relatywnie niewielkie osiągnięcia naukowe)
dokonywanie oceny bez uwzględnienia pozycji danej jednostki w nauce światowej
ustalenie jednakowych dla poszczególnych zakresów ocen dla wszystkich grup jednostek
jednorodnych wag, bez względu na profil jednostek
dokonywanie zmian w zakresie przypisania jednostek naukowych do poszczególnych grup
jednorodnych po dokonaniu pierwotnego podziału, niespójność wyników parametryzacji Rady
136
137
Źródło Cykl
oceny Uwagi krytyczne
Nauki i po opinii Ministra Nauki i Szkolnictwa Wyższego
uwzględnianie wyników działalności jednostek naukowych niemających charakteru naukowego
nierzetelność danych w zakresie liczby pracowników zatrudnionych w działalności B+R,
przychodów z tytułu umów zawartych z innymi podmiotami na wykonanie w jednostce prac B+R,
liczby i przychodów z wdrożeń udokumentowanych i wykorzystanych poza jednostką wyników
badań naukowych i prac rozwojowych
brak procedur wyłaniania członków zespołów opiniodawczo-doradczych Ministra, w tym zespołów
roboczych właściwych organów Rady Nauki dokonujących oceny parametrycznej, które
przeciwdziałałyby wystąpieniu potencjalnego konfliktu interesów
D. Antonowicz, S. Jackowski, A. Pilc,
B. Skoczeń, M. Zabel, Kategoryzacja nauki,
„Forum Akademickie” 2013, nr 10, s. 26-29.
OP2010 podejście niepoprawne metodologicznie (sumowanie wartości punktowej za wszystkie kryteria, przy
jednakowych wagach dla często bardzo odległych przejawów działalności jednostek naukowych)
D. Antonowicz, J.M. Brzeziński,
Doświadczenia parametryzacji jednostek
naukowych z obszaru nauk humanistycznych
i społecznych 2013 – z myślą o parametryzacji
2017, „Nauka” 2013, nr 4, s. 51-85.
J.M. Brzeziński, Ocena parametryczna
– co dobre, co zmienić, „Forum Akademickie”
2013, nr 11, s. 30-33.
OP2010,
OP2013 zbyt złożona procedura (OP2013)
arbitralne przyjęcie wartości jednostek referencyjnych
limitowanie liczby jednostek w poszczególnych kategoriach
brak transparentności procedur, uwzględnianie w ocenie jednostek z sektora niepublicznego
zbyt duża liczba zmiennych, małe zróżnicowanie kategorii
mierzenie grantów poziomem finansowania
brak standaryzacji wszystkich wskaźników cząstkowych (z czterech – dwa wskaźniki cząstkowe
niestandaryzowane oraz jeden wskaźnik globalny o zakresie od -100 do +100)
zbyt duża rozpiętość punktowa w zakresie pozostałych efektów działalności naukowej
brak uwzględnienia liczby kształconych studentów
brak jasności kryteriów przyznawania kategorii A+
brak informacji o wartościach cząstkowych wyników i o szczególnie ważnych wartościach jednostek
referencyjnych
problem zdefiniowania grup wspólnej oceny (GWO), brak satysfakcjonującego rozwiązania
zbyt duża liczba grup GWO, kontrowersyjna liczebność grup GWO
relatywnie duży udział uprawnień akademickich
niedostateczne zróżnicowanie heterogeniczności struktur organizacyjnych jednostek naukowych
zbyt uproszczona procedura wyznaczania ostatecznego wskaźnika
G. Racki, W mozole po kategorie, „Forum
Akademickie” 2012, nr 1, s. 34-35.
OP2013 zbyt złożona procedura oceny, mnogość parametrów, korelacja kryteriów
różne podejście w sposobie obliczania wskaźników cząstkowych
brak systematycznych analiz w celu odpowiedniego doboru parametrów oceny
Źródło: opracowanie własne.
137
138
Parametryczny system oceny i finansowania działalności jednostek badawczych
przez kolejne cykle oceny stawał się coraz bardziej skomplikowany wskutek uwzględniania
kolejnych elementów aktywności naukowej, dalszego rozszerzania skali punktowej
oraz ustawicznego precyzowania kryteriów. Zauważyć można, że MNiSW nie prowadzi
systematycznych analiz w celu odpowiedniego doboru parametrów oceny29
. Analiza
statystyczna danych o jednostkach naukowych za lata 2001-2004, będących podstawą oceny
w roku 2006, przeprowadzona przez J. Nazarko i in. w celu zbadania zasadności stosowanej
metodyki w ocenie parametrycznej, wykazała znaczną nadmiarowość zbioru uwzględnianych
zmiennych30
. Istotna i silna korelacja zmiennych zakłóca różnicowalność ocenianych
jednostek. Ponadto nieuzasadnione wymieszanie w jednym filarze zmiennych opisujących
różne aspekty działalności jednostki powoduje, przez układ wag filarów, niezamierzone
wzmacnianie lub osłabianie niektórych kryteriów oceny.
Autorzy dowodzą także nieseparowalności grup jednorodnych, a tym samym niewłaściwą
klasyfikację jednostek naukowych. Jest to zagadnienie dotychczas nierozwiązane w sposób
satysfakcjonujący. J. Brzeziński wyjaśnia, że wiele wydziałów szkół wyższych nie wykazuje
jednorodnorodności naukowej, przy czym wpływa to na uzyskanie lepszych pozycji takich
wydziałów w rankingu oceny parametrycznej ze względu na kumulowanie wartościowego
dorobku31
. Heterogeniczność wydziałów szkół wyższych pod względem obszarów naukowych
utrudnia zatem rzetelną klasyfikację jednostek naukowych w grupy jednorodne.
Przeprowadzona przez autorkę analiza grup jednorodnych w cyklu oceny 2010
pokazała, że nie rozwiązano znaczących słabości systemu w tym zakresie z 2006 roku32
.
Do ilustracji tego zagadnienia wykorzystano graficzną metodę prezentacji struktury danych
wielowymiarowych, zaproponowanej przez M. Rybaczuka33
.
Istotę graficznej prezentacji odwzorowania czterech obiektów: O1, O2, O3 i O4
scharakteryzowanych cechami: X1-X18 w pole koła na płaszczyźnie przedstawiono
na rysunku 4.11.
29
G. Racki, W mozole po kategorie, „Forum Akademickie” 2012, nr 1, s. 33-34. 30
J. Nazarko, K.A. Kuźmicz, E. Szubzda, J. Urban (Jakuszewicz), Analiza oceny parametrycznej z perspektywy
benchmarkingu, [w:] Benchmarking w systemie szkolnictwa wyższego, J. Woźnicki (red.), Oficyna
Wydawnicza Politechniki Warszawskiej, Warszawa 2008, s. 49-64. 31
J.M. Brzeziński, Ocena parametryczna – co dobre, co zmienić, „Forum Akademickie” 2013, nr 11, s. 30-33;
J.M. Brzeziński, Kontrowersje wokół oceny jednostek naukowych z obszaru nauk społecznych, „Kultura
i Edukacja”, nr 2, 2011, s. 178-179. 32 J. Urban, Klasyfikacja polskich jednostek naukowych w ocenie parametrycznej MNiSW, XIX Konferencja
Naukowa Sekcji Klasyfikacji i Analizy Danych Polskiego Towarzystwa Statystycznego oraz XXIV
Konferencja Taksonomiczna "Klasyfikacja i analiza danych – teoria i zastosowania”. Streszczenia referatów,
Toruń, 15-17 września 2010 r., s. 45. 33
M. Rybaczuk, Graficzna prezentacja struktury danych wielowymiarowych, Prace Naukowe Akademii
Ekonomicznej we Wrocławiu, nr 942, Akademia Ekonomiczna, Wrocław, 2002, s. 146-153.
139
Legenda: cechy X; obiekty O
Rysunek 4.11. Przykład wyniku zastosowania metody prezentacji struktury danych wielowymiarowych
M. Rybaczuka
Źródło: opracowanie własne.
Graficzna interpretacja wyników odwzorowania struktury wielowymiarowych danych
na płaszczyznę umożliwia analizę porównawczą obiektów i cech, przy czym:
im bliżej położone są punkty reprezentujące obrazy obiektów, tym bardziej podobne obiekty;
im bliżej znajdują się obrazy cech, tym silniejsza dodatnia korelacja między nimi;
im wyraźniej obrazy cech znajdują się po przeciwległej stronie względem środka koła,
tym silniejsza ujemna korelacja między nimi;
im większą odległość punktu reprezentującego obraz obiektu od obrazu cechy, tym wyższy
poziom cechy dla danego obiektu, i odwrotnie.
Odnosząc się do analizy kryteriów oceny parametrycznej, w pierwszej kolejności
zbadano jaką siłę różnicującą mają poszczególne zmienne (rysunek 4.12).
Na rysunku 4.12 pokazano na przykładzie grupy N8 i G1*, że niektóre zmienne,
których obrazy znajdują się w bliskiej odległości lub nakładają się na siebie są ze sobą
skorelowane. To oznacza, że w bardzo małym stopniu cechy różnicują porównywane
jednostki. Świadczy to o pominięciu właściwych kryteriów doboru zmiennych przy ustalaniu
zasad oceny parametrycznej.
* Nazwy grup zostały przedstawione w aneksie, załącznik 4.
O1
O2
O3
O4
X9 X5
X1
4
X6
X3
X1
7
X1
2
X1
1 X1
7
X2 X1
0
X8
X1
5 X1
X1
3
X4
X1
8
140
Legenda: numery zmiennych odpowiadają kolejności zmiennych w aneksie, załącznik 4.
Rysunek 4.12. Zróżnicowanie jednostek naukowych w grupach jednorodnych G1 i N8
Źródło: opracowanie własne.
Zbadano również separowalność grup jednorodnych. Przykładowe zestawienia
dla grup G8 i N8 przedstawiono na rysunku 4.13.
Legenda: numery zmiennych odpowiadają kolejności zmiennych w aneksie, załącznik 4.
Rysunek 4.13. Porównanie dwóch grup jednorodnych G8 i N8
Źródło: opracowanie własne.
Jednostki z grup jednorodnych G8 i N8 (według klasyfikacji MNiSW) są wymieszane
i nie tworzą odrębnych klastrów, co oznacza, że jednostki naukowe zaliczone do różnych grup
jednorodnych nie różnią się zasadniczo między sobą ze względu na przyjęte kryteria.
Następnie zbadano zasadność przyporządkowania jednostek naukowych do kategorii
(rysunek 4.14).
N8 – Nauki rolnicze i leśne G1 – Mechanika, materiały, inżynieria chemiczna
i procesowa
Grupa G8
Grupa N8
141
Rysunek 4.14. Klasyfikacja jednostek naukowych do kategorii w grupie N1
Źródło: opracowanie własne.
Kategorie nie są wyraźnie wyodrębnione. Z układu zmiennych wynika, że jednostki są
głównie różnicowane względem zmiennych, których obrazy ulokowane są na części linii
prawej koła. Poszczególne kategorie są wymieszane, co wskazuje na niewłaściwą metodykę
przyznawania kategorii naukowych.
Nadmiarowy zbiór zmiennych słabo różnicuje jednostki naukowe. Graficzną strukturę
wartości wskaźnika E, różnice tych wartości dla dwóch kolejnych uczelni oraz ich kategorie
zobrazowano na rysunku 4.15. Numery jednostek naukowych wynikają z ich pozycji
w rankingu względem wielkości wskaźnika E.
Rysunek 4.15. Rozkład wartości cech, różnice tych cech wartości dwóch kolejnych jednostek naukowych
oraz ich kategorie naukowe w ocenie parametrycznej 2010
Źródło: opracowanie własne.
0
1
2
3
4
5
0
200
400
600
800
1000
1200
1400
0
20
40
60
80
100
120
140
160
180
200
220
240
260
280
300
320
340
360
380
400
420
440
460
480
500
520
540
560
580
600
620
640
660
680
Ka
tego
ria M
NiS
W
Wsk
aźn
ik E
Jednostki naukowe
E, wskaźnik efektywności MNiSW
Różnica wartości wskaźnika E dwóch kolejnych jednostek
Kategoria MNiSW
Kategoria 1
Kategoria 2
Kategoria 3
Kategoria 4
Kategoria 5
142
Z analizy rysunku 4.15 wynika, że tylko kilkanaście pierwszych jednostek naukowych
otwierających listę rankingową przyjmuje wysoką wartość wskaźnika E. Ponadto, dokonując
analizy różnic pomiędzy wartościami wskaźnika kolejnych dwóch jednostek można
stwierdzić, iż w przypadku połowy ocenianych jednostek nie przekracza ona 0,20. Znaczne
różnice występują tylko między jednostkami o numerach od 1 do 10. Można zatem
stwierdzić, że większość ocenianych jednostek przyjmuje podobne oceny.
Rysunek 4.16. Rozkład wartości cech, różnice tych cech wartości dwóch kolejnych jednostek naukowych
oraz ich kategorie naukowe w ocenie parametrycznej 2013
Źródło: opracowanie własne.
0
1
2
3
4
0
10
20
30
40
50
60
70
80
90
100
0 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300 320
Ka
tego
ria M
NiS
W
Wsk
aźn
ik E
Jednostki naukowe grupy SI
0
1
2
3
4
0
10
20
30
40
50
60
70
80
90
100
0 20 40 60 80 100 120 140 160 180 200 220 240 260 280 300
Ka
tego
ria M
NiS
W
Wsk
aźn
ik E
Jednostki naukowe grupy NZ
0
1
2
3
4
0
10
20
30
40
50
60
70
80
90
0 10 20 30 40 50 60 70 80 90 100 110 120 130 140 150 160 170 180 190 200 210 220 230
Ka
tego
ria M
NiS
W
Wsk
aźn
ik E
Jednostki naukowe grupy HS
E, ostateczny wskaźnik efektywności MNiSWRóżnica wartości wskaźnika E dwóch kolejnych jednostekKategoria MNiSW (+A - 4; A - 3; B - 2; C - 1)
143
Liczebność jednostek oraz rozpiętość przedziałów poszczególnych kategorii
względem wskaźnika efektywności E w grupach jednorodnych są zróżnicowane*. Nie są
jasne reguły podziału na kategorie. Zarówno liczbowy, jak i procentowy udział liczby
jednostek danej kategorii jest różny. W niektórych grupach nie przyznano kategorii 4 oraz 5.
Grupy z oznaczeniem M zostały wyodrębnione z tradycyjnego podziału grup dla jednostek
naukowych o małej liczbie zatrudnionych pracowników w działalności B+R. Podział ten
ma jednak charakter arbitralny.
W ocenie parametrycznej z 2013 roku nadal zróżnicowanie jednostek jest nieznaczne.
Analogicznie do rysunku 4.15, dokonano analizy wskaźników oceny w 2013 roku
i przedstawiono na rysunku 4.16. Z analizy rysunku 4.16 wynika, że różnica między ostateczną
oceną jednostek naukowych jest we wszystkich wypadkach nieznaczna. Co więcej, przyznane
kategorie nie mają jasnego odzwierciedlenia w wysokości wskaźników. Reguły oceny
parametrycznej z roku 2013 w wyniku zaleceń po kontroli NIK, muszą zostać zmienione.
Zdaniem autorki, system oceny parametrycznej w Polsce wymaga dalszego doskonalenia,
szczególnie w zakresie metodyki. Przyjęte zasady oceny parametrycznej niedostatecznie
różnicują jednostki. Liczny zbiór cech pierwotnych w dużym stopniu utrudnia, a niekiedy
wręcz uniemożliwia poznanie najważniejszych prawidłowości występujących w badanych
zjawiskach i procesach. Dotychczasowe procedury oceny jednostek naukowych
nie dostarczały też możliwości analitycznych dla ocenianych jednostek, gdzie ważnym
aspektem systemu oceny i ewaluacji instytucjonalnej jest możliwość konfrontowania
wyników własnych z pozostałymi jednostkami. Duży poziom podejścia subiektywnego
ekspertów na każdym etapie oceny (tabela 4.5) nie sprzyja uzyskaniu akceptacji środowiska,
co ma wpływ na osiągnięcie pożądanych efektów takiej oceny wskazanych w rozdziale 1.3.
Tabela 4.5. Zastosowana metodyka w poszczególnych etapach oceny parametrycznej
Etapy oceny parametrycznej Zastosowana metoda
Klasyfikacja jednostek dobór arbitralny
Dobór kryteriów dobór arbitralny
Dobór wag kryteriów dobór arbitralny
Klasyfikacja zmiennych w zakresy dobór arbitralny
Wagi zakresów dobór arbitralny
Metodyka wyznaczania wskaźnika E
OP1999-OP2010 ważona suma punktów oceny parametrycznej
do przeliczeniowej liczby N zatrudnionych do prac B+R;
OP2013 metoda porównań parami z uwzględnieniem arbitralnie
przyjętych wartości jednostek referencyjnych
Kategoryzacja podział arbitralny
Źródło: opracowanie własne.
* Patrz: aneks, załącznik 6.
144
Kryteria kategoryzacji powinny ukierunkowywać działalność jednostki naukowej.
Silną stroną niektórych jednostek są wdrożenia, innych granty bądź publikacje. W systemie
finansowania nauki w Polsce, w którym prawie 70% budżetu przeznaczonego na naukę jest
wydatkowanych na podtrzymanie działalności statutowej jednostek naukowych, muszą istnieć
jasne kryteria podziału tych środków. Powinien jednocześnie istnieć system promujący
jednostki produktywne, uwzględniający nakłady jednostek i czynniki środowiskowe.
145
ROZDZIAŁ 5.
ZAŁOŻENIA METODYCZNE BADANIA PRODUKTYWNOŚCI
METODĄ DATA ENVELOPMENT ANALYSIS
5.1. Propedeutyka metodyki Data Envelopment Analysis
Metoda Data Envelopment Analysis (DEA) służy do pomiaru, oceny i analizy
względnej produktywności określonej liczby jednostek decyzyjnych (ang. Decision Making
Units, DMU) zdefiniowanych jako jednostki zdolne do przekształcania zasobów wejściowych
(nakładów) w efekty1. Metoda należy do grupy metod granicznych, nieparametrycznych.
Obecnie stosowana jest jako narzędzie wielokryterialnej analizy decyzyjnej (ang. Multi
-Criteria Decision-Making, MCDM)2.
Pierwsze wzmianki w literaturze na temat metody DEA pojawiły się w 1978 roku,
kiedy jej twórcy, A. Charnes, W.W. Cooper i A. Rhodes, przedstawili w artykule źródłowym
założenia pierwszego modelu. Ogólna koncepcja zrodziła się w Stanach Zjednoczonych
w trakcie badań prowadzonych w sektorze publicznym, których celem było dostarczenie
narzędzia umożliwiającego ocenę efektywności programów edukacyjnych3. Bazując
na koncepcji produktywności, zdefiniowanej przez M.J. Farrella (1951) i G. Debreu (1957)
jako relacji pojedynczego wyniku i pojedynczego nakładu4, autorzy odnieśli tę metodę
do sytuacji wielowymiarowej. Dla jednostek charakteryzujących się wielością nakładów
i efektów, produktywność została zdefiniowana jako iloraz ważonej sumy efektów
do ważonej sumy nakładów zgodnie ze wzorem (5.1).
1
1
s
rj rj
rj m
ij ij
i
v y
P
u x
(5.1)
gdzie:
Pj – wskaźnik produktywności obiektu DMUj
– nakład i-ty obiektu DMUj (wejście)
– waga przypisana nakładowi
– efekt r-ty obiektu DMUj (wyjście)
– waga przypisana efektowi
– liczba efektów
– liczba nakładów
– liczba DMU
1 W.W. Cooper, L.M. Seiford, J. Zhu, dz. cyt., s. 8.
2 R. Ramanathan, dz. cyt., s. 109-110; T.J. Stewart, Relationships between Data Envelopment Analysis
and Multicriteria Decision Analysis, “Journal of the Operational Research Society” 1996, t. 47, nr 5, s. 654-665. 3 A. Charnes, W.W. Cooper, A.Y. Lewin, L.M. Seiford, Data Envelopment Analysis: theory, methodology,
and application, Kluwer Academic Publishers, Boston, Dordrecht, London 1996, s. 3-4. 4 M.J. Farrell, The measurement of productive efficiency, “Journal of the Royal Statistical Society”, Series A,
Part III, t. 120, nr 3, 1957, s. 253-290, http://www.lib.ctgu.edu.cn:8080/wxcd/qw/285.pdf [19.05.2013].
146
Tak zagregowane względne wskaźniki produktywności wyznacza się dla grupy
obiektów. Uwzględnia się skończoną ich liczbę n i zakłada, że produkują s efektów przy
wykorzystaniu m nakładów. Zakłada się, że nakłady xij i efekty yrj są nieujemne i dla każdego
obiektu przynajmniej jeden nakład i jeden efekt jest liczbą dodatnią. Czynnik opisujący efekt
jest tak zdefiniowany, że jego wzrost jest pożądany z punktu widzenia celu działania obiektu,
natomiast wzrost nakładów przy ustalonym poziomie efektów oceniany jest niekorzystnie5.
Miarą końcową jest relacja produktywności danego obiektu do maksymalnej produktywności,
jaką może osiągnąć w określonych warunkach technologicznych. Otrzymany współczynnik
przyjmuje wartość z przedziału ⟨ ⟩.
Metoda DEA ma charakter deterministyczny. Każdy obiekt j ma zdefiniowaną własną
technologię empiryczną T, tj. niezerowy wektor kolumnowy nakładów i efektów6.
[ ] (5.2)
gdzie:
– technologia obiektu j
Zbiór technologii empirycznych badanego zbioru obiektów wyznacza przestrzeń
produkcyjną, to znaczy zbiór dopuszczalnych kombinacji nakładów i efektów7. Istotą metody
DEA jest dążenie się do znalezienia technologii optymalnych *
jT , wyznaczających optymalne
sposoby przekształcania nakładów w efekty. Metoda opiera się na koncepcji analizy
granicznej (ang. best practice frontier). Zakłada się, że wszystkie obiekty powinny być zdolne
do działania na założonym, granicznym poziomie produktywności, określonym przez
jednostki produktywne. Jednostki, osiągające niższy poziom produktywności od granicznego,
działają nieproduktywnie (bądź nieefektywnie)8, (rysunek 5.1). Zakres poprawy
ich produktywności wyznaczany jest przez odniesienie ich wyników do wyników jednostek
produktywnych9. Dodatkowym uproszczeniem jest założenie o braku składnika losowego.
Ponieważ krzywa produktywności jest estymowana na podstawie danych empirycznych
o wielkościach nakładów i efektów, pozwala to określić realne możliwości (potencjał)
obiektów10
.
5 A. Charnes, W.W. Cooper, A.Y. Lewin, L.M. Seiford, dz. cyt., s. 24-25.
6 B. Guzik, Podstawowe modele DEA w badaniu efektywności gospodarczej i społecznej, Wydawnictwo
Uniwersytetu Ekonomicznego, Poznań 2009, s. 20. 7 Tamże, s. 38.
8 W.W. Cooper, L.M. Seiford, K. Tone, Data Envelopment Analysis. A comprehensive text with models, applications,
references and DEA-solver software, Kluwer Academic Publishers, Boston, Dordrecht, London 2007, s. 5. 9 C.A. Knox Lovell, dz. cyt., s. 1-12.
10 W.W. Cooper, L.M. Seiford, K. Tone, dz. cyt, s. 2.
147
Wyróżniającą cechą metody DEA jest to, że jej zastosowanie nie wymaga uprzedniej
znajomości wag, a ich wartości ustala się oddzielnie dla każdej jednostki przez rozwiązanie
zagadnienia programowania liniowego, w którym zdefiniowana wzorem (5.1) relacja
efekty/nakłady jest maksymalizowana przy zadanych ograniczeniach. Zadanie formułowane
jest n razy. Umożliwia to wyznaczenie maksymalnej wartości pomiaru dla każdej jednostki,
ale w odniesieniu do innych jednostek w analizowanej populacji i porównaniu jej z graniczną
wartością ekstremalną11
. W ten sposób zostają wyeksponowane silne strony każdej jednostki.
Ponadto pozwala to ustalić tak zwane „martwe” zasoby, które nie wpływają w istotnym
stopniu na osiągane wyniki danej jednostki.
Rysunek 5.1. Graficzna ilustracja koncepcji metody DEA
Źródło: opracowanie własne na podstawie J. Zhu, Quantitative models for performance evaluation
and benchmarking: Data Envelopment Analysis with spreadsheets and DEA Excel solver, Kluwer Academic
Publishers, Boston 2003, s. 8-11.
Graficzną prezentacją rezultatów metody DEA jest częściowo liniowa funkcja, łącząca
jednostki produktywne (rysunek 5.1). Obiekty leżące na linii CRS lub VRS wyznaczają zbiór
technologii optymalnych (krzywa produktywności), osiągając tym samym współczynnik
produktywności równy 1. Oznacza to, że dla tych obiektów, nie jest możliwe zmniejszenie
wartości jednego nakładu dla poprawy produktywności, bez zwiększania pozostałych
lub zwiększenie wartości jednego efektu, bez pogorszenia pozostałych12
. W wypadku
obiektów leżących poniżej krawędzi zbioru możliwości, współczynnik produktywności
przyjmuje wartość z przedziału ⟨ ).
11
E. Thanassoulis, Introduction to the theory and application of Data Envelopment Analysis, Kluwer Academic
Publishers, Norwell 2003. 12
W.W. Cooper, L.M. Seiford, J. Zhu, dz. cyt., s. 3.
C4
C3
E
D
B
C
A
nakłady
efekty
VRS
CRS
C2 C1
148
Granica produktywności wyznaczana jest w zależności od przyjętych efektów skali
(ang. Constant Returns to Scale – CRS, Variable Constant to Scale – VRS). Dla stałych
efektów skali krzywą produktywności CRS wyznacza jednostka B, a przy założeniu zmiennych
efektów skali VRS granica produktywności wyznaczona jest przez jednostki A, B oraz E.
Wyznaczenie jednostek o najwyższym wskaźniku produktywności pozwala określić
nie tylko poziom produktywności, ale również strukturę technologii optymalnych. Dzięki
temu możliwa jest ocena, jakie nadwyżki nakładów lub niedobory efektów w stosunku
do wielkości optymalnych wykazują obiekty nieproduktywne. Obiekty znajdujące się poniżej
krzywej produktywności są skalowane do najbliższych jednostek położonych na krzywej.
Na tej podstawie możliwa jest identyfikacja technologii docelowych, czyli programów
poprawy, zaleceń dla obiektów nieproduktywnych13
. W wypadku obiektu C (rysunek 5.1),
w zależności od przyjętego wariantu orientacji modelu, możliwe jest wskazanie potencjału
zmniejszenia nakładów do poziomów C1 lub C2 dla osiągnięcia efektów na poziomie C, bądź
też zwiększenia efektów do poziomu C3 lub C4 przy nakładach na poziomie C. Przyjmuje się,
że obiekty leżące poniżej krzywej produktywności są zdominowane przez obiekty leżące
na krzywej, stąd istotny jest prawidłowy dobór obiektów.
Zastosowanie metody DEA pozwala także określić kluczowe (priorytetowe), dla danej
jednostki, grupy bądź danego sektora, czynniki mające wpływ na osiąganie określonych
wyników oraz dokonywanie symulacji wprowadzenia potencjalnych zmian. Stąd metoda
DEA służy nie tylko do pomiaru i oceny produktywności, ale może stanowić także kluczowe
narzędzie wspomagające podejmowanie decyzji. Użyteczność metody DEA zależy jednak
od prawidłowego przebiegu procesu badawczego.
W procesie analizy produktywności za pomocą metody DEA wyróżnia się pięć
etapów (rysunek 5.2). Negatywny wynik walidacji uzyskanych wyników poszczególnych
etapów, wymaga modyfikacji założeń dokonanych na poprzednich poziomach.
Pierwszą fazą jest określenie skończonego zbioru badanych jednostek decyzyjnych.
Podstawowym założeniem metody DEA jest homogeniczność grupy obiektów poddanych
analizie względem czynników charakteryzujących działalność poszczególnych jednostek
(nakłady i efekty), z wyjątkiem różnic w rozmiarze i intensywności ich zastosowania.
Jednostki powinny operować w tych samych warunkach rynkowych i dążyć do tego samego
celu14
. Pomiar produktywności dokonywany jest bez uśredniania danych, co umożliwia
wykrycie wielkości ekstremalnych.
13
B. Guzik, dz. cyt., s. 58-59. 14
R. Ramanathan, dz. cyt., s. 173.
149
Rysunek 5.2. Etapy pomiaru produktywności metodą DEA
Źródło: opracowanie własne na podstawie: M. Gospodarowicz, Procedury analizy i oceny banków, „Materiały
i Studia” 2000, nr 103, Narodowy Bank Polski, s. 48; R. Ramanathan, An introduction to data envelopment analysis.
A tool for performance measurement, Sage Publications, New Delhi, Thousand Oaks, London 2003, s. 173-177.
W literaturze są prezentowane różne metody rozstrzygające problem niejednorodności
obiektów. Można je podzielić na trzy podejścia. Z jednej strony badacze sugerują badania
jednorodności zbioru obiektów i wykluczenie obiektów niejednorodnych15
. Sugerowane są
procedury oparte na wstępnej analizie rozkładu statystycznego zbiorów danych, badaniu
obiektów skrajnych, analizie skupień oraz analizie wyników. Metody te wymagają jednak
dużego zbioru DMU.
Drugie podejście uwzględnia procedury korygowania niejednorodności. D.A. Haas
i F.H. Murphy zidentyfikowali kilka metod z tego zakresu16
:
1. Porównywanie wyników uzyskanych metodą DEA z wynikami analizy regresji w celu
potwierdzenia trafności wyników.
2. Zastosowanie analizy regresji do skorygowania zmiennych. Początkowo dokonuje się
obliczeń metodą DEA stosując surowe dane i na tej podstawie przeprowadza się analizę
regresji wieloczynnikowej. Zmienne koryguje się przez pomnożenie ich wartości przez
stosunek wskaźnika produktywności DEA do wartości oczekiwanej. Następnie ponownie
wyznacza się wskaźniki produktywności metodą DEA na podstawie danych skorygowanych.
3. Estymacja wejść i wyjść za pomocą analizy regresji. Wskaźnik produktywności DEA jest
następnie wyznaczany na podstawie różnic lub ilorazu między aktualnymi i szacowanymi
wartościami wejść i wyjść.
15
J. Sarkis, Preparing your data for DEA, [w:] Modeling data irregularities and structural complexities in Data
Envelopment Analysis, J. Zhu, W.D. Cook (red.), Springer, New York 2007, s. 306. 16
D.A. Haas, F.H. Murphy, Compensating for non-homogeneity in decision-making units in data envelopment
analysis, “European Journal of Operational Research” 2003, t. 144, s. 530-544.
Zdefiniowanie i wybór jednostek decyzyjnych
Określenie czynników analizy
Wybór i konfiguracja modelu
Weryfikacja modelu
Interpretacja wyników
150
W trzecim podejściu postuluje się klasyfikację jednostek DMU w mniejsze jednorodne
grupy względem ustalonych kryteriów (przykładowo położenie geograficzne lub wielkość)17
lub z wykorzystaniem metod statystycznych (przykładowo metodą Warda)18
.
Przyjęta metodyka wyboru grupy badanych jednostek ma bezpośredni wpływ
na uzyskiwane rezultaty, gdyż wynik DMU jest zależny od pozostałych obiektów w grupie.
Z jednej strony powinna zatem uwzględniać organizacyjne, fizyczne i regionalne różnice
między jednostkami, a z drugiej dbać o zwartość danych wykluczając wartości skrajne.
Istotnym elementem analizy na tym etapie jest również dobór odpowiedniej liczby
badanych jednostek. Liczebność grupy nie powinna być zbyt mała, gdyż grozi
to niedokładnościami w uzyskiwanych rezultatach, prowadząc do mylnej identyfikacji
jednostek produktywnych. Zbyt duża liczba jednostek decyzyjnych przyczynia się natomiast
do zachwiania jednorodności grupy19
. Duża liczba jednostek umożliwia jednak lepszą
identyfikację relacji między nakładami a efektami przy wyborze czynników analizy, a także
uwzględnienie większej liczby czynników20
. Dodatkowo zwiększa siłę różnicowania jednostek
produktywnych i nieefektywnych. Zakłada się, że wielkość próby powinna być co najmniej
2 lub 3 razy większa niż suma liczby wejść i wyjść21
lub iloczyn liczby wejść i liczby wyjść22
.
Kolejnym aspektem w procedurze aplikacji metody DEA jest wybór wejść (nakładów)
i wyjść (efektów) modelu. Faza ta obejmuje wyszukiwanie i zestawienie czynników, które
istotnie określają produktywności jednostek decyzyjnych. Wybór analizowanych czynników
ma znaczący (krytyczny) wpływ na wyniki, jednak nie ma formalnych reguł, które
jednoznacznie określałyby, co powinno stanowić wejścia i wyjścia w modelach DEA.
Ich dobór zależy od specyfiki badanych jednostek decyzyjnych i w zasadzie jest procesem
opartym na intuicji, doświadczeniu i subiektywnych odczuciach badacza. Wstępnie
zdefiniowany, na podstawie przesłanek merytorycznych, zbiór wejść i wyjść powinien,
zdaniem autorki, uwzględniać następujące przesłanki23
:
bezpośredni związek z celem badawczym;
aspekty jakościowe zmiennych;
właściwości statystyczne zbioru zmiennych.
17
D.A. Haas, F.H. Murphy, dz. cyt., s. 530-544. 18
J. Sarkis, dz. cyt., s. 306. 19
N.K. Avkiran, Investigating technical and scale efficiencies of Australian universities through data envelopment
analysis, “Socio-Economic Planning Sciences” 2001, t. 35, s. 68. 20
R. Ramanathan, dz. cyt., s. 173. 21
T.J. Stewart, dz. cyt., s. 655; J. Sarkis, dz. cyt., s. 307. 22
N.K. Avkiran, dz. cyt., s. 68. 23
R. Ramanathan, dz. cyt., s. 174; E. Thanassoulis, dz. cyt., s. 89.
151
Na bazie zbioru zidentyfikowanych czynników produktywności jest budowana
technologia produkcji, stanowiąca zależność między nakładami oraz efektami jako punkt
odniesienia późniejszej analizy. Bardzo ważna w tej fazie jest możliwość uwzględnienia
czynników środowiskowych wynikających z otoczenia jednostki decyzyjnej. Są to zmienne
poza kontrolą decyzyjną jednostki, lecz mające wpływ produktywność jednostek.
W zależności od badanych obiektów czynnikiem środowiskowym może być na przykład
rodzaj własności jednostki (prywatna czy publiczna), jej położenie (w wypadku analiz spółek
dystrybucyjnych energii elektrycznej bardzo istotna jest gęstość zaludnienia24
) czy regulacje
rządowe i przepisy25
. Często czynniki egzogeniczne dla jednej organizacji są czynnikami
endogenicznymi i kontrolowanymi dla innej. Określenie tego typu czynników zależne jest
zatem od konkretnego zadania badawczego. Możliwość wyodrębnienia zmiennych
środowiskowych stanowi poważną wartość metody DEA. Istnieją co najmniej dwa sposoby
uwzględnienia zmiennych kontrolowanych w analizie26
:
przez wprowadzenie dodatkowego ograniczenia do modelu;
przez uwzględnienie zmiennych kontrolowanych, a następnie badanie wpływu
zmiennych niekontrolowanych analizą regresji.
Drugi wariant jest częściej stosowany przez badaczy.
Kolejnym etapem jest wybór i konfiguracja modelu DEA. Rozwiązanie
poszczególnych zadań badawczych wymaga doboru odpowiedniego modelu dla konkretnego
zastosowania DEA. Schemat wyboru modelu dla poszczególnych zadań optymalizacji bazuje
przede wszystkim na orientacji oraz założeniach dotyczących efektów skali. Przyjmuje się,
że DMU, których celem jest przede wszystkim minimalizacja kosztów lub mają nałożone
ograniczenia co do wielkości osiąganych efektów, powinny być analizowane za pomocą
modelu zorientowanego na nakłady (ang. input orientation, input minimization, contraction).
Natomiast obiekty maksymalizujące efekty swojej działalności lub dysponują stałymi, trudno
modyfikowalnymi nakładami, za pomocą modelu zorientowanego na efekty (ang. output
orientation, output maximization, expansion). W przypadku braku decyzji co do klasyfikacji,
stosuje się modele niezorientowane, będące jednak trudniejsze w interpretacji27
.
24
J. Nazarko, J. Chrabołowska, Benchmarking w ocenie efektywności krajowych spółek dystrybucyjnych energii
elektrycznej, Prace Naukowe Akademii Ekonomicznej we Wrocławiu, „Taksonomia” 2005, nr 12, s. 38-47. 25
T. Coelli, D.S.P. Rao, G.E. Battese, dz. cyt., s. 166. 26
R. Ramanathan, dz. cyt. , s. 102-103. 27
P. Tyagi, S.P. Yadav, S.P. Singh, Relative performance of academic departments using DEA with sensitivity
analysis, “Evaluation and Program Planning” 2009, t. 32, s. 170-171; W.W. Cooper, L.M. Seiford, J. Zhu,
dz. cyt., s. 16-17.
152
Różnicowanie między zmiennymi bądź stałymi efektami skali zależy od tego,
czy czynniki te zostaną ujęte w analizie. Wiąże się to z tym, w jakim stopniu jednostka
decyzyjna może sama wpływać na swoją wielkość.
Rozwój metody DEA od 1978 roku, zarówno w obszarze badań teoretycznych,
jak i zastosowań empirycznych, wniósł modyfikacje i rozszerzenia modeli DEA związane
z lepszym dopasowaniem do danego problemu badawczego28
. Modyfikacje te uwzględniają
dodatkowe czynniki mające wpływ na produktywność i są dzięki temu w stanie zapewnić
większą dokładność pomiaru. Rozwój metody odbywał się w czterech obszarach:
wprowadzanie nowych interpretacji, rozszerzenia modeli, wprowadzanie alternatywnych form
funkcji i wprowadzanie informacji dodatkowych29
. Wszystkie modyfikacje i rozszerzenia
modeli DEA mają na celu najpełniejsze zobrazowanie procesów transformacyjnych jednostek
decyzyjnych oraz dostosowanie do specyfiki działania DMU*.
Kolejnym etapem procedury DEA jest formalno-statystyczna i merytoryczna
weryfikacja modelu. Jedną ze słabych stron modeli DEA wskazywanych w literaturze jest ich
wrażliwość na błędy pomiaru (obserwacji) zmiennych. Badano, jak na wrażliwość i stabilność
metody wpływa liczba jednostek decyzyjnych, liczba wejść i wyjść w modelu, wybór modelu,
zmiana danych lub zmiennych, lub obecność składnika losowego przy różnego rodzaju
pomiarach. Obecność zakłóceń w danych będących podstawą analizy produktywności może
zniekształcać klasyfikację ocenianych obiektów i prowadzić do błędnej oceny
ich efektywności działania30
. Stąd każdą aplikację modelu DEA do oszacowania
produktywności jednostek powinna poprzedzać analiza jego wrażliwości i stabilności.
Po przeprowadzeniu analizy, rezultaty poddaje się interpretacji bazującej na wiedzy
o czynnikach uwzględnionych przy obliczeniach. Intencją stosowania metody DEA jest
przede wszystkim identyfikacja DMU, które są nieproduktywne i ustalenie źródeł ewentualnej
nieefektywności. Choć modele DEA z formalnego punktu widzenia są zadaniami
decyzyjnymi, a metodyka DEA jest stosowana do badań operacyjnych, główny cel metody
jest opisowo-statystyczny, tzn. dąży się do ustalenia charakterystyki obiektów31
. Przy czym
28
A. Emrouznejad, B.R. Parker, G. Tavares, Evaluation of research in efficiency and productivity: A survey
and analysis of the first 30 years of scholarly literature in DEA, “Socio-Economic Planning Sciences” 2008, t. 42,
s. 151-157; C.T. Kuah, K.Y. Wong, F. Behrouzi, A Review on Data Envelopment Analysis (DEA), [w:] Fourth
Asia International Conference on Mathematical/Analytical Modelling and Computer Simulation AMS2010,
D. Al-Dabass i in. (red.), IEEE 2010, s. 168-173. 29
J.S. Liu, L.Y.Y. Lu, W.-M. Lu, B.J.Y. Lin, Data envelopment analysis 1978-2010: A citation-based literature
survey, “Omega” 2013, t. 41, s. 13.
* Więcej informacji o modelach DEA zawarto w rozdziale 5.2. 30
J. Nazarko, J. Urban, Sensitivity to measurements errors of DEA models, Annales Universitatis Mariae Curie-
Skłodowska. Sectio AI. Informatica, Lublin 2007, s. 101-106. 31
B. Guzik, Efektywność w standardowym modelu CCR-DEA przy zmianach rozmiaru zadania, „Wiadomości
Statystyczne” 2009, nr 11(582), s. 19.
153
ma ona charakter bardziej opisowy niż normatywny. Oszacowane metodą DEA współczynniki
produktywności pozwalają generować rankingi jednostek oraz dokonywać ich klasyfikacji32
,
podają informację na temat pozycji danej jednostki w odniesieniu do innych, służą porównaniu
jej działalności z pracą podobnych organizacji czy przedsiębiorstw, pozwalają dostrzec
możliwości usprawnień, lecz są też odpowiednią podstawą do dalszych studiów.
Przykłady licznych zastosowań metody DEA potwierdzają jej użyteczność w zakresie
badania produktywności jednostek zarówno w sektorze publicznym i niepublicznym. Główną
zaletą na tle innych metod jest możliwość dopasowania modeli, z dużą elastycznością,
do posiadanych danych. Popularność tej metody wynika także z następujących własności:
możliwość analizowania działalności jednostek gospodarczych charakteryzujących się
wielością nakładów i wyników;
brak konieczności dokładnej specyfikacji zależności funkcyjnej między poszczególnymi
nakładami i efektami, dzięki czemu pomija się etap sprawdzenia i udowodnienia
przydatności poszczególnych typów funkcji dla badanego problemu;
uwzględnienie dodatkowych zmiennych (jakościowych bądź niekontrolowanych)
pozwala na pełniejszą analizę, podnosi także poziom neutralności i obiektywności;
łatwość zastosowania tej metody w przypadku jednostek, których nie można
scharakteryzować przez miary efektywności oparte o współczynniki finansowe, czynniki
analizy mogą być wyrażone w różnych jednostkach miary;
empiryczny charakter metody;
identyfikacja najlepszych praktyk i określenie nadwyżek zasobów jednostek słabszych.
Słabymi stronami metody, wskazywanymi w literaturze, są:
duża wrażliwość wyników w wypadku nietypowych danych w obiektach produktywnych33
;
niestabilność wyników w wypadku silnego skorelowania zmiennych34
;
duża wrażliwość wyników na błędne lub nieprecyzyjne dane35
;
duża wrażliwość wyników na dobór zmiennych opisujących nakłady i efekty36
;
przyjęcie założenia, że odchylenia od krzywej granicznej interpretuje się jako skutek braku
efektywności, podczas gdy mogą one być wywołane np. składnikami losowymi bądź
zmiennymi ukrytymi (pod tym pojęciem rozumie się szum statystyczny i błędy pomiaru)37
.
32
N. Adler, L. Friedman, Z. Sinuany-Stern, Review of ranking methods in the data envelopment analysis context,
”European Journal of Operational Research” 2002, t. 140, s. 249-265; F. Hosseinzadeh Lotfi i in., A review
of ranking models in Data Envelopment Analysis, ”Journal of Applied Mathematics” 2013, t. 2013, s. 1-20. 33
B. Guzik, Podstawowe modele DEA…, s. 30. 34
Tamże. 35
L.M. Seiford, J. Zhu, Sensitivity and stability of the classifications of returns to scale in Data Envelopment
Analysis, “Journal of Productivity Analysis” 1999, t. 12, s. 55-75. 36
L.M. Seiford, J. Zhu, dz. cyt., s. 55-75.
154
Przykłady licznych publikacji i zastosowań metody DEA potwierdzają jej użyteczność
w zakresie badania produktywności jednostek w sektorze publicznym i niepublicznym.
Do połowy lat dziewięćdziesiątych XX wieku odnotowywano stopniowy rozwój zarówno
w obszarze badań teoretycznych, jak i zastosowań empirycznych. Intensyfikacja prac
badawczych z wykorzystaniem metody DEA nastąpiła po 1995 roku, a szczególnie
dynamiczny rozwój obserwuje się od 2009 roku (rysunek 5.3).
Rysunek 5.3. Liczba publikacji w tematyce metody DEA w latach 1978-2014 (stan 13.06.2014)
Źródło: opracowanie własne na podstawie danych bazy Scopus.
Według danych bazy bibliograficznej Scopus, dotychczas opublikowano ponad 8500
artykułów naukowych o zasięgu międzynarodowym na temat metody DEA, napisanych
przez ponad 3500 autorów, pochodzących z prawie 120 krajów. Ponad 80% tych publikacji
to artykuły zamieszczone w czasopismach, z czego blisko 35% ukazało się w: ”European
Journal of Operational Research”, ”Journal of the Operational Research Society”, ”Journal
of Productivity Analysis”, ”Expert Systems with Applications”, ”Omega”, ”Annals of Operations
Research”, ”Applied Economics” oraz ”Socio Economic Planning Sciences”. W ciągu
trzydziestu lat największy wkład w rozwój metody DEA wnieśli: W.W. Cooper, R.D. Banker,
A. Charnes, L.M. Seiford, W.D. Cook, J.K. Sengupta, W. Sueyoshi, J. Zhu, E. Thanassoulis,
C.A.K. Lovell, S. Grosskopf oraz R. Färe. Największą aktywność w zakresie prac
nad rozwojem i zastosowaniem metody DEA obecnie przejawiają uczeni z USA, krajów Azji
Wschodniej, krajów Bliskiego Wschodu, Wielkiej Brytanii, Hiszpanii, Kanady i Australii.
Metodę DEA stosowano w niemal wszystkich sektorach gospodarki. Badano jednostki
w sektorach: administracji, budownictwa, edukacji, energii, finansów, górnictwa, metalurgii,
obrony, rolnictwa, rybołówstwa, środowiska, ochrony zdrowia, transportu i logistyki,
37
N.C. Avkiran, T. Rowlands, How to better identify the true managerial performance: state of the art using
DEA, “Omega” 2008, t. 36, s. 318.
0
100
200
300
400
500
600
700
800
900
1000
1100
197
81
97
91
98
01
98
11
98
21
98
31
98
41
98
51
98
61
98
71
98
81
98
91
99
01
99
11
99
21
99
31
99
41
99
51
99
61
99
71
99
81
99
92
00
02
00
12
00
22
00
32
00
42
00
52
00
62
00
72
00
82
00
92
01
02
01
12
01
22
01
32
01
4
[Lic
zba p
ub
lik
acj
i]
[Lata]
155
ubezpieczeń, telekomunikacji i innych. Analizowano zagadnienia z sektora przemysłu, handlu
i usług na poziomie jednostki, organizacyjnym, systemowym, regionalnym, krajowym
i międzynarodowym. Systematycznie prowadzone są obserwacje na temat obszarów zastosowań,
kierunków rozwoju modeli, między innymi na stronie internetowej A. Emrouznejada o nazwie
DEA Zone38
, a także publikacjach przeglądowych o międzynarodowym zasięgu39
.
Wiele prac dotyczących zastosowań metody DEA miało formę projektów
pilotażowych lub jednorazowych badań odnoszących się do teoretycznych rozszerzeń
metodologii. Tylko w niektórych wypadkach były czynione próby, aby stworzyć stabilny
system ocen osiągnięć oparty na metodzie DEA.
Liczne zastosowania metody DEA prezentowane w literaturze polskiej potwierdzają
rosnące zainteresowanie tą metodą również w kraju. Najwcześniejsze publikacje, odnotowane
przez autorkę, pojawiły się w l996 roku i dotyczyły analiz w sektorze bankowym.
Jest to obecnie najbardziej popularny obszar zastosowań metody DEA w Polsce. Równie licznie
reprezentowany jest sektor rolny, a ostatnio również energetyczny i edukacji, szczególnie
w zakresie badań efektywności działalności szkół wyższych, szkół podstawowych
i gimnazjalnych w zakresie kształcenia i zarządzania. Inne zastosowania dotyczą sektora
ochrony zdrowia, rynku inwestycyjnego, budownictwa, efektywności gospodarowania gmin
i województw, sektora bezpieczeństwa i transportu*. Należy zauważyć, że właściwie wszystkie
prace dotyczą zastosowania metody DEA do analizy efektywności. Nie zidentyfikowano prac
odnoszących się do problematyki produktywności poza odniesieniem do działalności
produkcyjnej.
38
Ali Emrouznejad’s Data Envelopment Analysis, www.deazone.com/en/resources/bibliography. 39
H.W. Lampe, D. Hilgers, Trajectories of efficiency measurement: A bibliometric analysis of DEA and SFA,
“European Journal of Operational Research” 2015, t. 240, nr 1, s. 1-21; J.S. Liu, L.Y.Y. Lu, W.-M. Lu,
B.J.Y. Lin, dz. cyt., s. 3-15; J.S. Liu, L.Y.Y. Lu, W.-M. Lu, B.J.Y. Lin, A survey of DEA applications,
“Omega” 2013, t. 41, s. 893-902; C.T. Kuah, K.Y. Wong, F. Behrouzi, dz. cyt., s. 168-173; W.D. Cook,
L.M. Seiford, Data envelopment analysis (DEA) – Thirty years on, ”European Journal of Operational
Research” 2009, t. 192, s. 1-17; A. Emrouznejad, B.R. Parker, G. Tavares, dz. cyt., s. 151-157; M.G. Kocher,
M. Luptacik, M. Sutter, Measuring productivity of research in economics: A cross-country study using DEA,
“Socio-Economic Planning Sciences” 2006, t. 40, s. 314-332; S. Gattoufi, M. Oral, A. Reisman, A taxonomy
for data envelopment analysis, “Socio-Economic Planning Sciences“ 2004, t. 38, s. 141-158; S. Gattoufi,
M. Oral, A. Reisman, Data envelopment analysis literature: a bibliography update (1951-2001), “Socio-
Economic Planning Sciences” 2004, t. 38, s. 159-229; W.W. Cooper, L.M. Seiford, E. Thanassoulis,
S.H. Zanakis, DEA and its uses in different countries, ”European Journal of Operational Research” 2004,
t. 154, s. 337-344; G. Tavares, A Bibliography of Data Envelopment Analysis (1978-2001), Rutcor Research
Report, Rutgers University, Piscataway 2002, 186 s., http://rutcor.rutgers.edu/pub/rrr/reports2002/1_2002.pdf,
[12.02.2009]; L.M. Seiford, A bibliography for Data Envelopment Analysis (1978-1996), “Annals
of Operations Research” 1997, t. 73, s. 393-438.
* Publikacje na temat zastosowań metody DEA w Polsce, będące wynikiem studiów literaturowych autorki,
przedstawiono w aneksie, załącznik 7.
156
5.2. Przegląd modeli Data Envelopment Analysis
Ustalanie poziomu produktywności metodą DEA polega ogólnie na rozwiązaniu
dla każdego obiektu pewnego ściśle zdefiniowanego liniowego zadania decyzyjnego,
w którym dokonuje się wartościowania uzyskanych przez ten obiekt rezultatów
i wykorzystanych nakładów oraz oblicza wskaźnik względnej produktywności badanego
obiektu. Wyznaczenie wskaźnika produktywności sprowadza się do rozstrzygnięcia zadania
programowania ilorazowego na podstawie danych empirycznych, w którym licznik wyraża
sumę zysków dla danej decyzji, a mianownik wyraża sumę kosztów z niej wynikających40
.
Przy zadanych ograniczeniach dąży się do takiego rozwiązania, gdzie układ wag jest
dla danego obiektu najkorzystniejszy. Zadanie matematyczne ma postać41
:
0 0
0
0 0
1
,
1
max
s
rj rj
rj m
u v
ij ij
i
v y
P
u x
(5.3)
0 0
0 0
1
1
0 1
s
rj rj
r
m
ij ij
i
v y
u x
(5.4)
, 0rj ijv u (5.5)
gdzie: oznaczenia jak w równaniu (5.1).
Postać ilorazową sprowadza się do liniowej, w zależności od przyjętego modelu DEA.
Wybór modelu związany jest dopasowaniem do danego problemu badawczego.
W metodologii DEA dało to wyraz powstaniu szeregu modeli liniowych, które definiują
odpowiednie mierniki. Skonstruowano modele do pomiaru efektywności skali, do analizy
przekrojowo-czasowej (np. zmiany produktywności w czasie). W literaturze spotyka się także
problematykę stałych i zmiennych czynników produkcji związanych z analizą krótko-
i długookresową. Dodatkowo sformułowane zostały także modele hybrydowe, sieciowe,
hierarchiczne, stochastyczne oraz rozmyte42
. Rozwój modeli DEA wyodrębnianych
w literaturze przedstawiono w tabeli 5.1.
Podstawowym modelem DEA jest model CCR sformułowany przez A. Charnesa,
W.W. Coopera i A. Rhodesa. Pozostałe modele DEA stanowią modyfikacje modelu CCR.
40
Programowanie matematyczne. Zbiór zadań, S. Krawczyk (red.), Polskie Wydawnictwo Ekonomiczne,
Warszawa 1978, s. 81-89; Z. Jędrzejczyk, K. Kukuła, J. Skrzypek, A. Walkosz, Badania operacyjne
w przykładach i zadaniach, Państwowe Wydawnictwo Naukowe, Warszawa 2004, s. 86-87. 41
R. Ramanathan, dz. cyt., s. 45. 42
C.T. Kuah, K.Y. Wong, F. Behrouzi, dz. cyt., s. 168-173.
157
Tabela 5.1. Wybrane modele standardowe DEA
Skrót i nazwa modelu Autorzy
CCR (CRS)
constant returns to scale model dla stałych korzyści skali Charnes, Cooper, Rhodes (1978)
invariant multiplicative
models model multiplikatywny
Charnes, Cooper, Golany, Seiford,
Stutz (1982, 1983)
BCC (VRS)
variable return to scale
model dla zmiennych korzyści
skali Banker, Charnes, Cooper (1984)
additive model model addytywny Charnes, Cooper, Golany, Seiford,
Stutz (1985)
SBM slack-based model model oparty na luzach
Charnes, Cooper, Golany, Seiford,
Stutz (1985)
CEM cross-efficiency model model efektywności krzyżowej Sexton, Silman, Hogan (1986)
extended additive model model addytywny rozszerzony Charnes, Cooper, Golany, Seiford,
Stutz (1987)
SE-DEA
super-efficiency DEA model nadefektywności
Banker, Gilford (1988);
Andersen, Petersen (1993)
NR-DEA non-radial DEA model efektywności nieradialnej Thanassoulis, Dyson (1992);
Zhu (1996)
CEP
cross-efficiency profiling
model sprofilowanej
efektywności krzyżowej Doyle, Green (1994); Tofalis (1996)
ML-DEA
multi-level DEA
(dynamic DEA, hierarchic
DEA, network DEA)
wielopoziomowa DEA
Cook, Chai, Green, Doyle (1998);
Nemoto, Gato (1999)
T-DEA transconvex DEA model z transformacją nakładów
lub (i) efektów Post (1997)
HRS
hybrid return-to-scale
model z hybrydowymi
korzyściami skali Podinovski (2004)
FDEA
Fuzzy Data Envelopment
Analysis
modele rozmyte DEA Sengupta (1992)
FDH Free Disposal Hull odmiana metody DEA Tulkens (1993)
TFDEA Technology
Forecasting using DEA odmiana metody DEA
Anderson, Hollingsworth, Inman
(2001)
Źródło: opracowanie własne na podstawie: B. Guzik, Podstawowe modele DEA w badaniu efektywności
gospodarczej i społecznej, Wydawnictwo Uniwersytetu Ekonomicznego, Poznań 2009, s. 26-27.
Modele DEA klasyfikowane są według dwóch podstawowych kryteriów: ze względu
na orientację modelu oraz podejście do efektów skali (tabela 5.2). Oba podziały nakładają się
na siebie.
Tabela 5.2. Klasyfikacja modeli DEA według kryterium orientacji i efektów skali
Kryterium korzyści
skali
Kryterium orientacji
zorientowane
na nakłady (I)
zorientowane
na efekty (O) niezorientowane
stałe efekty skali
CRS CCR-I (CRS-I) CCR-O (CRS-O)
niezorientowany model
ze stałymi efektami skali
zmienne efekty skali
VRS BCC-I (VRS-I) BCC-O (VRS-O) model multiplikatywny
ze zmiennymi efektami skali
model addytywny
ze zmiennymi efektami skali
nierosnące efekty skali
NIRS NIRS-I NIRS-O
niemalejące efekty skali
NDRS NDRS-I NDRS-O
I- input (wejście), O – output (wyjście)
Źródło: opracowanie własne.
158
W modelach zorientowanych wartość wskaźnika produktywności pokazuje zmianę
w nakładach lub efektach, która sprawia, że dany obiekt staje się produktywny. Model jest
zorientowany na nakłady (wejścia), gdy zadaniem funkcji celu jest zminimalizowanie
zapotrzebowania na nakłady przy zachowaniu tej samej wielkości uzyskanych efektów.
Orientacja modelu na efekty (wyjścia) wskazuje, o ile należy zwiększyć wyniki danego
DMU, przy zachowaniu tej samej wielkości nakładów, aby był on produktywny. Przykładami
modelu bez orientacji są modele addytywny oraz multiplikatywny.
Kryterium efektów skali umożliwia natomiast wyodrębnienie modeli DEA
zakładających stałe korzyści skali (CRS – Constant Returns to Scale) i zmienne efekty skali
(VRS – Variable Returns to Scale). W grupie modeli o zmiennych efektach skali wyróżnia się
modele przyjmujące założenie o następujących efektach skali: malejących (DRS – Decreasing
Returns to Scale), nierosnących (NIRS – Non-Increasing Returns to Scale), rosnących (IRS
– Increasing Returns to Scale) lub niemalejących (NDRS – Non-Decreasing Returns to Scale).
W modelu CCR zakłada się stałe korzyści skali. Odnosząc się do wzoru (5.3),
formułuje się właściwe funkcje celu odpowiednie dla przyjętej orientacji i odpowiadające im
warunki ograniczające. Zlinearyzowana, w wyniku transformacji Charnesa-Coopera43
,
pierwotna postać modelu CCR z orientacją na nakłady (CCR-I) wyraża się wzorem44
:
0 0 0
1
minm
j ij ij
i
z u x
(5.6)
przy założeniach:
0 0
0 0
0
0
1
0
1 1
1
0, 1,..., ,...,
, 1,...,
, 1,...,
s
rj rj
j
s m
rj rj ij ij
r i
rj
ij
v y
v y u x j j n
v r s
u i m
gdzie:
0jz – funkcja celu programowania liniowego dla modelu zorientowanego na nakłady
pozostałe oznaczenia jak w równaniu (5.1).
Istotą modelu CCR jest ustalenie, czy w zbiorze technologii dopuszczalnych,
technologia obiektu j0 jest technologią optymalną. Poszczególne założenia modelu
wyznaczane są przez odniesienie się do technologii pozostałych DMU w grupie. W wyniku
realizacji modelu w postaci pierwotnej uzyskuje się ranking obiektów produktywnych
43
W.W. Cooper, L.M. Seiford, J. Zhu, dz. cyt., s. 9-10. 44
R. Ramanathan, dz. cyt., s. 45.
159
i nieproduktywnych oraz wagi u oraz v wyrażające jednostkową wycenę nakładów
i rezultatów, tak zwane mnożniki45
.
Problemowi programowania liniowego odpowiada problem dualny. Przejście
do problemu dualnego ułatwia obliczenia oraz zwiększa możliwości interpretacyjne metody
DEA. Wersja dualna modelu CCR-I przyjmuje postać46
:
0
0
1max j
j
(5.7)
przy założeniach:
0
0 0
1
1
, 1, 2,...,
, 1, 2,...,
0, 1,2,...,
n
j ij ij
j
n
j rj j rj
j
j
x x i m
y y r s
j n
gdzie:
j – wektor współczynników,
0j – współczynnik produktywności
W równaniu dualnym, w odróżnieniu od modelu pierwotnego, poszczególne założenia
uwarunkowane są przez zmienne wejścia i wyjścia modelu. Zmienia się za tym interpretacja
wyników. Model dualny pozwala wyznaczyć tak zwane wagi intensywności 1,..., j , służące
do określenia optymalnej technologii obiektu 0
*
j47
. Pozwala to zidentyfikować benchmarki
oraz technologie optymalne obiektów nieproduktywnych.
W literaturze przedmiotu częściej wyróżnia się modele dualne jako pierwotne48
,
co doprowadziło do zakłócenia terminologii. Z matematycznego punktu widzenia model
dualny do modelu dualnego jest jego początkowym zagadnieniem pierwotnym.
Dla jednoznacznego rozróżnienia postaci modelu, stosuje się terminy multiplier model
dla modelu pierwotnego i envelopment model dla modelu dualnego49
.
Analogicznie do modelu zorientowanego na nakłady, sformułowano model
zorientowany na efekty CCR-O50
:
0 0 0
1
max ' 's
j rj rj
r
z v y
(5.8)
45
B. Guzik, Podstawowe modele DEA…, s. 55-56. 46
W.W. Cooper, L.M. Seiford, J. Zhu, dz. cyt., s. 10. 47
B. Guzik, Efektywność w standardowym modelu…, s. 19. 48
B. Guzik, Podstawowe modele DEA…, s. 147. 49
W.W. Cooper, L.M. Seiford, J. Zhu, dz. cyt., s. 12. 50
R. Ramanathan, dz. cyt., s. 45.
160
przy założeniach:
0 0
1
' 1m
ij ij
i
u x
0 0 0
1 1
' ' 0, 1,..., ,...,s m
rj rj ij ij
r i
v y u x j j n
0
0
' , 1,...,
' , 1,...,
rj
ij
v r s
u i m
gdzie:
0' jz – funkcja celu programowania liniowego dla modelu zorientowanego na efekty.
Oraz jego postać dualną:
0min j
(5.9)
przy założeniach:
0
0 0
1
1
, 1, 2,...,
, 1, 2,...,
0, 1,2,...,
n
j rj rj
j
n
j ij j ij
j
j
y y r s
x x i m
j n
gdzie:
j – wektor współczynników,
0j – współczynnik produktywności.
Rozwiązanie modelu CCR-I oraz CCR-O umożliwia przede wszystkim pomiar i ocenę
poziomu produktywności przez wyznaczenie wskaźników produktywności i ich odniesienie
do skali grupy obiektów. Rozwiązanie optymalne *
j uzyskuje się wówczas, gdy 0
* 1j
dla * *,v u , gdzie * 0v i * 0u 51
. Przypadek dla obiektów nieproduktywnych,
gdy 0
0 1j , oznacza, że optymalne nakłady lub efekty, jakie zaobserwowano w badanym
obiekcie, są odpowiednio nie większe lub nie mniejsze od rzeczywiście poniesionych
przez ten obiekt. Sygnalizuje to sytuację, w której w badanym obiekcie nastąpiło
nieefektywne gospodarowanie nakładami, a w rezultacie ich marnotrawstwo, wynikające
z porównania z obiektami produktywnymi, które w założeniu realizują lepiej procesy
transformacji nakładów w efekty. W zależności od przyjętej orientacji modelu, jednostki
nieproduktywne mogą osiągać dotychczasowe efekty przy niższych nakładach lub lepsze
rezultaty przy dotychczasowym poziomie nakładów. Przypadek, gdy 0
1j nie może zaistnieć,
gdyż oznaczałoby to sytuację, w której zadanie nie zostało zoptymalizowane względem 0j .
Wyjątek od tego przypadku stanowią modele nadefektywności (ang. super-efficiency).
51
W.W. Cooper, L.M. Seiford, K. Tone, Introduction to Data Envelopment Analysis and its uses. With DEA-
Solver software and references, Springer, New York 2006, s. 24.
161
Na podstawie wyznaczonych wskaźników j wyznaczany jest ranking obiektów
nieproduktywnych. Obiekty produktywne o wskaźniku 1j tworzą grupę obiektów
klasyfikowanych na miejscu pierwszym. Udział jednostek uznanych za produktywne w modelu
CCR często kształtuje się na poziomie 30-50%52
. W celu dokonania szczegółowego rangowania
obiektów produktywnych, stosuje się modele nadefektywności (ang. super-efficiency),
w których dokonuje się dodatkowego różnicowania jednostek uznanych za produktywne53
.
Dla rozwiązania tego zagadnienia, wprowadza się dodatkowe założenie, że własny współczynnik
obiektu produktywnego jest zerowy (0
0j ). Wówczas dopuszcza się, aby 1j .
W teorii metodologii DEA istotne znaczenie ma również wyjaśnienie
zagadnienia luzów (ang. slacks). W niektórych okolicznościach może nastąpić
niedoszacowanie obiektów leżących na granicy produktywności. Dzieje się tak w sytuacji,
gdy fragment krzywej produktywności wyznaczanej przez obiekty produktywne jest
równoległy do osi nakładów lub efektów (rysunek 5.4).
Rysunek 5.4. Zjawisko luzów w modelach DEA
Źródło: J. Zhu, Quantitative models for performance evaluation and benchmarking: data envelopment analysis
with spreadsheets and DEA Excel Solver, Kluwer Academic Publishers, Boston 2003, s. 6.
Obiekty A, B, C i D tworzą granicę produktywności. Jednostka C jest jednak tylko
pozornie produktywna i może zmniejszyć nakłady co najmniej do poziomu obiektu D
nie zmniejszając wyników. W celu eliminacji tego zjawiska, funkcję celu oraz ograniczenia
uzupełnia się o element luzów. W tym celu postać standardową modelu przekształca się
do postaci kanonicznej i wprowadza zmienne swobodne: s dla oznaczenia nadwyżki nakładów
oraz s dla oznaczenia niedoborów rezultatów empirycznej technologii obiektu j054
:
52
B. Guzik, Podstawowe modele DEA…, s. 151. 53
J. Zhu, dz. cyt., s. 198-215. 54
S.C. Ray, Data Envelopment Analysis. Theory and techniques for economics and operations research,
Cambridge University Press, New York 2004, s. 35-36.
efekty
nakłady
A B
C
D
E
F
162
CCR-I (5.9)
0
1 1
maxm s
j i r
i r
s s
przy założeniach:
0
0 0
1
1
, 1, 2,...,
, 1, 2,...,
0, 1,2,...,
0
n
j ij i ij
j
n
j rj r j rj
j
j
x s x i m
y s y r s
j n
gdzie:
infinitezymalna stała
CCR-O (5.10)
0
1 1
minm s
j i r
i r
s s
przy założeniach:
0
0 0
1
1
, 1, 2,...,
, 1, 2,...,
0, 1,2,...,
0
n
j rj i rj
j
n
j ij i j ij
j
j
y s y r s
x s x i m
j n
Po wyznaczeniu wskaźnika *
j , w wypadku identyfikacji luzów, wyznacza się wskaźnik
skorygowany wartości początkowej *
j , w którym dokonuje się
optymalizacji luzów55
.
W literaturze przedmiotu często podaje się wzory dualne modeli podstawowych jedynie
w postaci kanonicznej uwzględniające luzy56
.
Szczególną cechą metody DEA, oprócz identyfikacji źródeł nieproduktywności, jest
możliwość wyznaczenia formuł benchmarkingowych dla obiektów nieproduktywnych.
Formuła benchmarkigowa obiektu nieproduktywnego j0 opisywana jest przez optymalne
współczynniki j ,
gdzie 1,...,j n , które określają, jaką krotność technologii obiektu
wzorcowego j należy przyjąć konstruując technologię optymalną (docelową) obiektu j0.
Na podstawie technologii optymalnych można ocenić nadwyżki nakładów lub niedobory
efektów w stosunku do wielkości optymalnych. Pozwala to także ustalić strukturę technologii
docelowej, czyli udział poszczególnych obiektów wzorcowych w docelowych nakładach
i efektach57
. Ilustracją formuły benchmarkingowej jest graf benchmarkingowy58
.
Mimo, iż model CCR uwzględnia stałe efekty skali, na podstawie sumy optymalnych
współczynników j można także określić, czy dana jednostka działa w obszarze zmiennych
efektów skali oraz ustalić kierunek korzyści skali. Oceny efektów skali można też dokonać
na podstawie zmodyfikowanego modelu standardowego w postaci prymarnej lub modelu
55
B. Guzik, Podstawowe modele DEA…, s. 271-273. 56
J. Zhu, dz. cyt., s. 5-11; A. Charnes, W.W. Cooper, A.Y. Lewin, L.M. Seiford, dz. cyt., s. 23-41; W.W. Cooper,
L.M. Seiford, J. Zhu, dz. cyt., s. 13. 57
B. Guzik, Podstawowe modele DEA…, s. 91. 58
Tamże, s. 78-79.
163
addytywnego59
. W literaturze jednak wykorzystuje się głównie postać dualną, gdzie podstawą
wnioskowania jest wartość sumy współczynników j60
:
0
1
n
j j
j
L
(5.11)
gdzie:
0jL – suma optymalnych współczynników j
uzyskanych w zadaniu CCR
Parametr 0j
L określa typ korzyści skali:
jeśli 0
1jL , to dla obiektu j0 występują rosnące korzyści skali (IRS);
jeśli 0
1jL , to dla obiektu j0 występują malejące korzyści skali (DRS);
jeśli 0
1jL , to dla obiektu j0 występują stałe efekty skali (CRS).
Właściwości modelu CCR wskazują na możliwości zastosowania do określonego zadania.
Podsumowane przez B. Guzika główne obszary analityczne modelu CCR są następujące61
:
identyfikacja obiektów produktywnych i nieproduktywnych względem przyjętych
zmiennych;
określenie technologii optymalnych (docelowych) obiektów nieproduktywnych;
wyznaczenie rankingu obiektów na postawie poziomu wskaźnika produktywności;
zdefiniowanie formuł benchmarkingowych dla obiektów nieproduktywnych;
ustalenie nadwyżek nakładów i niedoborów rezultatów obiektów nieproduktywnych;
określenie struktury technologii docelowej;
wskazanie stopnia dopasowania technologii aktualnej do technologii docelowej;
rozpoznanie typu korzyści skali.
Podobne właściwości zachowują kolejne modyfikacje modeli DEA, w tym także
model BCC, będący pierwszym rozszerzeniem modelu CCR.
Model BCC traktowany jest w literaturze jako podstawowy model DEA
uwzględniający efekty skali. Sformułowany został przez R.D. Bankera, A. Charnesa,
W.W. Coopera w 1984 roku. W modelu tym wprowadzono dodatkowe równanie,
ograniczające wypukłość, w postaci 1
1n
j
j
, gdzie λ opisuje efekt skali (tabela 5.1).
Krzywa produktywności przyjmuje postać wypukłą (rysunek 5.1). Analogicznie, modele
NIRS oraz NDSR także wymagają wprowadzenia dodatkowego ograniczenia: odpowiednio
1
1n
j
j
oraz 1
1n
j
j
.
59
J. Zhu, Quantitative models for performance evaluation and benchmarking: Data Envelopment Analysis
with spreadsheets and DEA Excel Solver, Springer, New York 2003, s. 34, 40. 60
W.W. Cooper, L.M. Seiford, K. Tone, Introduction…, s. 138. 61
B. Guzik, Podstawowe modele DEA…, s. 65.
164
W modelu BCC, obiekt j0 jest produktywny jeżeli 0
1j oraz 0s i 0s 62
.
W zagadnieniu pierwotnym współczynniki 0
*
ju0j
u oraz 0
*' jv identyfikują typ efektów skali63
:
jeśli 0
* 0ju (lub
0
*' 0jv ), to dla obiektu j0 występują rosnące korzyści skali (IRS);
jeśli 0
* 0ju (lub
0
*' 0jv ), to dla obiektu j0 występują malejące korzyści skali (DRS);
jeśli 0
* 0ju (lub 0
*' 0jv ), to dla obiektu j0 występują stałe efekty skali (CRS).
Strefy efektów skali w zależności od przyjętego modelu przedstawiono na rysunku 5.4.
Rysunek 5.5. Obszary efektów skali
Źródło: opracowanie własne na podstawie: J. Zhu, Quantitative models for performance evaluation
and benchmarking: Data Envelopment Analysis with spreadsheets and DEA Excel solver, Kluwer Academic
Publishers, Boston 2003, s. 62-63.
Położenie punktu A wskazuje, iż jest to obiekt nieproduktywny. W modelu
zorientowanym na nakłady, technologię optymalną określa punkt A’, który działa w obrębie
rosnących efektów skali (IRS). W wypadku orientacji modelu na efekty, punkt A” wyznacza
technologię docelową w obszarze efektów skali malejących (DRS).
Należy jednak zaznaczyć, że przedstawione w tabeli 5.3 oraz we wzorze (5.11)
metody określania efektów skali są skuteczne w wypadku, gdy istnieje tylko jedno
rozwiązanie optymalne. W wypadku alternatywnych rozwiązań, obie metody mogą okazać się
niewłaściwe. Należy wówczas dokonać porównań modeli CRS, VRS, NIRS, DRS64
.
62
W.W. Cooper, L.M. Seiford, K. Tone, Introduction…, s. 92. 63
W.W. Cooper, L.M. Seiford, J. Zhu, dz. cyt., s. 46. 64
J. Zhu, Quantitative Models for Performance Evaluation and Benchmarking: Data Envelopment Analysis
with spreadsheets and DEA Excel solver, Kluwer Academic Publishers, Boston 2003, s. 65-66.
IRS
CRS
A”
nakłady
efekty
VRS
CRS
B’
B A’
DRS
IRS-I
CRS-O
IRS-I
DRS-O
CRS-I
DRS-O
A
165
Tabela 5.3. Funkcje celu modelu BCC dla zagadnienia pierwotnego i dualnego z orientacją na nakłady i efekty
BCC-I zagadnienie pierwotne (multiplier model) BCC-O zagadnienie pierwotne (multiplier model)
0 0 0 0
1
minm
j ij ij j
i
z u x u
(5.12)
(5.7)
przy założeniach:
0 0
0 0 0
0
0
1
0
1 1
1
0, 1,..., ,...,
, 1,...,
, 1,...,
s
rj rj
j
s m
rj rj ij ij j
r i
rj
ij
v y
v y u x u j j n
v r s
u i m
0 0 0 0
1
max ' ' 's
j rj rj j
r
z v y v
(5.13)
(5.6)
przy założeniach:
0 0
0 0 0
0
0
1
0
1 1
' 1
' ' ' 0, 1,..., ,...,
' , 1,...,
' , 1,...,
m
ij ij
i
s m
rj rj ij ij rj
r i
rj
ij
u x
v y u x v j j n
v r s
u i m
BCC-I zagadnienie dualne (envelopment model) BCC-O zagadnienie dualne (envelopment model)
0 0
1 1
maxm s
j j i r
i r
z s s
(5.14)
przy założeniach:
0
0 0
1
1
1
, 1, 2,...,
, 1, 2,...,
1
0, 1,2,...,
0
n
j ij i ij
j
n
j rj r j rj
j
n
j
j
j
x s x i m
y s y r s
j n
0 0
1 1
min 'm s
j j i r
i r
z s s
(5.15)
przy założeniach:
0
0 0
1
1
1
, 1, 2,...,
, 1, 2,...,
1
0, 1,2,...,
0
n
j ij i ij
j
n
j rj r j rj
j
n
j
j
j
x s x i m
y s y r s
j n
Źródło: opracowanie własne na podstawie W.W. Cooper, L.M. Seiford, K. Tone, Introduction to Data Envelopment
Analysis and its uses. With DEA-Solver Software and References, Springer, New York, 2006, s. 91-93.
Kolejną grupę modeli DEA tworzą modele niezorientowane, gdzie optymalizacja
odbywa się przez równoczesne zmniejszanie nakładów i zwiększanie efektów. Interpretacja
rozwiązań tych modeli jest trudniejsza, gdyż nie można traktować ich jako prostej miary
produktywności. Wśród modeli niezorientowanych wyróżnia się addytywne i multiplikatywne.
Modele addytywne zaproponowane przez A. Charnesa, W.W. Coopera, B. Golany,
L.M. Seiforda i J. Stutza w 1985 roku65
, konstruuje się dla stałych i zmiennych efektów skali.
W modelu addytywnym o stałych efektach skali obiekt A będzie produktywny, jeśli
odpowiednio zredukuje nakłady i jednocześnie zwiększy efekty tak, by znaleźć się na granicy
produktywności między punktami B i B’ (rysunek 5.5). Natomiast przy założeniu zmiennych
efektów skali, obiekt A będzie produktywny, zajmując pozycję na odcinku o końcach A i A”.
Ograniczeniem modeli addytywnych jest to, że nie określają jednoznacznie poziomu
65
A. Charnes, W.W. Cooper, B. Golany, L.M. Seiford, J. Stutz, Foundations of Data Envelopment Analysis
for Pareto-Koopmans efficient empirical production functions, ”Journal of Econometrics” 1985, t. 30, s. 91-107.
166
produktywności. W modelu multiplikatywnym ograniczenia mają postać funkcji logistycznej.
Dzięki temu są mniej wrażliwe na wartości skrajne.
Szczególnym rozwiązaniem stosowanym w modelach DEA są ograniczenia nałożone
na wagi nakładów i efektów. Wprowadzenie takich restrykcji proponuje się, gdy dysponuje
się dodatkową wiedzą na temat znaczenia poszczególnych nakładów i efektów. Jako pierwsi
takie ograniczenia zastosowali R.G. Thompson, F.D. Singleton Jr, R.M. Thrall i B.A. Smith66
oraz R.G. Dyson i E. Thanassoulis67
.
Innym istotnym zagadnieniem dotyczącym modeli DEA jest problematyka substytucji
i komplementarności nakładów lub efektów. W klasycznych modelach DEA zakłada się,
że zmiany wskaźnika produktywności mogą być dokonywane przez proporcjonalne zmiany
wszystkich efektów – w wypadku modeli ukierunkowanych na efekty, lub zmiany wszystkich
nakładów – w wypadku modeli ukierunkowanych na nakłady. Jest to produktywność radialna.
Z ekonomicznego punktu widzenia podstawową cechą podejścia radialnego jest pełna
komplementarność efektów (lub nakładów), a w konsekwencji ich zerowa substytucja68
.
Rozwiązaniem zagadnienia substytucji rezultatów (lub efektów) w metodzie DEA jest
zastosowanie modelu nieradialnego (ang. non-radial, NR). W wypadku nieradialnym
dopuszcza się, że produktywność cząstkowa ze względu na dany rezultat może być inna
dla każdego efektu, przy czym wskaźnik cząstkowy ma charakter radialny. W modelach
zorientowanych na nakłady przyjmuje się wskaźnik produktywności jako średnią arytmetyczną
wskaźników cząstkowych, natomiast w modelach zorientowanych na efekty – odwrotność
średniej arytmetycznej. Różnicę między radialnym i nieradialnym pomiarem odległości obiektu
od granicy produktywności przedstawiono na rysunku 5.6. Obiekty wytwarzają dwa rezultaty
y1 oraz y2 wykorzystując do tego jeden nakład oznaczony przez x. Jednostki DMU1, DM2,
DMU3 i DMU4 wyznaczają krzywą produktywności, jednostka DMU5 jest nieproduktywna.
Poziom pełnej produktywności radialnej DMU5, zakładającej proporcjonalne zwiększenie
efektów, wyznacza punkt Q. Zwiększenie efektów odbywa się po promieniu, łączącym
początek układu współrzędnych i obraz jednostki DMU5 (ang. radial). Innym sposobem
osiągnięcia przez obiekt DMU5 pełnej produktywności jest zwiększenie tylko jednego nakładu
y1 lub y2, by osiągnąć poziom jednostki DMU2 lub DMU3. Taki sposób zwiększania efektów
nazywany jest nieradialnym, gdyż dokonywany jest nieproporcjonalnie.
66
R.G. Thompson, F.D. Singleton Jr, R.M. Thrall, B.A. Smith, Comparative site evaluations for locating a high-
energy physics lab in Texas, “Interfaces” 1986, t. 16(6), s. 35-49. 67
R.G. Dyson, E. Thanassoulis, Reducing weight flexibility in Data Envelopment Analysis, “Journal of the Operational
Research Society” 1988, t. 39, nr 6, s. 563-576. 68
J. Zhu, dz. cyt., s. 77-79.
167
Rysunek 5.6. Radialna i nieradialna miara odległości od granicy produktywności
Źródło: opracowanie własne na podstawie J Zhu, Quantitative models for performance evaluation
and benchmarking: Data Envelopment Analysis with spreadsheets and DEA Excel Solver, Kluwer Academic
Publishers, Boston 2003, s. 78.
Nieradialne modele DEA, wprowadzając postulat istnienia substytucji w obrębie
rezultatów, pozwalają ocenić jej wielkość. Substytucja rezultatów oznacza możliwość
wykorzystania identycznego wektora nakładów do osiągnięcia innego wektora rezultatów.
Dla obiektów w pełni efektywnych rezultaty są komplementarne. Przyjmuje się, że obiekty
w pełni produktywne w modelu radialnym, są też w pełni produktywne w sensie
nieradialnym, i odwrotnie. Ta sama zależność dotyczy obiektów nieproduktywnych. Jeśli
obiekt jest nieproduktywny w modelu radialnym, to w nieradialnym modelu
jest nieproduktywny przynajmniej ze względu na jeden rezultat69
. Modele nieradialne
są adekwatnie stosowane i interpretowane w modelach z orientacją na nakłady.
Przedstawione w rozdziale modele DEA i wybrane ich rozszerzenia nie wyczerpują
możliwości metody, czego dowodem jest bardzo obszerna i stale powiększające się bibliografia
metody DEA.
5.3. Przykłady zastosowań metody Data Envelopment Analysis w ocenie wyników
działalności naukowej
Metoda DEA jest stosowana z sukcesem w ocenie wyników działalności naukowej
szkół wyższych. Zidentyfikowano kilkadziesiąt badań prowadzonych w tym zakresie.
Najbardziej znaczące badania przedstawiono w tabeli 5.3.
Należy zauważyć, że metoda DEA znajduje szerokie zastosowanie w ogólnej ocenie
działalności uczelni, odnoszące się zarówno do działalności naukowej, dydaktycznej
oraz administracyjnej. Autorka przywołała natomiast tylko te badania, w których
uwzględniono działalność naukową. W tym ujęciu, najwcześniejsze badania przeprowadzono
69
B. Guzik, Podstawowe modele DEA…, s. 207.
DMU3
O
DMU1 DMU2
DMU5
DMU4
Q
y1/x
y2/x
krzywa produktywności
168
w Stanach Zjednoczonych w 1988 roku70
. Przez kolejne lata przeprowadzono badania
uniwersytetów w wielu krajach Europy i Azji, a także w Australii oraz Afryce. Badania
prowadzano na różnych poziomach: od indywidualnych naukowców71
, przez zespoły
naukowe72
, wydziały w ramach jednej uczelni73
lub wielu uczelni, ale w ramach dyscypliny
naukowej74
, instytuty75
, uniwersytety76
, aż po porównania międzynarodowe77
.
W Polsce badania dotyczyły głównie uczelni78
. Zasadniczo badania światowe koncentrują
się na pomiarze i ocenie produktywności nauki, efektywności technicznej, alokacyjnej i skali.
Prezentowane badania nie są jednorodne. Wszystkie badania różnią się w konkretnych
definicjach zmiennych wykorzystywanych w celu odzwierciedlenia wejść i wyjść,
stosowanych modeli i przebiegu procedury badawczej.
Jak wynika z doświadczeń badawczych, uniwersalny zestaw zmiennych nie istnieje,
a zależny jest od dostępnych danych lub wymagań badania. Zmienne dobierane są raczej
subiektywnie, bez wyraźnych, formalnych zasad przy określaniu procedury wyboru wejść
i wyjść modelu. W niektórych wypadkach wybór poszczególnych zmiennych jest uzasadniony
doświadczeniami innych badaczy lub poprzedzony analizą korelacji.
70
G. Abramo, T. Cicero, C.A. D’Angelo, A field-standardized application of DEA to national-scale research
assessment of universities, “Journal of Informetrics” 2011, t. 5, s. 619. 71
S.Y. Sohn, Y. Kim, DEA based multi-period evaluation system for research in academia, ”Expert Systems
with Applications” 2012, t. 39, s. 8274-8278. 72
F. Jiménez-Sáez, J.M. Zabala-Iturriagagoitia, J.L. Zofίo, Who leads research productivity growth? Guidelines
for R&D policy-makers, ”Scientometrics” 2013, t. 94, s. 273-303. 73
B. Taylor, G. Harris, Relative efficiency among South African universities: A data envelopment analysis,
“Higher Education” 2004, t. 47, s. 73-89; G.E. Halkos, N.G. Tzeremes, S.A. Kourtzidis, Measuring public
owned university departments’ efficiency: a bootstrapped DEA approach, ”Journal of Economics
and Econometrics” 2012, t. 55, nr 2, s. 1-24. 74
K.H. Leitner, M. Schaffhauser-Linzatti, R. Stowasser, K. Wagner, Data envelopment analysis as method
for evaluating intellectual capital, ”Journal of Intellectual Capital” 2005, t. 6, nr 4, s. 528-543. 75
D. Zhang, R.D. Banker, X. Li, W. Liu, Performance impact of research policy at the Chinese Academy
of Science, “Research Policy” 2011, t. 40, s. 875-885. 76
J. Berbegal-Mirabent, E. Lafuente, F. Solé, The pursuit of knowledge transfer activities: An efficiency analysis
of Spanish universities, ”Journal of Business Research” 2013, t. 66, s. 2051-2059; G. Abramo, C.A. D’Angelo,
F. Pugini, The measurement of Italian universities’ research productivity by a non parametric-bibliometric
methodology,”Scientometrics” 2008, t. 76, nr 2, s. 225-244. 77
M.G. Kocher, M. Luptacik, M. Sutter, dz. cyt., s. 314-332; E.C. Wang, W. Huang, Relative efficiency of R&D
activities: A cross-country study accounting for environmental factors in the DEA approach, “Research
Policy” 2007, t. 36, s. 260-273. 78
J. Nazarko, J. Šaparauskas, Application of DEA method in efficiency evaluation of public higher education
institutions, “Technological and Economic Development of Economy” 2014, t. 20, nr 1, s. 1-20; M. Świtłyk,
Z. Mongiało, Zastosowanie metody DEA do pomiaru efektywności na uczelniach publicznych w latach 2004-
2008, Zeszyty Naukowe Uniwersytetu Ekonomicznego w Poznaniu 2011, nr 171, s. 375-384; A. Ćwiąkała-
Matys, Wykorzystanie Data Envelopment Analysis (DEA) do badania relacji nakłady-efekty w publicznym
szkolnictwie akademickim w Polsce, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu, nr 56,
2009, s. 67-82.
169
Tabela 5.3. Zastosowanie metody DEA do oceny działalności naukowej
Autorzy (rok) Kraj Nakłady Efekty DMU (liczba
jednostek) Model
T. Ahn, A. Charnes,
W.W. Cooper (1988)
USA wydatki szkoleniowe
koszty stałe
inwestycje majątkowe
liczba studentów i absolwentów
federalne granty i kontrakty badawcze
uczelnie (161) bd
G. Johnes, G. Johnes
(1993, 1995)
Wielka
Brytania czas pracy pracowników poświęcony
na badania (roboczomiesiące)
czas pracy pracowników poświęcony na
badania i dydaktyce (roboczomiesiące)
wartość grantów
artykuły w czasopismach naukowych
listy w czasopismach naukowych
rozdziały w monografiach
dokumenty lub komunikaty w topowych
czasopismach
wydziały (36) CRS-I
N.K. Avkiran (2001) Australia liczba pracowników akademickich
liczba pracowników pozostałych
rejestracje na studia I i II stopnia
ocena Research Quantum*
uczelnie (36) VRS
E. Martín (2003) Hiszpania pracownicy ze stopniem doktora (grupa
naukowa)
pozostali pracownicy naukowo-dydaktyczni
(grupa dydaktyczna)
budżet
roczne zużycie czynników kapitałowych
ważona liczba zarejestrowanych kredytów
dydaktycznych
liczba kredytów doktoranckich
liczba prac doktorskich w danym roku
roczne naukowe przychody finansowe
zaangażowanie w pracę naukową
wydziały (55)
M. Abbott,
C. Doucouliagos (2003)
Australia liczba pracowników naukowych
i dydaktycznych FTE**
liczba pracowników technicznych,
administracyjnych i pomocniczych FTE
wydatki uczelni z wyłączeniem nakładów
pracy
wartość aktywów trwałych
liczba studentów w przeliczeniu na studentów
studiujących w pełnym wymiarze (EFTS),
liczba studentów studiów I i II stopnia
liczba absolwentów studiów I i II stopnia
poziom finansowania (Research Quantum
Allocation)
przychody na badania poniesione w trakcie
roku. (wydatki na badania)
uczelnie (36) VRS-I
B. Taylor, G. Harris (2004) RPA wydatki ogółem
zaangażowany kapitał
liczba studentów
liczba pracowników
wydatki na badania i kształcenie
liczba absolwentów
rezultaty naukowe
uczelnie (10) 7 modeli
169
170
Autorzy (rok) Kraj Nakłady Efekty DMU (liczba
jednostek) Model
K.H. Leitner,
M. Schaffhauser-Linzatti,
R. Stowasser, K. Wagner
(2005)
K.H. Leitner, J.
Prikoszovits, R. Stowasser,
K. Wagner (2007)
Austria liczba pracowników
liczba pomieszczeń
Efekty współpracy z otoczeniem
środki finansowe pozyskane ze źródeł
trzecich
projekty zamawiane zrealizowane przez
pracowników
projekty zamawiane zrealizowane przez
wydział
Efekty kształcenia
liczba egzaminów
liczba wypromowanych prac dyplomowych
Efekty naukowe
monografie, publikacje oryginalnych badań
raporty z projektów, patenty,
prezentacje/wystąpienia (konferencyjne)
liczba wypromowanych doktorów
wydziały
(133)
VRS-O
A. Bonaccorsi, C. Daraio,
L. Simar (2006)
Włochy liczba pracowników naukowych w podziale
na stanowiska
liczba pracowników technicznych
i administracyjnych
skumulowane nakłady finansowe ogółem
skumulowane wydatki na 100 przyjętych
studentów
skumulowane wydatki na 1 uczonego
liczba miejsc w salach wykładowych
Czynniki zewnętrzne
liczba przyjętych studentów
liczba wydziałów w uczelni
liczba przedmiotów na 100 studentów
stosunek skumulowanej sumy publikacji
do skumulowanej liczby cytowań
udział prywatnych kontraktów
w całkowitym budżecie uczelni
skumulowana suma publikacji w latach 1995-
1999
skumulowana suma cytowań w latach 1995-
1999
liczba publikacji na 100 studentów
skumulowana liczba absolwentów
liczba absolwentów na 100 przyjętych
studentów
uczelnie (45) FDH-O
170
171
Autorzy (rok) Kraj Nakłady Efekty DMU (liczba
jednostek) Model
G. Kempkes, C. Pohl
(2006)
Niemcy liczba pracowników naukowych
liczba pracowników technicznych
wydatki bieżące
liczba absolwentów
kwota dotacji na badania
uczelnie (72) VRS-O
J.C. Glass, G. McCallion,
D.G. McKillop,
S. Rasaratnam, K.S.
Stringer (2006)
Wielka
Brytania pracownicy naukowi
pozostali pracownicy
granty badawcze (£ na pracownika)
wydatki inwestycyjne (£ na studenta)
ocena badań naukowych (wynik RAE od 1 do
7 pomnożony przez liczbę pracowników)
doktoranci i studenci ze średnimi ocenami
jakości nauczania (Teaching Quality
Assessment) w skali od 1 do 24
uczelnie (98) VRS-I,
VRS-O,
bez
orientacji
T. Groot, T. García-
Valderrama (2006)
Holandia liczba doktorantów FTE
liczba pracowników naukowych
artykuły w czasopismach kategorii A i B
publikacje naukowe międzynarodowe
publikacje naukowe krajowe
zespoły
naukowe
(169)
CRS
J. Johnes (2006) Wielka
Brytania ważona liczba studentów pierwszego roku
liczba doktorantów FTE
liczba pracowników naukowych
i dydaktycznych
łączna amortyzacja i odsetki
wydatki na administrację
wydatki na infrastrukturę biblioteczną
i informatyczną
ważona liczba absolwentów I stopnia
liczba absolwentów studiów II i III stopnia
wartość dotacji na badania o charakterze
powtarzającym przyznana przez Radę
Finansowania Szkolnictwa Wyższego
w Anglii (HEFCE)
uczelnie (109) VRS-O
M.G. Kocher, M.
Luptacik, M. Sutter (2006)
między-
narodowe wydatki B+R
liczba uniwersytetów z wydziałami
ekonomicznymi
publikacje w 10 topowych czasopismach
ekonomicznych z lat 1980-1998
kraje OECD
21
CRS-O,
VRS-O
T.R. Anderson, T.U. Daim,
F.F. Lavoie (2007)
USA całkowite nakłady na badania przychody z licencji
licencje zrealizowane
utworzone firmy start-up
złożone wnioski o patenty US
wydane patenty US
uczelnie (54) VRS-O
E.C. Wang, W. Huang
(2007)
między-
narodowe liczba pracowników naukowych FTE
liczba pracowników technicznych
i pomocniczych FTE
wydatki B+R ogółem (GERD)
wydatki B+R do zasobów kapitałowych
netto
liczba patentów krajowych
liczba patentów zarejestrowanych w USA
roczna liczba publikacji
w międzynarodowych czasopismach
indeksowanych w Science Citation Index
(SCI) oraz Engineering Index (EI)
kraje (30) DEA,
analiza
tobitowa
171
172
Autorzy (rok) Kraj Nakłady Efekty DMU (liczba
jednostek) Model
A. Hadi-Vencheh,
A.A. Foroughi,
M. Soleimani-damaneh
(2008)
liczba studentów studiów I stopnia
liczba wykładowców
liczba absolwentów
liczba publikacji
wydziały (17) CRS-I
G. Abramo, C.A.
D’Angelo, F. Pugini
(2008)
Włochy liczba profesorów (full professors)
liczba profesorów nadzwyczajnych
(associate professors)
liczba pozostałych pracowników
naukowych
poziom finansowania z funduszy National
Interest Research Projects
liczba publikacji co najmniej jednego autora
z danego uniwersytetu należących do obszaru
naukowego
wkład w publikacje (relacja pomiędzy liczbą
autorów należących do danej dyscypliny
naukowej i całkowitą liczbę autorów)
siła naukowa (średnia ważona wszystkich
publikacji z danego uniwersytetu w ramach
każdej dyscypliny naukowej)
uczelnie (77) DEA-O
J. Johnes, L. Yu (2008) Chiny relacja liczby pracowników FTE do liczby
studentów
procent wykładowców na stanowisku
profesora
udział doktorantów w ogólnej liczbie
studentów
wydatki na badania
indeksy biblioteczne w przeliczeniu
na studenta
powierzchnia budynków
prestiż
ważona liczba publikacji naukowych
liczba publikacji naukowych w przeliczeniu
na pracowników naukowych
uczelnie (109) VRS-O
W. Meng, D. Zhang, L. Qi,
W. Liu (2008)
Chiny liczba pracowników naukowych
wydatki na wyposażenie
nakłady na badania
rezultaty naukowe (zaproszone wykłady,
publikacje, nagrody, opracowane patenty,
raporty lub opracowanie norm krajowych)
finansowanie zewnętrzne
rozwój naukowców
instytuty
Chińskiej
Akademii
Nauk (15)
CRS,
VRS,
regresja
A. Hadi-Vencheh, A.A.
Foroughi, M. Soleimani-
damaneh (2008)
Iran liczba studentów studio I stopnia
liczba pracowników akademickich FTE
liczba absolwentów
liczba artykułów naukowych
wydziały (17) CRS-O
P. Tyagi, S.P. Yadav,
S.P. Singh (2009)
Indie liczba pracowników akademickich
liczba pracowników nieakademickich
koszty operacyjne wydziału
ważona liczba przyjętych studentów (studia
I i II stopnia oraz doktoranckie)
rozwój młodych pracowników nauki
ważona suma rezultatów pracy naukowej
wydziały (19) CRS-O,
VRS-O
172
173
Autorzy (rok) Kraj Nakłady Efekty DMU (liczba
jednostek) Model
M. Katharaki, G.
Katharakis (2010)
Grecja liczba pracowników naukowych
liczba pracowników administracyjnych
liczba zarejestrowanych studentów
koszty operacyjne inne niż nakłady pracy
liczba absolwentów studiów I, II i III stopnia
przychody z tytułu prowadzonych badań
naukowych lub całkowite zasoby finansowe
na badanie, kształcenie i kadrę naukową
uczelnie (20) CRS-O
N.G. Tzeremes, G.E.
Halkos (2010)
Grecja liczba pracowników naukowych
liczba pracowników technicznych,
administracyjnych i pomocniczych
liczba studentów studiów I, II i III stopnia
całkowity dochód (dotacja publiczna)
dochody z badań naukowych
liczba publikacji
wydziały (16) CCR,
VRS,
bootstrap
S. Aoki, K. Inoue, R.
Gejima (2010)
Japonia liczba wydziałów
liczba pracowników
wydatki na edukację i badania
pomoc zarządcza na pozyskanie grantów
badawczych
wydatki ogólne i administracyjne
darowizny
maksymalne odchylenia
liczba publikacji
liczba studentów studiów I i II stopnia
liczba monografii
granty naukowe
zyski ze współpracy z biznesem
uczelnie (31) CRS-I
G. Abramo, T. Cicero,
C.A. D’Angelo (2011)
Włochy pracownicy naukowi w podziale
na stanowiska
siła naukowa (ważona suma
standaryzowanych cytowani publikacji)
uczelnie (78) CRS-I
C.T. Kuah, K.Y. Wong
(2011)
Malezja wydatki uniwersytetu
liczba pracowników naukowych
średnia ważona kwalifikacji pracowników
naukowych (profesor 4 pkt., hab. 3 pkt., dr
2 pkt., magister 1 pkt.)
liczba doktorantów
granty
liczba doktoratów
liczba publikacji
liczba nagród
liczba obiektów własności intelektualnej
uczelnie (30) joint
DEA max
D. Zhang, R.D. Banker, X.
Li, W. Liu (2011)
Chiny liczba pracowników naukowych FTE
wydatki (nakłady) na działalność B+R
łączna wartość wyposażenia B+R
liczba doktorantów i studentów II stopnia
publikacje naukowe w międzynarodowych
czasopismach indeksowanych w bazach
Science Citation Index (SCI), Engineering
Index (EI), and Index to Scientific and
Technical Proceedings (ISTP)
cytowania w danym roku artykułów
opublikowanych w ciągu poprzednich 5 lat
instytuty
Chińskiej
Akademii
Nauk 59
VRS-O
S.Y. Sohn, Y. Kim (2012) Korea liczba studentów
poziom finansowania
liczba publikacji w ostatnim roku
średnia liczba publikacji z trzech lat
profesorowie
(20)
SE-CRS
173
174
Autorzy (rok) Kraj Nakłady Efekty DMU (liczba
jednostek) Model
W.-M. Lu (2012) Taiwan koszty kształcenia
inne koszty operacyjne
koszty zarządzania i ogólne
Zmienne pośrednie:
nauczyciele w przeliczeniu na pełne etaty
pracownicy administracyjni wspierający
kształcenie
infrastruktura informatyczna
publikacje naukowe
przychody z nauczania
przychody dotowane
uczelnie (40) VRS-I,
regresja
G.E. Halkos, N.G.
Tzeremes, S.A. Kourtzidis
(2012)
Grecja liczba pracowników akademickich
w podziale na stanowiska
liczba pracowników administracyjnych,
technicznych i pomocniczych
liczba studentów
całkowite nakłady na badania
liczba absolwentów
liczba publikacji
wydziały (16) CRS,
bootstrap
J. Berbegal-Mirabent,
E. Lafuente, F. Solé (2013)
Hiszpania liczba wykładowców
liczba pracowników administracyjnych
wydatki administracyjne
nakłady B+R
liczba absolwentów
liczba wydanych publikacji w czasopismach
indeksowanych w bazach ISI
liczba utworzonych przedsiębiorstw spin-off
uczelnie (44) VRS-O
F. Jiménez-Sáez, J.M.
Zabala-Iturriagagoitia, J.L.
Zofίo (2013)
Hiszpania liczba pracowników FTE
wartość finansowania publicznego
liczba studentów
liczba prac doktorskich
liczba publikacji międzynarodowych
liczba zarejestrowanych patentów
wartość umów z podmotami zewnętrznym
zespoły
naukowe (51)
CRS
N.A.A. Aziz, R.M. Janor,
R. Mahadi (2013)
Malezja liczba pracowników naukowych
liczba pracowników administracyjnych
poziom rocznych kosztów operacyjnych
liczba absolwentów w roku
łączna kwota dotacji na badania
liczba publikacji naukowych pracowników
uczelni
wydziały (22) CRS-I
J. Wolszczak-Derlacz
(2013)
Polska liczba nauczycieli akademickich
przychody ogółem
publikacje indeksowane w WoS
cytowania
wartość grantów ministerialnych
uczelnie (31) CRS,
VRS
* Research Quantum jest rodzajem funduszy federalnych przyznawanych uczelni w uznaniu ich udziału w ogólnej działalności badawczej. Fundusze przyznawane są
na podstawie wskaźnika oceny wyników badań uczelni Composite Research Index, w którym publikacje uwzględniane są z wagą 12,5%.
** FTE (Full-time equivalent) – w przeliczeniu na pełne etaty multiplier model
Źródło: opracowanie własne na podstawie literatury. 174
175
Stosowane są zarówno zmienne bezpośrednie79
, wskaźniki syntetyczne80
oraz zmienne
standaryzowane81
. Wskaźniki są liczone dla pojedynczych lat lub okresów. Wejścia są zwykle
definiowane jako zasoby wykorzystywane przez DMU lub warunki wpływające na jego
produktywność, a wyjścia stanowią efekt lub rezultat działań, albo korzyści uzyskane w wyniku
działania DMU82
.
Jako nakłady w analizowanych badaniach są stosowane zasadniczo trzy grupy
zmiennych: zasoby kadrowe, nakłady finansowe oraz liczba studentów. W literaturze można
jednak zauważyć pewną niezgodność w sprawie kwalifikacji zasobów finansowych. Całkowity
dochód z badań występuje jako zarówno jako wejście, jak i wyjście w stosowanych modelach.
P. Tyagi, S.P. Yadav, S.P. Singh uzasadniają włączenie budżetu na naukę do grupy
zmiennych wyjściowych w wypadku, gdy rozpatrywany jest jako efekt jakości badań, przy
założeniu, że jednostka realizująca bardziej znaczące badania przyciąga więcej dochodu83
.
Podobny pogląd wyrażają M. Abbott, C. Doucouliagos84
. Przychody na badania w trakcie
roku (wydatki na badania) przyjmują jako zmienną wyjściową, ponieważ jej wielkość zależy
od dotacji i finansowania grantów, które z kolei zależą od rezultatów działalności naukowej.
Przyjęto zatem, że jest oceną wielkości i jakości rezultatów badań naukowych jest poziom
finansowania. Natomiast G. Johnes i J. Johnes zdecydowanie skłaniają się do uwzględniania
wartości budżetu jako nakładów85
. Zgadzają się z poglądem, że finanse na badania
odzwierciedlają rynkową wartość badań. Jednocześnie z dotacji i grantów finansowane
są także zadania wspierające badania oraz wyposażenie, które stanowią nakłady w procesie
produkcji wiedzy. Poziom finansowania jest skorelowany z rezultatami pracy naukowej,
zatem uwzględnianie jednocześnie publikacji i grantów jako efektów modelu powoduje
niepożądane wzmacnianie kryteriów oceny. Można zatem uznać, że rozstrzygnięcie tego
zagadnienia zależy od celu badania. Podobną kwestię stanowi klasyfikacja mierników
w zakresie studentów i absolwentów.
79
M. Katharaki, G. Katharakis, A comparative assessment of Greek universities’ efficiency using quantitative
analysis, “International Journal of Educational Research” 2010, t. 49, s. 117-118. 80
G. Abramo, T. Cicero, C.A. D’Angelo, dz. cyt., s. 621. 81
W. Meng, D. Zhang, L. Qi, W. Liu, Two-level DEA approaches in research evaluation, “Omega” 2008, t. 36,
s. 951-952. 82
P. Tyagi, S.P. Yadav, S.P. Singh, dz. cyt., s. 168-177. 83
N.G. Tzeremes, G.E. Halkos, A DEA approach for measuring university departments' efficiency, MPRA Paper
2010, nr 24029, s. 8, http://mpra.ub.uni-muenchen.de/24029/ [20.08.2013]. 84
M. Abbott, C. Doucouliagos, The efficiency of Australian universities: a data envelopment analysis,
“Economics of Education Review” 2003, t. 22, s. 92. 85
G. Johnes, J. Johnes, Measuring the research performance of UK economics departments: an application
of Data Envelopment Analysis, “Oxford Economics Papers” 1993, t. 45, s. 338.
176
Badacze wyrażają natomiast koherentny pogląd w sprawie publikacji i patentów
jako głównych predyktorów produktywności nauki.
Głównym ograniczeniem prezentowanych badań jest trudność w uzyskaniu
odpowiednich i szczegółowych danych. Panuje ogólny pogląd, że jest to najbardziej
dyskusyjny etap badań i ma wpływ na uzyskiwane wyniki. Potwierdzają to analizy
wrażliwości modeli86
. Autorzy badań przyznają, że arbitralność wyboru zmiennych jest
słabością przeprowadzonych badań, dlatego dobór nakładów i efektów przyjętych do oceny
działalności w sektorze szkolnictwa wyższego często jest krytykowany za nieadekwatność
zmiennych i selekcję sprzyjającą analizie efektywności87
.
Wybór modelu DEA do analizy jest mniej dyskusyjny. Większość badań prezentuje
klasyczne podejście. Stosowane modele CRS i VRS uzupełniane są natomiast często
o dodatkowe modyfikacje. G.E. Halkos, N.G. Tzeremes i S.A. Kourtzidis zaproponowali
zastosowanie metody bootstrapowej do pomiaru efektywności instytucji w badaniach
efektywności wydziałów Uniwersytetu w Tesalii w Grecji zaproponowanych
przez G.E. Halkosa, N.G. Tzeremesa, S.A. Kourtzidisa88
. Badania stanowią kontynuację badań
z 2010 roku89
. Dwuetapowy model DEA (two-level DEA model) do pilotażowej oceny
15 instytutów Chińskiej Akademii Nauk zaproponowali W. Meng, D. Zhang, L. Qi, W. Liu90
oraz W.M. Lu, gdzie dodatkowo zastosowano również model regresji uciętej (truncated
regression model) w celu sprawdzenia czy kapitał intelektualny wpływa na efektywność pracy
uczelni91
. Dodatkowe analizy zmiany produktywności w czasie z zastosowaniem indeksu
Malmquista D. Zhang, R.D. Banker, X. Li, W. Liu92
. S.Y. Sohn, Y. Kim dla przyjętego zestawy
zmiennych zaproponowali model nadefektywności, indeks Malmquista oraz analizę okienkową
dla liczby publikacji93
. J.C. Glass i in. wskazują zastosowanie nieradialnych modeli DEA94
.
C.T. Kuah, K.Y. Wong proponują zastosowanie modelu joint DEA maximization,
który znajduje swoje zastosowanie w wypadku współdzielonych nakładów. Dodatkowe analizy
86
G. Johnes, J. Johnes, dz. cyt., s. 332-347; N.A.A. Aziz, R.M. Janor, R. Mahadi, Comparative departmental
efficiency analysis within a university: A DEA approach, “Procedia – Social and Behavioral Sciences” 2013, t. 90,
s. 540-548. 87
P. Tyagi, S.P. Yadav, S.P. Singh, dz. cyt., s. 170. 88
G.E. Halkos, N.G. Tzeremes, S.A. Kourtzidis, dz. cyt., s. 1-24. 89
N.G. Tzeremes, G.E. Halkos, dz. cyt. 90
W. Meng, D. Zhang, L. Qi, W. Liu, dz. cyt., s. 950-957. 91
W.-M. Lu, Intellectual capital and university performance in Taiwan, “Economic Modelling” 2012, t. 29,
s. 1081-1089. 92
D. Zhang, R.D. Banker, X. Li, W. Liu, dz. cyt., s. 875-885. 93
S.Y. Sohn, Y. Kim, dz. cyt., s. 8274-8278. 94
J.C. Glass, G. McCallion, D.G. McKillop, S. Rasaratnam, K.S. Stringer, Implications of variant efficiency
measures for policy evaluations in UK higher education, “Socio-Economic Planning Sciences” 2006, t. 40,
s. 119-142.
177
stanowią głównie uzupełnienie modeli głównych. Często dla danego zestawu zmiennych
proponowanych jest kilka modeli z różnych układem zmiennych i dokonywane są porównania
wyników. Modele z różnym układem zmiennych stosowali B. Taylor, G. Harris (7 modeli)95
,
E. Martín (4 modele)96
. S. Aoki, K. Inoue, R. Gejima (8 modeli)97
, G. Johnes i J. Johnes
(192 modele)98
.
Wiele opracowań ma charakter poglądowy i wskazuje na możliwość zastosowania
specyficznych modeli. Inne ukierunkowane są na użyteczność wyników, informacji z analiz.
Badania mają na ogół charakter ogólny i w zasadzie poglądowy. Tylko niektóre badania
projektowane są jako propozycja zastosowania, szczególnie do kształtowania polityki naukowej.
Wyniki wszystkich badań pokazują zróżnicowanie DMU. Badania pokazują jednak,
że im więcej zmiennych, tym więcej jednostek efektywnych99
.
Odnosząc się do poziomu prowadzonej analizy, G. Kempkes i C. Pohl zastosowali
metodę DEA oraz SFA do oceny uniwersytetów w Niemczech. Następnie przeprowadzili
analizy porównawcze wyników. Autorzy sugerują, iż metoda DEA nie jest odpowiednia
do analizy efektywności na poziomie uniwersytetu, ponieważ uniwersytety są zbyt niejednorodne.
Wskazują jednak na zastosowanie metody DEA do analizy na poziomie wydziałów100
.
Szczególne znaczenie w ocenie produktywności badawczej miały badania podjęte
w Australii, Włoszech, Hiszpanii i Wielkiej Brytanii. W ostatnich latach zainteresowanie
tą problematyką można zauważyć również w środowisku chińskim.
W Australii wiodące badania, potwierdzone licznymi cytowaniami w literaturze
międzynarodowej, prowadzili M. Abbott, C. Doucouliagos101
oraz N.K. Avkiran102
.
M. Abbott i C. Doucouliagos w 2003 roku przeprowadzili badania pomiaru
efektywności technicznej i skali w odniesieniu do działalności naukowej i dydaktycznej.
Badania przeprowadzili w dwóch etapach. W pierwszym badaniu przeprowadzono procedurę
DEA dla wszystkich uczelni (tabela 5.3). Następnie DMU podzielono na odrębne kategorie
według dwóch kryteriów: poziomu relacji wskaźnika Research Quantum i EFTS (liczba
95
B. Taylor, G. Harris, dz. cyt., s. 73-89. 96
E. Martín, An application of the Data Envelopment Analysis methodology in the performance assessment of the
Zaragoza University Departments, 20 s., http://ideas.repec.org/p/zar/wpaper/dt2003-06.html [20.08.2013]. 97
S. Aoki, K. Inoue, R. Gejima, Data envelopment analysis for evaluating Japanese universities, “Artif Life
Robotics” 2010, t. 15, s. 165-170. 98
G. Johnes, J. Johnes, dz. cyt., s. 332-347. 99
K.H. Leitner, M. Schaffhauser-Linzatti, R. Stowasser, K. Wagner, dz. cyt., s. 528-543. 100
G. Kempkes, C. Pohl, The efficiency of German universities – some evidence from non-parametric
and parametric methods, Institute for Economic Research at the University of Munich, IFO Working Paper 2006,
nr 36, s. 23. 101
M. Abbott, C. Doucouliagos, dz. cyt., s. 89-97. 102
N.K. Avkiran, dz. cyt., s. 57-80.
178
studentów w przeliczeniu na studentów studiujących w pełnym wymiarze) oraz zasięgu uczelni
wyszczególniając uczelnie regionalne i miejskie. Autorzy podkreślają istotność warunku
o jednorodności DMU. Wskazują, iż uczelnie finansowane z innych lub dodatkowych źródeł
rządowych mogą ograniczać analizy. Podkreślają także znaczenie efektów skali. Podają,
że australijski rząd w dążeniu do poprawy skuteczności systemu szkolnictwa wyższego przez
wykorzystanie efektu skali i zakresu, skonsolidował dużą liczbę instytucji szkolnictwa
wyższego w niewielką liczbę wielkich multikampusowych uniwersytetów.
N.K. Avkiran z kolei zaprezentował trzy modele: ogólnej efektywności
uwzględniający działalność naukową, efektywności usług edukacyjnych oraz efektywności
rekrutacji studentów finansujących studia.
We Włoszech G. Abramo, C.A. D’Angelo i F. Pugini (2008) podjęli się opracowania
alternatywnej do rządowego systemu, metodyki pomiaru i oceny działań naukowo-badawczych
w sektorze publicznym, aby zastosować go do włoskiego systemu w celu pokonania ograniczeń
związanych z metodami stosowanymi przez rząd103
. Oceny działań naukowych dokonano
w dwóch etapach: przy zastosowaniu modeli radialnych DEA w 9 obszarach dyscyplin
naukowych, zwanych skrótowo UDA (University Disciplinary Areas), w drugim, przez budowę
globalnego indeksu produktywności DEA dla każdego uniwersytetu w odpowiednim
połączeniu ważonej sumy punktów uzyskanych w poszczególnych obszarach. To pozwoliło
pokonać, zdaniem autorów, ograniczenia techniczne i metodologiczne związane
z niejednorodnością obszarów naukowych w uczelniach, szczególnie w zakresie
i intensywności publikowania między różnymi obszarami oraz reprezentatywności w zakresie
czasopism w bazach danych źródłowych, umożliwiając w ten sposób bardziej spójną i solidną
analizę porównawczą uniwersytetów. Do badania wybrano metodę DEA ze względu na to,
iż eliminuje zakłócenia w pomiarze wydajności ze względu na możliwość uwzględnienia
zmiennych korzyści skali czynników produkcji. Dane obejmowały lata 2001-2003.
Takie podejście, zdaniem autorów, pozwala pokonać słabości analiz
bibliometrycznych przez uwzględnienie częstości występowania różnych form nakładów
i efektów działalności badawczej. Co ważne, zostały uwzględnione trzy parametry: ilość,
jakość i wkład. Pomiar na poziomie obszarów naukowych ogranicza zakłócenia wynikające
z heterogeniczności zasobów. Autorzy podkreślają, że w zastosowanym podejściu, gdzie
każdy wynik powiązany był z indywidualnym pracownikiem naukowym, osiągnięto wysoką
dokładność pomiaru. Autorzy sugerują również zastosowanie cytowań zamiast liczby
publikacji oraz uzupełnienie danych o dodatkowe 3 lata104
.
103
G. Abramo, C.A. D’Angelo, F. Pugini, dz. cyt., s. 225-244. 104
Tamże, s. 225-244.
179
Rozwinięcie zastosowanego podejścia, G. Abramo, T. Cicero i C.A. D’Angelo
zaprezentowali trzy lata później, gdzie zastosowano ograniczoną liczbę zmiennych w modelu
o stałych efektach skali105
.
Na przykładzie włoskich uczelni, A. Bonaccorsi, C. Daraio i L. Simar przeprowadzili
badania, gdzie podjęli kilka istotnych wątków106
:
zagadnienie ekonomii skali i zakresu w działalności dydaktycznej;
relacje między dydaktyką a badaniami oraz obszarem prowadzonych badań;
relacje między publikacjami a badaniami na rzecz przemysłu.
Grupę obiektów tworzyło 45 uniwersytetów. Z grupy 69, wyeliminowane zostały
prywatne uniwersytety w celu zapewnienia porównywalności i kompletności danych.
Do badań zastosowano 4 modele o różnym układzie zmiennych. Badania włoskich badaczy
stanowią przykład analizy wpływu zmiennych zewnętrznych. Uwzględniono między innymi
takie czynniki środowiskowe, jak: liczba przyjętych studentów oraz udział prywatnych
kontraktów w całkowitym budżecie uczelni.
Na podstawie wyników badań autorzy dowodzą, że wysoka efektywność dydaktyczna
nie osłabia efektywności naukowej, a wysoka jakość naukowa ma pozytywny wpływ
na jakość publikacji oraz poprawę efektywności kształcenia. Badacze wyjaśniają również,
że czynniki dotyczące ekonomii skali i zakresu nie są istotne w wyjaśnianiu produktywności
badawczej i dydaktycznej. Przeprowadzone badania wykazały również, że zwiększenie
udziału źródeł przemysłowych w budżecie uczelni ma korzystny wpływ na produktywność
badawczą, a współpraca uczelni z przemysłem i aktywność publikacyjna na forum
międzynarodowym ma charakter komplementarny.
W Hiszpanii J. Berbegal-Mirabent, E. Lafuente, F. Solé zbadali efektywność transferu
technologii między uczelnią a przemysłem107
. W procedurze doboru zmiennych uwzględnili
analizę skupień w celu uzupełnienia modelu efektywności, dając bardziej kompleksowy
obrazu wyników uniwersytetów.
W Wielkiej Brytanii kluczowe badania prowadzili G. Johnes i J. Johnes, którzy zbadali
różne modele pomiaru efektywności technicznej wydziałów ekonomii w zakresie produktywności
nauki108
. Zaproponowali oni zastosowanie metody DEA do oceny działalności naukowej
105
G. Abramo, T. Cicero, C.A. D’Angelo, dz. cyt., s. 618- 628. 106
A. Bonaccorsi, C. Daraio, L. Simar, Advanced indicators of productivity of universities. An application
of robust nonparametric methods to Italian data, “Scientometrics” 2006, t. 66, nr 2, s. 389-410. 107
J. Berbegal-Mirabent, E. Lafuente, F. Solé, dz. cyt., s. 2051-2059. 108
G. Johnes, J. Johnes, dz. cyt., s. 332-347; G. Johnes, J. Johnes, Research funding and performance in U.K. university
departments of economics: a frontier analysis, “Economics of Education Review” 1995, t. 14, nr 3, s. 301-314.
180
w odpowiedzi na ówczesne niezrozumiałe zasady systemu oceny oparte na peer-review. Dane
użyte w badaniach pokrywały się z danymi z oceny przeprowadzonej przez Universities Funding
Council (UFC). Omówili potencjalne problemy doborze wejść i wyjść.
Podobną procedurę badawczą zastosowali J. Johnes i L. Yu w analizie produktywności
chińskich uniwersytetów109
. Dodatkowo przeanalizowano wyniki dla grup uniwersytetów
według trzech kryteriów:
lokalizacja uczelni (wybrzeże, centralna lub zachodnie regiony Chin);
źródło finansowania (centralnie lub z funduszy regionalnych);
profil uczelni (ogólny lub wyspecjalizowany).
Uwzględniając różne modele autorzy badali, jaki wpływ mają wymienione czynniki
środowiskowe na poziom efektywności. Wskazano, że położenie geograficzne ma wpływ
na poziom efektywności, źródła finansowania mają wpływ na poziom efektywności
w wariantach, gdzie nie uwzględniono kadry. Natomiast uniwersytety specjalistyczne mają
na ogół niższe wyniki w przyjętych modelach.
Antynomiczne wnioski dotyczące profilu uczelni pokazują badania J.C. Glassa i in.,
którzy poruszają ważną kwestię, czy analizy z zastosowaniem metody DEA mogą być
użyteczne do formułowania bieżącej polityki naukowej w Wielkiej Brytanii, szczególnie
w zakresie wysoko wyspecjalizowanych uczelni, wielkich ośrodków badawczych w kierunku
zachęty do korzystnych fuzji uczelni110
. Ich wnioski sugerują, że uniwersytety o silnej
orientacji na badania lub silnej orientacji na kształcenie są bardziej efektywne od tych, które
na równych poziomie ukierunkowane są jednocześnie na badania i kształcenie, co ma istotne
znaczenie dla polityki naukowej w dłuższej perspektywie.
Bezpośrednie badania skuteczności alokacji środków publicznych przeprowadzili
N.A.A. Aziz, R.M. Janor, R. Mahadi w Malezji111
. Przeanalizowano cztery modele. Przyjęto
model CRS zorientowany na nakłady z uwagi na możliwość ich kontrolowania. Z przyjętych
modeli wynika, że efektywność wydziałów jest wyższa w zakresie kształcenia.
Autorzy T. Groot, T. García-Valderrama dokonują porównania systemu holenderskiego
systemu oceny produktywności nauki VSNU z metodą DEA112
. Podejmują się wyjaśnienia
różnic w jakości wyników badań i produktywności czynników organizacyjnych, jak wielkość
grupy badawczej, struktura kadry, źródła finansowania badań i dyscyplina akademicka. Autorze
109
J. Johnes, L. Yu, Measuring the research performance of Chinese higher education institutions using data
envelopment analysis, “China Economic Review” 2008, t. 19, s. 679-696. 110
J.C. Glass, G. McCallion, D.G. McKillop, S. Rasaratnam, K.S. Stringer, dz. cyt., s. 119-142. 111
N.A.A. Aziz, R.M. Janor, R. Mahadi, dz. cyt., s. 540-548. 112
T. Groot, T. García-Valderrama, Research quality and efficiency. An analysis of assessments and management
issues in Dutch economics and business research programs, “Research Policy” 2006, t. 35, s. 1362-1376.
181
przeprowadzili dwie rundy badań w 1995 i 2001 roku. Z ich badań wynika, że liczba publikacji
w czasopismach międzynarodowych jest najlepszym predyktorem wyników oceny oceny peer
review. Wielkość grupy badawczej ma pozytywny wpływ na jakość badań, ale badacze
wskazują na problemy w utrzymaniu wysokiej produktywności badawczej wszystkich
członków zespołu. Pozostałe cechy organizacyjne wydają się być czasowo związane z jakością
badań naukowych i produktywności.
M. Katharaki, G. Katharakis zwracają jednak uwagę na znaczne ograniczenia swoich
analiz z uwagi na brak szczegółowych danych na temat działalności naukowej. Postulują
jednak zastosowanie metody DEA jako instrumentu kształtowania wpływu na decyzje
decydentów politycznych w zakresie finansowania badań naukowych i ogólną pomoc
państwa w sektorze akademickim113
.
Autorzy F. Jiménez-Sáez, J.M. Zabala-Iturriagagoitia, J.L. Zofίo rozważają użyteczność
metody DEA jako instrumentu polityki naukowo-badawczej, szczególnie w kontekście
alokacji środków finansowych, aby lepiej odpowiadać na rzeczywiste potrzeby grup
badawczych oraz do przyszłego kształtowania polityki dostosowania się do osiągnięcia celów
polityki średnich długoterminowych (mezopoziom i makropoziom)114
.
W Polsce badania efektywności naukowej publicznych szkół wyższych
z wykorzystaniem metody DEA podjęła J. Wolszczak-Derlacz. Zaproponowane zostały trzy
modele oceny szkół wyższych: działalności naukowej, działalności dydaktycznej
oraz działalności wdrożeniowej i współpracy z otoczeniem. Badaniem objęto 17 politechnik
i 14 uniwersytetów publicznych. W modelu naukowym zostały przyjęte jako nakłady liczba
pracowników akademickich oraz przychody uczelni ogółem. Nie mają one precyzyjnego
odniesienia do działalności naukowej. Autorka wyraża pogląd, że udział środków
finansowych ze źródeł publicznych negatywnie wpływa na efektywność naukową uczelni.
Zwraca jednak uwagę, że badania mają charakter jedynie poglądowy115
.
Przykłady aplikacji metody DEA do oceny działalności naukowej uczelni wskazują
na użyteczność metody do pomiaru, oceny i analizy produktywności nauki. Mimo, że wszystkie
uczelnie są osadzone w identycznych ramach politycznych i finansowych, różne struktury
wewnętrzne mają wpływ na ich produktywność. Badacze stwierdzają, że DEA pomaga odkryć
różne czynniki wpływające na charakterystykę badanych obiektów, między innymi dziedzina
nauki, wielkość DMU. Zdaniem autorki, ocena działalności naukowej powinna prowadzić
do wyraźnego wyodrębnienia i zróżnicowania poziomu naukowego jednostek w Polsce.
113
M. Katharaki, G. Katharakis, dz. cyt. s. 127. 114
F. Jiménez-Sáez, J.M. Zabala-Iturriagagoitia, J.L. Zofίo, dz. cyt., s. 273-303. 115
J. Wolszczak-Derlacz, Efektywność naukowa, dydaktyczna i wdrożeniowa publicznych szkół wyższych
w Polsce – analiza nieparametryczna, Wydawnictwo Politechniki Gdańskiej, Gdańsk 2013.
182
ROZDZIAŁ 6.
BADANIA PRODUKTYWNOŚCI JEDNOSTEK NAUKOWYCH
6.1. Analiza danych źródłowych
Przeprowadzenie procedury badania produktywności jednostek naukowych w Polsce
z wykorzystaniem metody DEA wymaga realizacji etapów wskazanych na rysunku 5.2
w rozdziale 5.1. Pierwszym elementem badania jest określenie skończonego zbioru badanych
jednostek decyzyjnych oraz zestawu zmiennych charakteryzujących własności tych obiektów.
Od prawidłowego doboru zmiennych w znacznym stopniu zależą wyniki badania.
Dobór zmiennych opisujących własności jednostek naukowych zależy przede
wszystkich od celów analizy i jej zakresu. Zdaniem T. Panka, bez względu na cel i zakres
analizy obowiązują pewne reguły i metody ich doboru. Dobór zmiennych może być
dokonywany za pomocą1:
kryteriów merytorycznych i formalnych, gdy w świetle posiadanej wiedzy merytorycznej
o badanym zjawisku wybierane są zmienne najważniejsze dla dokonania analizy
porównawczej badanych obiektów, a następnie poddawane są one weryfikacji ze względu
na kryteria formalne;
z zastosowaniem odpowiednich procedur statystycznych.
Uzyskanie ostatecznego zbioru zmiennych diagnostycznych będących podstawą analizy
porównawczej produktywności jednostek naukowych wymaga zastosowania obu podejść.
W pierwszym etapie tworzy się zbiór zmiennych potencjalnych, oparty na kryteriach
merytorycznych i formalnych, a następnie dokonuje się analizy właściwości statystycznych
w celu eliminacji zmiennych o małym stopniu diagnostyczności, czyli charakteryzujących się
niskim stopniem zmienności oraz wysokim stopniem skorelowania.
Wybór zmiennych do modelu DEA determinuje w zasadniczy sposób wartość
otrzymywanych wskaźników produktywności. Zarówno identyfikacja nakładów
wpływających w największym stopniu na osiągane przez jednostki naukowe wyniki,
jak i określenie, co stanowi najistotniejszy rezultat uczelni jest zadaniem złożonym.
Problemem jest też ocena istotności wybranych wskaźników w procesie edukacji. Jednostki
naukowe różnią się profilem działania i realizują w różnym natężeniu zadania produkcji
wiedzy, jej wdrożenia i dyfuzji. Z założenia metody DEA wynika, że na granicy efektywności
1 T. Panek, Statystyczne metody wielowymiarowej analizy porównawczej, Szkoła Główna Handlowa, Warszawa
2009, s. 16-17.
183
może znaleźć się wysoce wyspecjalizowana jednostka maksymalizująca produkcję tylko
jednego efektu i marginalizująca produkcję pozostałych. Wyznaczane w metodzie DEA wagi
maksymalizujące produktywność każdej jednostki, pozwalają zidentyfikować
i wyeksponować jej mocne strony, ale mogą czasami wymagać nałożenia dodatkowych
ograniczeń. Ograniczenia te wskazują minimalny poziom poszczególnych efektów.
Ma to szczególne znaczenie, gdy system oceny instytucjonalnej związany jest ze wzbudzaniem
motywacji do działania i nadawaniem pożądanych kierunków rozwoju jednostek naukowych.
Inną bardzo ważną kwestią jest też liczba nakładów i efektów*. Im więcej zmiennych
zawiera model, tym większe prawdopodobieństwo zakwalifikowania poszczególnych
jednostek do zbioru jednostek produktywnych.
Do przeprowadzenia badania produktywności jednostek naukowych w Polsce
zgromadzono dane o jednostkach naukowych za lata 2004-2008**,2będące podstawą oceny
parametrycznej MNiSW w roku 2010. Dane zostały pozyskane z Ośrodka Przetwarzania
Informacji oraz zweryfikowane i uzupełnione na podstawie danych pozyskanych z Ministerstwa
Nauki i Szkolnictwa Wyższego na pisemną prośbę Autorki oraz bazy POLON3.
Zbiór danych uzupełniono o dane na temat wysokości środków finansowych
na finansowanie lub dofinansowanie działalności statutowej w latach 2003-2010. Jednym
z punktów krytyki systemu oceny jednostek naukowych w Polsce w środowisku naukowym,
z którym Autorka się zgadza, jest brak preferencji jednostek oszczędnych. Autorka podjęła
zatem próbę zbadania zależności między poziomem finansowania a osiąganymi wyniki przez
jednostki naukowe w Polsce, co ma swoje uzasadnienie w praktyce pomiaru produktywności
naukowej z zastosowaniem metody DEA***. Autorka jednocześnie podkreśla, że dotychczas
nie spotkała się proponowanym podejściem zastosowania metody DEA oraz uwzględnienia
danych finansowych w krajowych systemach ocen instytucjonalnych.
Dane finansowe zostały pozyskane z Dzienników Urzędowych MNiSW. Dane
uwzględniają środki finansowe na finansowanie lub dofinansowanie działalności statutowej
jednostek naukowych, w tym ich zwiększenia na dany rok. Źródła danych finansowych
przedstawiono w tabeli 6.1. Po weryfikacji danych i ich wstępnej analizie statystycznej
przyjęto zakres z lat 2005-2008.
* Patrz: rozdział 5.1.
** Autorce odmówiono dostępu do danych z lat 2009-2012 będących podstawą oceny parametrycznej w roku
2013, powołując się na przepisy ustaw o ochronie danych osobowych oraz o zwalczaniu nieuczciwej
konkurencji. 3 Zintegrowany system informacji o nauce i szkolnictwie wyższym, www.polon.nauka.gov.pl.
*** Patrz: rozdział 5.3.
184
Tabela 6.1. Źródła danych w sprawie przyznania środków finansowych na finansowanie
lub dofinansowanie działalności statutowej jednostek naukowych w latach 2003-2010
Rok Tytuł komunikatu Akt prawny
2003
Uchwała nr 1/2003 Komitetu Badań Naukowych z dnia
10 stycznia 2003 r. w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2003 roku
Dz.U. MN i KBN, nr 1/2003, poz. 1
Zarządzenie nr 13/2003 z dnia 8 kwietnia 2003 r.
w sprawie przyznania środków finansowych
na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 roku
Dz.U. MN i KBN, nr 6/2003, poz. 18
Zarządzenie nr 22/2003 z dnia 25 maja 2003 r. zmieniająca
uchwałę w sprawie przyznania środków finansowych
na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 roku
Dz.U. MN i KBN, nr 8/2003, poz. 30
Zarządzenie nr 25/2003 z dnia 26 czerwca 2003 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2003 roku
Dz.U. MN i KBN, nr 10/2003, poz. 34
Zarządzenie nr 47/2003 z dnia 5 grudnia 2003 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2003 roku
Dz.U. MN i KBN, nr 15/2003, poz. 65
Zarządzenie nr 49/2003 z dnia 17 grudnia 2003 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2003 roku
Dz.U. MN i KBN, nr 16/2003, poz. 68
2004
Zarządzenie nr 1/2004 z dnia 15 stycznia 2004 r.
w sprawie przyznania środków finansowych
na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2004 roku
Dz.U. MN i KBN, nr 1/2004, poz. 1
Zarządzenie nr 18/2004 z dnia 18 marca 2004 r. w sprawie
przyznania środków finansowych na finansowanie
lub dofinansowywanie działalności statutowej jednostek
naukowych w 2004 roku
Dz.U. MN i KBN, nr 4/2004, poz. 22
Zarządzenie nr 32/2004 z dnia 27 maja 2004 r. zmieniająca
uchwałę w sprawie przyznania środków finansowych
na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2004 roku
Dz.U. MNiI i KBN, nr 7/2004, poz. 41
Zarządzenie nr 54/2004 z dnia 21 października 2004 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2004 roku
Dz.U. MNiI i KBN, nr 12/2004, poz. 79
Zarządzenie nr 69/2004 z dnia 16 grudnia 2004 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2004 roku
Dz.U. MNiI i KBN, nr 14/2004, poz. 99
2005
Zarządzenie nr 3/2005 z dnia 20 stycznia 2005 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2005 roku
Dz.U. MNiI, nr 1/2005, poz. 3
Zarządzenie nr 17/2005 z dnia 16 grudnia 2005 r.
zmieniająca uchwałę w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie
działalności statutowej jednostek naukowych w 2005 roku
Dz.U. MNiI, nr 2/2005, poz. 17
2006
Komunikat nr 8 Ministra Nauki i Szkolnictwa Wyższego
z dnia 28 marca 2007 r. o przyznanych dotacjach
ze środków finansowych na naukę na podstawową
działalność statutową
Dz.U. MNiSW, nr 2/2007, poz.24
185
Rok Tytuł komunikatu Akt prawny
2007
Komunikat nr 2 Ministra Nauki i Szkolnictwa Wyższego
z dnia 6 lutego 2007 r. o przyznanych dotacjach ze
środków finansowych na naukę na podstawową
działalność statutową
Dz.U. MNiSW, nr 1/2007, poz. 9
Komunikat nr 4 z dnia 16 stycznia 2008 r. o przyznanych
dotacjach ze środków finansowych na naukę na
podstawową działalność statutową
Dz.U. MNiSW, nr 1/2008, poz. 15
2008
Komunikat nr 8 z dnia 26 lutego 2008 r. o przyznanych
dotacjach ze środków finansowych na naukę na
podstawową działalność statutową
Dz.U. MNiSW, nr 1/2008, poz. 19
Komunikat nr 1 z dnia 27 lutego 2009 r. o przyznanych
zwiększeniach dotacji ze środków finansowych na naukę
na finansowanie podstawowej działalności statutowej
Dz.U. MNiSW, nr 1/2009, poz. 10
2009
Komunikat nr 14 z dnia 3 lipca 2009 r. o przyznanych
dotacjach ze środków finansowych na naukę na
podstawową działalność statutową
Dz.U. MNiSW, nr 3/2009, poz. 56
Komunikat nr 4 z dnia 29 stycznia 2010 r. o przyznanych
zwiększeniach dotacji ze środków finansowych na naukę
na finansowanie podstawowej działalności statutowej
Dz.U. MNiSW, nr 2/2010, poz. 35
2010
Komunikat nr 12 z dnia 29 kwietnia 2010 r. o przyznanych
dotacjach ze środków finansowych na naukę na
podstawową działalność statutową
Dz.U. MNiSW, nr 3/2010, poz. 63
Komunikat nr 7 z dnia 8 kwietnia 2011 r. o przyznanych
zwiększeniach dotacji ze środków finansowych na naukę
na finansowanie podstawowej działalności statutowej
Dz.U. MNiSW, nr 2/2011, poz. 55
Źródło: opracowanie własne.
Gromadzenie danych było utrudnione z uwagi na liczne przekształcenia jednostek
naukowych w analizowanych okresie. Autorka napotkała częste przypadki powoływania
nowych lub wyodrębnienia ich z już istniejących jednostek naukowych, łączenia jednostek,
zmiany nazw lub ich likwidacje. Wielokrotnie wymagało to indywidualnego prześledzenia
historii jednostek naukowych. Wiele jednostek naukowych powstało w trakcie okresu oceny,
w związku z tym ich dorobek nie uwzględniał pełnych 4 lat. Przykładowo, Wydział Nauk
Humanistycznych i Społecznych Akademii Marynarki Wojennej w Gdyni czy Wydział Nauk
Politycznych i Dziennikarstwa Uniwersytetu im. A. Mickiewicza w Poznaniu zostały
powołane w 2008 roku, a poddane ocenie parametrycznej w 2010 roku. Innym przykładem
jest Wydział Nauk Pedagogicznych Uniwersytetu Mikołaja Kopernika w Toruniu,
który w 2007 roku został wyłączony z Wydziału Humanistycznego. Podobnie Wydział Nauk
Pedagogicznych Uniwersytetu Kardynała Stefana Wyszyńskiego powstały w 2008 roku
(wykazanych 35 pracowników FTE w 2008 roku), wchodził wcześniej w skład Wydziału
Nauk Humanistycznych, gdzie w 2004 roku wykazano zatrudnienie na poziomie 56,35 FTE,
zaś po wyodrębnieniu ze struktur Wydziału Nauk Pedagogicznych w 2008 wskazano liczbę
pracowników FTE na poziomie 55,4. Inny przykład stanowi Uniwersytet Kazimierza
Wielkiego Wydział Administracji i Nauk Społecznych, który został wyodrębniony
186
z Wydziału Humanistycznego w roku akademickim 2009/2010, a oceniony w 2010 roku
za lata 2004-2008. Odmienną kwestię stanowiły jednostki typu Akademii Obrony Narodowej
oraz Akademii Pedagogiki Specjalnej w Warszawie, które w 2006 roku były oceniane
jako uczelnie, natomiast w 2010 roku oceniane były ich wyodrębnione wydziały.
W konsekwencji dotacja statutowa również była przyznawana zgodnie z tym podejściem.
Jeśli chodzi o dane finansowe, poważną barierę stanowił brak konsekwencji
stosowania jednolitych nazw jednostek naukowych przez Ministerstwo Nauki i Szkolnictwa
Wyższego. Ministerstwo udostępnia dane finansowe dotyczące alokacji dotacji statutowej
przyjmując w każdym roku inne nazwy jednostek naukowych, uniemożliwiając tym samym
automatyczne scalenie baz danych. Dotychczas są to dokumenty w formie skanowanej
z brakiem możliwości wykorzystania właściwości dokumentu elektronicznego.
Innym problematycznym zagadnieniem było ustalenie wysokości dotacji statutowej
wśród jednostek artystycznych, które otrzymują dotację statutową dla uczelni. Biorąc
to pod uwagę, a także specyficzne uwarunkowania efektów działalności tego typu jednostek
i niespójność danych z pozostałymi jednostkami, autorka wyłączyła grupę 86 jednostek
artystycznych z dalszych badań.
W wypadku pozostałych jednostek, znaczne braki odnotowano szczególnie w 2007
roku, w którym niektóre jednostki nie znalazły się w wykazie ministra. Sytuacja ta dotyczyła,
przykładowo Wydziału Inżynierii Produkcji i Energetyki Uniwersytetu Rolniczego
im. Hugona Kołłątaja w Krakowie, Wojskowego Instytutu Medycyny Lotniczej, Instytutu
Biotechnologii i Antybiotyków, czy Wydziału Nauk Biologicznych Uniwersytetu
Wrocławskiego. Ponieważ autorka nie znalazła dokumentów wskazujących poziom
przyznanej dotacji, przyjęła, iż nie przyznano jednostkom dotacji statutowej w danym roku.
Przyjęto populację publicznych jednostek naukowych, które podlegały ocenie
parametrycznej MNiSW z roku 2010, otrzymujących środki finansowe na finansowanie
lub dofinansowanie działalności statutowej. Uniwersum stanowiły 823 publiczne jednostki
naukowe. Z grupy tej wyłączono jednostki artystyczne z uwagi na specyficzne rezultaty
działalności, braki danych i brak możliwości ustalenia wysokości dotacji statutowej. Ponadto
wyłączono obiekty o niepełnych danych, lub powstałe po 2007 roku. Ostatecznej obserwacji
statystycznej poddano 683 obiektów, w tym 482 podstawowe jednostek uczelni,
117 instytutów badawczych, 75 jednostek naukowych PAN i 10 innych jednostek
naukowych. Strukturę obiektów przedstawiono na rysunku 6.1.
187
Rysunek 6.1. Struktura jednostek naukowych badanych przez autorkę [%]
Źródło: opracowanie własne.
Do analizy produktywności zbioru publicznych jednostek naukowych przyjęto
40 zmiennych zaprezentowanych w tabeli 6.2. Jako nakłady wstępnie przyjęto dwie zmienne:
X3 oraz X47. Pozostałe zmienne zakwalifikowano jako zmienne charakteryzujące efekty.
Tabela 6.2. Zbiór zmiennych charakteryzujących nakłady i efekty jednostek naukowych w badaniach autorki
Kategoria
zmiennej
Kod
zmiennej Opis zmiennej
Charakterystyka
jednostki
naukowej
X1 Siedziba jednostki naukowej
X2
X2a
Rodzaj jednostki (uczelnia, instytut badawczy, jednostka naukowa PAN, inna
jednostka naukowa); typ jednostki naukowej uczelni (ekonomiczna, medyczna,
morska, pedagogiczna, rolnicza/przyrodnicza, służb państwowych, techniczna,
teologiczna, wojskowa, wychowania fizycznego, uniwersytet)
X3
Liczba osób, w przeliczeniu na pełny wymiar czasu pracy (FTE), zatrudnionych
w jednostce naukowej przy prowadzeniu badań naukowych lub prac
rozwojowych na podstawie stosunku pracy, dla których jednostka jest
podstawowym miejscem pracy
X4 Liczba uprawnień do nadawania stopnia doktora
X5 Liczba uprawnień do nadawania stopnia doktora habilitowanego
X6 Posiadanie statusu Państwowego Instytutu Badawczego
X7
Liczba punktów za posiadanie laboratorium akredytowanego przez Polskie
Centrum Akredytacji – 20 pkt za każdą akredytowaną dziedzinę lub program
certyfikacji, ale nie więcej niż 80 pkt
X8 Liczba laureatów konkursów "Pomysły" Europejskiej Rady Nauki
Publikacje X9
Liczba punktów za publikacje w czasopiśmie wyróżnionym w Journal Citation
Reports (JCR)
X10 Liczba punktów za publikacje w czasopiśmie wyróżnionym w ERIH
X11 Liczba punktów za publikacje w recenzowanym czasopiśmie krajowym
17%
11%
2%
3%
1%
5%
1%
2% 6%
0% 22%
0%
26%
2% 2%
72%
Instytuty badawcze (117) Jednostki naukowe PAN (75)Inne jednostki naukowe (10) Uczelnie ekonomiczneUczelnie kościelne (1) Uczelnie medyczne (37)Uczelnie morskie (7) Uczelnie pedagogiczne (15)Uczelnie rolnicze (41) Uczelnie służb państwowych (3)Uczelnie techniczne (147) Uczelnie teologiczne (1)Uniwersytety (180) Uczelnie wojskowe (13)Uczelnie wychowania fizycznego (11)
188
Kategoria
zmiennej
Kod
zmiennej Opis zmiennej
lub zagranicznym wymienionym w wykazie ministra
X12
Liczba punktów za redakcję czasopisma pracownika ocenianej jednostki,
otrzymuje podwójną liczbę punktów przypisanych danemu czasopismu
w wykazie ministra. Punkty otrzymuje jednostka za cały oceniany okres
X13 Liczba monografii autorstwa pracownika jednostki lub podręcznika autorskiego
w języku angielskim lub podstawowym dla danej dyscypliny
X14 Liczba monografii lub podręcznika autorskiego w języku innym niż angielski
lub podstawowy dla danej dyscypliny
X15 Liczba rozdziałów w monografii lub podręczniku autorskim w języku
angielskim lub podstawowym dla danej dyscypliny
X16 Liczba rozdziałów w monografii lub podręczniku autorskim w języku innym
niż angielski lub podstawowy dla danej dyscypliny
X17
Liczba punktów za redaktora naczelnego wieloautorskiej monografii,
podręcznika autorskiego lub serii wydawniczej: 5 pkt język angielski
lub podstawowy dla danej dyscypliny, 3 pkt - inny język
Patenty,
wynalazki X18
Liczba udzielonych przez Urząd Patentowy Rzeczypospolitej Polskiej prawa
rejestracji wzoru przemysłowego, który został zastosowany
X19 Liczba praw z rejestracji wzoru przemysłowego udzielone przez Urząd
Patentowy Rzeczypospolitej Polskiej
X20 Liczba udzielonych za granicą, innych niż prawa autorskie, praw wyłącznych
do wzoru przemysłowego, który został zastosowany
X21 Liczba innych niż prawa autorskie praw wyłącznych do wzoru przemysłowego
udzielone za granicą
X22 Wartość udzielonych licencji (opłaty licencyjne) [tys. zł]
X23 Liczba wzorów przemysłowych, wystawionych na krajowych
lub międzynarodowych wystawach lub targach
X24 Liczba patentów udzielonych przez Urząd Patentowy Rzeczypospolitej Polskiej
X25 Liczba zawartych umów o wspólności patentu ocenianej jednostki z podmiotem
gospodarczym
X26 Liczba zgłoszonych wynalazków w Urzędzie Patentowym Rzeczypospolitej
Polskiej
X27 Patent udzielony za granicą na wynalazek, który został zastosowany za granicą
X28 Patent udzielony za granicą
X29 Zgłoszenie wynalazku za granicą
X30 Prawo ochronne na wzór użytkowy, który został zastosowany
X31 Prawo ochronne na wzór użytkowy
X32 Patent udzielony przez Urząd Patentowy Rzeczypospolitej Polskiej
na wynalazek, który został zastosowany
X33
Przysługujące prawo autorskie do utworu, będącego wynikiem działalności
twórczej o indywidualnym charakterze, z zakresu architektury, urbanistyki
i wzornictwa przemysłowego
Współpraca
z otoczeniem X34
Liczba projektów koordynowanych w projektach Programów Ramowych
lub innych konkursach Unii Europejskiej
X35 Liczba projektów (uczestnictwo instytucjonalne) w projektach Programów
Ramowych lub innych konkursach Unii Europejskiej
X36 Wartość umów zawartych z innymi podmiotami na wykonanie prac B+R [tys. zł]
X37 Przychody z tytułu wdrożenia prac B+R jednostki wdrażającej [tys. zł]
X38 Przychody jednostki naukowej (uzyskane wpływy) z tytułu wdrożenia [tys. zł]
Budżet X47
Suma dotacji na finansowanie lub dofinansowanie działalności statutowej
w latach 2005-2008 [tys. zł]
Źródło: opracowanie własne.
189
Zmienną X7 usunięto ze zbioru, ponieważ analiza danych wskazuje, iż w wielu
wypadkach jednostki naukowe otrzymywały wielokrotność maksymalnego progu 80 punktów.
Dodatkowo usunięto zmienną X17, ponieważ ma charakter zmiennej ważonej.
Przyjęty zbiór zmiennych w ocenie parametrycznej jest nadmiarowy i słabo różnicuje
obiekty, co zostało zaprezentowane na rysunku 6.2. Dla ukazania nieznacznych różnic
w ocenie pomiędzy jednostkami naukowymi dokonano graficznej prezentacji konfiguracji
zbioru analizowanych obiektów. W tym celu wykorzystano jedną z technik redukcji danych
zwaną skalowaniem wielowymiarowym. Graficzną prezentację struktury jednostek
naukowych zredukowano do dwóch wymiarów przestrzeni kryteriów oceny.
Wykres rozrzutu 2W
Konfiguracja końcowa, wymiar 1 wzgl. wymiaru 2
U607U598U582U604U581U601U288U603U174U298U597U600U602U578U596U304U599U525U290U287U482U294U577U425U307U422U164U483U672U24U177U553U73U179U681U74U568U293U606U580U594U508U250U292U285U57U123U398U605U517U674U6U486U301U441U52U480U202U633U49U430U516U121U608U467U565U364U313U283U494U627U61U75U409U468U308U361U499U673U519U476U548U479U471U643U188U680U13U404U526U295U206U366U539U171U574U207U451U373U29U569U406U683U68U120U500U644U215U300U342U560U282U498U474U190U431U466U51U528
U166
U564U669U488
U219
U261U26U186U649U21U396U25U687U239U642U131U624U3U213U316U542U446U140U55U382U18U368U363U348U636U648U656U609U473U85U168U232
U434U450U119U37U360U572U524U592U484U595U566U260U493U259U534U36U286U378U9U514U203U402U690U144U289U530U345U563U676U14U618U686U641U195U621U246U257U555U623U535U550U679U632U314U625U327U330U554U489U511U400U365U189U118U39U487U513U255U631U79U201U390U192U351U541U381U297U619U620U559U249U146U343U183U478U439U660U80U397U589U128U157U225U443U502U536U87U543U97U640U335U362U64U319U175
U99
U302U7U374U438U266U615U417U675U11U520U221
U252U587U662U359U410U127U591U485U369U386U682U204U457U495U614U125U296U67U646U172U185U573U4U242U318U20U338U340U544U258U567U570U315U408U521U375U527U384U385U415U151U684U53U370
U91
U30U352U17U103U142U23U452U31U299U38U447U111U115U194U324U540U579U98U350U630U639U16U69U437U133U229U333U122U353U56U367U585U233U613U77U262U284U677U65U187U109U181U163U380U158U305U341U355U510U442U547U145U139U70U8U32U328U492U518U254U346U667U78U323U634U170U561U637U280U448U44U617U180U191U464U344U60U356U387U424U22U200U269
U685U317U413U427U176U210U611U34U538U490U496U337U501U537U372U389U63U173U35U433U184U137U268U28U106U156U399U586U349U379U395U647U321U209U197U198U336U138U576U546U54U650U50U147U161U552U653U558U645U515U497U377U141U462U267
U193U275U610U196U354U477U391U401U405U504U545U657U463U507U216U253U277U263U236U278U426U159U218U303U154U655U222U388
U208
U506U244U549U19U529U182U237U418U40U309U663U58U629U347U84U241U291U357U472U116U59U82U227U654U414U231U445U41U243U76U247U556U62U162U251U10U358U94U583U503U104U135U226U588U27U551U532U491U160U412U376U12U126U223U155U205U392U178U235U416U279U469U2U505U454U281U635U96
U93
U129U230U245U310U312U143U664U475U436U593U523U1U95U105U449U652U458U270U322U326U531U149U393U234U92U616U455U509U666U15U5U66U71U403U212U456
U43
U590U101U481U329U453U571U394U678U46U311U651U671U238U668U407U628U240U658U334U659U256U460U661U444U90U107U562U220U228U124U224U423U461U273U117U622U533U575U214U522U47U276U217U33U665U169U320U432U557U110U626U429U132U612U211U383U152U325U130U638U670U689U512U86U248U108U339U265U113U272U470U42U167U371U465U264U419U48U88U148U100U112U688U102U428U584U411U420U136U440U134U199U332U692U150U45U274U89U435U691U83U81U331U459U114U271U72U421
-2 0 2 4 6 8 10 12 14 16 18
Wymiar 1
-10
-8
-6
-4
-2
0
2
4
6
8
10
Wym
iar
2
U607U598U582U604U581U601U288U603U174U298U597U600U602U578U596U304U599U525U290U287U482U294U577U425U307U422U164U483U672U24U177U553U73U179U681U74U568U293U606U580U594U508U250U292U285U57U123U398U605U517U674U6U486U301U441U52U480U202U633U49U430U516U121U608U467U565U364U313U283U494U627U61U75U409U468U308U361U499U673U519U476U548U479U471U643U188U680U13U404U526U295U206U366U539U171U574U207U451U373U29U569U406U683U68U120U500U644U215U300U342U560U282U498U474U190U431U466U51U528
U166
U564U669U488
U219
U261U26U186U649U21U396U25U687U239U642U131U624U3U213U316U542U446U140U55U382U18U368U363U348U636U648U656U609U473U85U168U232
U434U450U119U37U360U572U524U592U484U595U566U260U493U259U534U36U286U378U9U514U203U402U690U144U289U530U345U563U676U14U618U686U641U195U621U246U257U555U623U535U550U679U632U314U625U327U330U554U489U511U400U365U189U118U39U487U513U255U631U79U201U390U192U351U541U381U297U619U620U559U249U146U343U183U478U439U660U80U397U589U128U157U225U443U502U536U87U543U97U640U335U362U64U319U175
U99
U302U7U374U438U266U615U417U675U11U520U221
U252U587U662U359U410U127U591U485U369U386U682U204U457U495U614U125U296U67U646U172U185U573U4U242U318U20U338U340U544U258U567U570U315U408U521U375U527U384U385U415U151U684U53U370
U91
U30U352U17U103U142U23U452U31U299U38U447U111U115U194U324U540U579U98U350U630U639U16U69U437U133U229U333U122U353U56U367U585U233U613U77U262U284U677U65U187U109U181U163U380U158U305U341U355U510U442U547U145U139U70U8U32U328U492U518U254U346U667U78U323U634U170U561U637U280U448U44U617U180U191U464U344U60U356U387U424U22U200U269
U685U317U413U427U176U210U611U34U538U490U496U337U501U537U372U389U63U173U35U433U184U137U268U28U106U156U399U586U349U379U395U647U321U209U197U198U336U138U576U546U54U650U50U147U161U552U653U558U645U515U497U377U141U462U267
U193U275U610U196U354U477U391U401U405U504U545U657U463U507U216U253U277U263U236U278U426U159U218U303U154U655U222U388
U208
U506U244U549U19U529U182U237U418U40U309U663U58U629U347U84U241U291U357U472U116U59U82U227U654U414U231U445U41U243U76U247U556U62U162U251U10U358U94U583U503U104U135U226U588U27U551U532U491U160U412U376U12U126U223U155U205U392U178U235U416U279U469U2U505U454U281U635U96
U93
U129U230U245U310U312U143U664U475U436U593U523U1U95U105U449U652U458U270U322U326U531U149U393U234U92U616U455U509U666U15U5U66U71U403U212U456
U43
U590U101U481U329U453U571U394U678U46U311U651U671U238U668U407U628U240U658U334U659U256U460U661U444U90U107U562U220U228U124U224U423U461U273U117U622U533U575U214U522U47U276U217U33U665U169U320U432U557U110U626U429U132U612U211U383U152U325U130U638U670U689U512U86U248U108U339U265U113U272U470U42U167U371U465U264U419U48U88U148U100U112U688U102U428U584U411U420U136U440U134U199U332U692U150U45U274U89U435U691U83U81U331U459U114U271U72U421
Rysunek 6.2. Graficzna prezentacja struktury jednostek naukowych w dwuwymiarowej przestrzeni
kryteriów oceny
Źródło: opracowanie własne z wykorzystaniem pakietu STATISTICA, moduł skalowanie wielowymiarowe.
Rozrzut analizowanych jednostek potwierdza fakt, iż szeregowanie jednostek
naukowych na podstawie zbyt dużej liczby cech może przyczynić się do nadania różnych
pozycji jednostkom naukowych na liście rankingowej pomimo braku znaczących różnic
ich rezultatów naukowych. Zebrany zbiór danych poddano zatem analizie statystycznej,
która sprowadzała się do analizy parametrów opisowych, doboru zmiennych diagnostycznych
i określenia ich charakteru. Analiza parametrów opisowych polega na badaniu struktury
otrzymanego zbioru indywidualnych danych statystycznych. W zakresie analiz strukturalnych
zastosowane miary statystyki opisowej przedstawiono w tabeli 6.3. Zagadnienie prawidłowego
doboru formy miary opisowej jest podstawowym warunkiem poprawnego formułowania
wniosków z analizy opisowej.
190
Tabela 6.3. Zastosowane miary statystyki opisowej w zakresie analizy strukturalnej
Grupy miar Miary statystyczne
Miary położenia, w tym miary tendencji centralnej średnia arytmetyczna
mediana
dominanta
najniższe i najwyższe wartości cech
rozstęp
kwartyle
Miary rozproszenia wariancja
odchylenie standardowe
klasyczny współczynnik zmienności
Miary skośności i kurtozy współczynnik asymetrii
kurtoza
Źródło: opracowanie własne na postawie W. Starzyńska, Statystyka praktyczna, Państwowe Wydawnictwo
Naukowe, Warszawa 2000, s. 46-87.
Miary położenia stosowane są do wskazania przeciętnego położenia wartości
liczbowych cech. Miary tendencji centralnej służą do wyznaczania tej wartości cechy, wokół
której grupują się dane. Najczęściej stosowane są: średnia arytmetyczna, mediana
i dominanta. Miary rozproszenia (zróżnicowania, dyspersji, zmienności) pokazują przeciętne
odchylenie od położenia charakterystyk tendencji centralnej. Innymi słowy pozwalają
sprawdzić, czy informacje są rozproszone czy skoncentrowane. Miary asymetrii określają
kierunek i siłę asymetrii rozkładu cech. Ma to znaczenie w wypadku, gdy dwie lub więcej
zbiorowości charakteryzuje się podobnymi niektórymi wartościami średnimi (np. dominantą),
a jednak szczegółowa obserwacja wyklucza to podobieństwo. Miarą spłaszczenia rozkładu
realizacji cech względem rozkładu normalnego jest kurtoza4.
Wartości zastosowanych miar opisowych dla grupy wszystkich jednostek naukowych
przedstawiono w tabeli 6.4. Poszczególne miary przeanalizowano również w grupach
ze względu na typ jednostki naukowej.
Jednostki naukowe charakteryzują się wysokim niejednorodnym zróżnicowaniem
względem zmiennych. Istnieją również znaczne dysproporcje między typami jednostek
naukowych. Miary asymetrii wskazują na silną asymetrię prawostronną zmiennych,
co oznacza, że dla wszystkich cech w analizowanej grupie przeważają jednostki naukowe
o wartościach zmiennych znacznie niższych od średniej. Innymi słowy, dla każdej zmiennej
występuje grupa jednostek naukowych o skrajnie wysokich wartościach danej zmiennej.
Wynika to prawdopodobnie z różnych orientacji działalności naukowej jednostek.
4 W. Starzyńska, Statystyka praktyczna, Państwowe Wydawnictwo Naukowe, Warszawa 2000, s. 46-87.
191
Tabela 6.4. Statystyki opisowe całego zbioru danych
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
X3 683 98,44 84,00 Wielokr. 4 0,59% 4,4 760,6 49,20 124,40 756,20 76,50 77,72 3,06 17,08
X4 683 1,42 1,00 1 273 39,97% 0,0 7,0 1,00 2,00 7,00 1,17 82,58 1,15 1,99
X5 683 1,00 1,00 0 269 39,39% 0,0 6,0 0,00 2,00 6,00 1,07 107,50 1,31 2,43
X6 683 0,01 0,00 0 674 98,68% 0,0 1,0 0,00 0,00 1,00 0,11 866,02 8,56 71,43
X8 683 0,01 0,00 0 678 99,27% 0,0 1,0 0,00 0,00 1,00 0,09 1165,33 11,58 132,58
X9 683 2630,97 997,00 0 66 9,66% 0,0 28231,0 123,00 3439,00 28231,00 3934,46 149,54 2,65 9,17
X10 683 73,16 0,00 0 555 81,26% 0,0 3400,0 0,00 0,00 3400,00 292,89 400,34 6,14 46,76
X11 683 843,91 567,00 0 119 17,42% 0,0 8530,3 136,00 1201,00 8530,25 967,87 114,69 2,68 13,28
X12 683 52,01 18,00 0 199 29,14% 0,0 6196,0 0,00 48,00 6196,00 256,13 492,48 20,86 489,79
X13 683 3,43 1,00 0 259 37,92% 0,0 152,0 0,00 4,00 152,00 9,68 282,35 9,36 113,22
X14 683 28,16 16,00 0 139 20,35% 0,0 226,0 3,00 39,00 226,00 35,80 127,13 2,28 6,51
X15 683 20,52 3,00 0 296 43,34% 0,0 338,0 0,00 25,00 338,00 40,58 197,80 3,85 19,15
X16 683 9,54 0,00 0 542 79,36% 0,0 375,0 0,00 0,00 375,00 30,41 318,62 5,41 42,04
X18 683 0,00 0,00 0 681 99,71% 0,0 2,0 0,00 0,00 2,00 0,09 1946,79 21,01 462,96
X19 683 0,01 0,00 0 678 99,27% 0,0 4,0 0,00 0,00 4,00 0,19 1329,81 16,11 290,59
X20 683 0,00 0,00 0 681 99,71% 0,0 1,0 0,00 0,00 1,00 0,05 1846,62 18,44 338,99
X21 683 0,00 0,00 0 682 99,85% 0,0 1,0 0,00 0,00 1,00 0,04 2613,43 26,13 683,00
X22 683 200,12 0,00 0 554 81,11% 0,0 30143,0 0,00 0,00 30143,00 1616,55 807,79 13,54 214,10
X24 683 4,59 0,00 0 410 60,03% 0,0 175,0 0,00 4,00 175,00 12,78 278,73 6,62 62,59
X25 683 0,31 0,00 0 617 90,34% 0,0 14,0 0,00 0,00 14,00 1,30 416,41 5,92 42,16
X26 683 6,70 0,00 0 348 50,95% 0,0 195,0 0,00 6,00 195,00 17,17 256,39 5,41 38,79
X27 683 0,04 0,00 0 665 97,36% 0,0 6,0 0,00 0,00 6,00 0,30 785,70 13,58 240,95
X28 683 0,26 0,00 0 607 88,87% 0,0 23,0 0,00 0,00 23,00 1,24 472,81 11,37 178,53
X29 683 0,54 0,00 0 580 84,92% 0,0 42,0 0,00 0,00 42,00 2,45 451,47 10,09 138,85
X30 683 0,31 0,00 0 638 93,41% 0,0 28,0 0,00 0,00 28,00 2,07 659,83 10,28 120,77
X31 683 1,65 0,00 0 604 88,43% 0,0 352,0 0,00 0,00 352,00 18,80 1141,57 16,53 287,21
X32 683 1,04 0,00 0 553 80,97% 0,0 45,0 0,00 0,00 45,00 3,79 365,14 7,03 63,04
191
192
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
X33 683 2,68 0,00 0 637 93,27% 0,0 280,0 0,00 0,00 280,00 18,98 709,20 10,00 116,34
X34 683 0,39 0,00 0 539 78,92% 0,0 10,0 0,00 0,00 10,00 1,02 259,39 4,09 22,76
X35 683 4,22 2,00 0 250 36,60% 0,0 52,0 0,00 5,00 52,00 6,59 156,09 2,88 11,67
X36 683 4372,78 322,75 0 261 38,21% 0,0 111375,0 0,00 3487,80 111375,00 10493,67 239,98 4,76 31,02
X37 683 42298,15 0,00 0 588 86,09% 0,0 4662870,0 0,00 0,00 4662870,00 244607,93 578,29 12,02 196,58
X38 683 937,94 0,00 0 585 85,65% 0,0 137464,3 0,00 0,00 137464,30 6981,75 744,37 13,40 228,07
X47 683 9274,58 4373,00 Wielokr. 2 0,29% 23,0 141696,0 1404,40 11395,20 141673,00 13671,50 147,41 3,51 19,17
Oznaczenia kolumn:
1 N ważnych
2 Średnia
3 Mediana
4 Dominanta
5 Liczność dominanty
6 Liczność dominanty / N
7 Minimum
8 Maksimum
9 Dolny kwartyl
10 Górny kwartyl
11 Rozstęp
12 Odchylenie standardowe
13 Współczynnik zmienności
14 Skośność
15 Kurtoza
Źródło: opracowanie własne z wykorzystaniem programu STATISTICA.
Tabela 6.5. Udział dominanty w relacji do zbioru jednostek naukowych według typu jednostek
Grupa jednostek X3 X4 X5 X6 X8 X9 X10 X11 X12 X13 X14 X15
Wszystkie: 0,59% 39,97% 39,39% 98,68% 99,27% 9,66% 81,26% 17,42% 29,14% 37,92% 20,35% 43,34%
Instytuty badawcze 1,71% 59,83% 76,07% 93,16% 99,15% 15,38% 99,15% 8,55% 29,91% 62,39% 20,51% 42,74%
Jednostki naukowe PAN 2,67% 57,33% 45,33% 98,67% 97,33% 5,33% 84,00% 61,33% 29,33% 50,67% 66,67% 81,33%
Inne jednostki naukowe 10,00% 100,00% 100,00% 100,00% 100,00% 20,00% 100,00% 10,00% 80,00% 70,00% 30,00% 70,00%
Uczelnie: 0,83% 40,04% 35,27% 100,00% 99,38% 8,71% 75,93% 13,07% 27,80% 29,25% 12,86% 36,93%
ekonomiczne 9,52% 52,38% 57,14% 100,00% 100,00% 9,52% 66,67% 4,76% 33,33% 19,05% 9,52% 80,95%
medyczne 5,41% 32,43% 27,03% 100,00% 100,00% 5,41% 100,00% 8,11% 16,22% 59,46% 10,81% 43,24%
morskie 14,29% 71,43% 100,00% 100,00% 100,00% 14,29% 100,00% 14,29% 57,14% 42,86% 28,57% 28,57%
pedagogiczne 13,33% 46,67% 66,67% 100,00% 100,00% 13,33% 60,00% 13,33% 20,00% 20,00% 20,00% 20,00%
rolnicze 4,88% 68,29% 70,73% 100,00% 100,00% 4,88% 100,00% 4,88% 34,15% 39,02% 7,32% 34,15%
służb państwowych 33,33% 100,00% 100,00% 100,00% 100,00% 33,33% 100,00% 33,33% 66,67% 66,67% 66,67% 66,67%
techniczne 1,36% 34,69% 34,69% 100,00% 99,32% 2,72% 92,52% 13,61% 35,37% 23,13% 13,61% 34,69%
uniwersytety 1,11% 39,44% 37,78% 100,00% 99,44% 17,22% 52,78% 17,22% 21,11% 27,22% 20,56% 33,89%
wojskowe 7,69% 53,85% 38,46% 100,00% 100,00% 7,69% 100,00% 30,77% 53,85% 30,77% 15,38% 76,92%
wychowania fizycznego 18,18% 72,73% 54,55% 100,00% 100,00% 9,09% 100,00% 9,09% 27,27% 45,45% 18,18% 18,18%
kościelne 20,00% 60,00% 40,00% 100,00% 100,00% 20,00% 20,00% 20,00% 20,00% 20,00% 20,00% 40,00%
192
193
Grupa jednostek X16 X18 X19 X20 X21 X22 X24 X25 X26 X27 X28 X29
Wszystkie 79,36% 99,71% 99,27% 99,71% 99,85% 81,11% 60,03% 90,34% 50,95% 97,36% 88,87% 84,92%
Instytuty badawcze 68,38% 99,15% 97,44% 99,15% 100,00% 63,25% 46,15% 76,92% 35,04% 97,44% 87,18% 76,07%
Jednostki naukowe PAN 100,00% 100,00% 100,00% 100,00% 100,00% 86,67% 65,33% 90,67% 58,67% 98,67% 82,67% 80,00%
Inne jednostki naukowe 50,00% 100,00% 100,00% 90,00% 100,00% 40,00% 40,00% 100,00% 60,00% 100,00% 90,00% 90,00%
Uczelnie: 79,25% 99,59% 99,38% 100,00% 99,59% 85,27% 62,86% 93,15% 53,32% 96,89% 90,04% 87,55%
ekonomiczne 100,00% 100,00% 100,00% 100,00% 100,00% 57,14% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00%
medyczne 97,30% 100,00% 100,00% 100,00% 100,00% 91,89% 75,68% 97,30% 32,43% 94,59% 83,78% 67,57%
morskie 100,00% 100,00% 100,00% 100,00% 100,00% 85,71% 42,86% 100,00% 28,57% 100,00% 100,00% 85,71%
pedagogiczne 46,67% 100,00% 100,00% 100,00% 100,00% 86,67% 73,33% 100,00% 86,67% 100,00% 86,67% 100,00%
rolnicze 97,56% 100,00% 97,56% 100,00% 97,56% 87,80% 36,59% 87,80% 31,71% 95,12% 90,24% 90,24%
służb państwowych 33,33% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00%
techniczne 78,23% 99,32% 99,32% 100,00% 100,00% 77,55% 35,37% 84,35% 23,81% 95,92% 84,35% 82,99%
uniwersytety 76,67% 100,00% 100,00% 100,00% 100,00% 91,11% 82,22% 98,33% 76,67% 98,33% 93,89% 92,22%
wojskowe 84,62% 100,00% 100,00% 100,00% 100,00% 100,00% 46,15% 100,00% 30,77% 92,31% 92,31% 76,92%
wychowania fizycznego 18,18% 100,00% 100,00% 100,00% 100,00% 100,00% 90,91% 100,00% 90,91% 100,00% 100,00% 100,00%
kościelne 80,00% 100,00% 100,00% 100,00% 100,00% 80,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00%
Grupa jednostek X30 X31 X32 X33 X34 X35 X36 X37 X38 X47
Wszystkie: 93,41% 88,43% 80,97% 93,27% 78,92% 36,60% 38,21% 86,09% 85,65% 0,29%
Instytuty badawcze 80,34% 80,34% 56,41% 89,74% 68,38% 28,21% 23,93% 60,68% 64,10% 0,85%
Jednostki naukowe PAN 100,00% 96,00% 92,00% 98,67% 65,33% 24,00% 32,00% 97,33% 90,67% 2,67%
Inne jednostki naukowe 80,00% 60,00% 70,00% 80,00% 90,00% 80,00% 10,00% 60,00% 20,00% 10,00%
Uczelnie: 95,64% 89,63% 85,27% 93,36% 83,20% 39,63% 43,45% 90,87% 91,29% 0,42%
ekonomiczne 100,00% 100,00% 100,00% 100,00% 76,19% 19,05% 38,10% 100,00% 100,00% 4,76%
medyczne 100,00% 89,19% 94,59% 97,30% 94,59% 64,86% 100,00% 100,00% 100,00% 5,41%
morskie 100,00% 85,71% 100,00% 100,00% 100,00% 57,14% 42,86% 85,71% 100,00% 14,29%
pedagogiczne 100,00% 93,33% 100,00% 100,00% 93,33% 46,67% 93,33% 100,00% 100,00% 13,33%
rolnicze 87,80% 73,17% 78,05% 87,80% 85,37% 29,27% 14,63% 90,24% 80,49% 4,88%
służb państwowych 100,00% 100,00% 100,00% 100,00% 100,00% 66,67% 66,67% 100,00% 100,00% 66,67%
techniczne 92,52% 79,59% 69,39% 85,71% 76,87% 27,21% 17,69% 78,91% 82,31% 1,36%
uniwersytety 98,89% 99,44% 93,89% 98,89% 82,78% 44,44% 50,56% 98,33% 97,78% 1,11%
wojskowe 84,62% 92,31% 76,92% 92,31% 100,00% 53,85% 38,46% 69,23% 76,92% 7,69%
wychowania fizycznego 100,00% 100,00% 100,00% 90,91% 90,91% 81,82% 100,00% 100,00% 100,00% 9,09%
kościelne 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 100,00% 20,00%
Legenda: Kolorem wyszczególniono wskaźniki dla dominanty równej 0. Czerwony kolor oznacza sytuację, gdzie wszystkie jednostki w danej grupie wykazują brak
wartości; niebieski, gdy liczba jednostek w danej grupie znajduje się w przedziale <90% ;100%). Źródło: opracowanie własne.
193
194
Współczynniki skośności i kurtozy wskazują także na odchylenia od rozkładu normalnego
zmiennych, co wyklucza zastosowanie niektórych metod, przykładowo analizy czynnikowej.
Współczynnik zmienności wskazuje na silną dyspersję wszystkich zmiennych. Zatem
ze względu na ten współczynnik żadna ze zmiennych nie może zostać odrzucona. Inne miary
wskazują, iż zagadnienie jest bardziej złożone. Uwagę zwracają zmienne, dla których średnia,
dominanta i mediana wynosi 0. W zbiorze danych wiele jednostek naukowych wykazuje
wartości zerowe w licznych kategoriach. Takie zjawisko wynika z nadmiarowego
zbioru zmiennych bądź z doboru zbyt szczegółowych cech. Autorka przeanalizowała miary
w grupach obiektów według typu jednostek. Liczebność dominanty równej 0 w relacji
do zbioru jednostek naukowych według typu jednostek zostały przedstawione w tabeli 6.4.
Z analizy wskaźników w tabeli 6.5 wynika, że w wypadku zmiennych X6, X8, X18,
X19, X20, X21, X27 obiekty wykazują niską aktywność. Udział dominanty równej 0 dla tych
zmiennych w większości wynosi 100% . Stanowi to przesłankę do usunięcia wymienionych
zmiennych ze zbioru danych. Ma to również swoje uzasadnienie merytoryczne w wypadku
zmiennej X6. Status Państwowego Instytutu Badawczego posiada tylko 9 jednostek
naukowych spośród instytutów badawczych i jednostek naukowych PAN (w 2014 r. – 15).
Status ten nadawany jest instytutom badawczym na wniosek ministra sprawującego nadzór
nad daną instytucją5. Zdaniem Autorki zmienna nie ma charakteru obiektywnego, a znaczenie
jednostki odwzorowane jest w poziomie finansowania. Państwowy instytut badawczy
otrzymuje dodatkowo dotację celową na finansowanie realizacji zleconych zadań. Ponadto
średni poziom dotacji statutowej państwowych instytutów badawczych w latach 2005-2008
prawie dwukrotnie przekracza średnią w całej grupie jednostek naukowych (198,27%).
W wypadku zmiennej X8, tylko 5 jednostek naukowych wykazało po jednym
laureacie konkursów "Pomysły" Europejskiej Rady Nauki.
Wśród zmiennych charakteryzujących publikacje, zmienna X10 wykazuje brak
wartości dla instytutów badawczych i innych jednostek naukowych. Cecha ta reprezentuje
jednak jednostki, które publikują w czasopismach z wykazu punktowanych czasopism
europejskich z nauk humanistycznych (ERIH) i jest znacząca dla tej grupy jednostek.
Analogiczna relacja zachodzi w wypadku zmiennych X31, X32, X33, X37 i X38, dla których,
w tych wypadkach, jednostki naukowe PAN wykazują niski udział. Zatem proponuje się
poddanie tych zmiennych dalszym analizom.
5 ustawa z dnia 30 kwietnia 2010 r. o instytutach badawczych, Dz. U. 2010, nr 96, poz. 618, art. 22.
195
Z kolei zmienne X18, X19, X20, X21 charakteryzują liczbę udzielonych praw
rejestracji wzoru przemysłowego. Jednostki naukowe wykazują niską aktywność w tym
zakresie. Podobnie w wypadku zmiennych X25 i X27. Korzystniej wygląda sytuacja
w wypadku patentów oraz licencji. Inne jednostki naukowe nie posiadają uprawnień
do nadawania stopni naukowych.
Analizując jednostki naukowe z perspektywy ich zasobów, można zauważyć,
że są dość zróżnicowane pod względem wielkości mierzonej liczbą zatrudnionych osób przy
prowadzeniu badań naukowych lub prac rozwojowych na podstawie stosunku pracy,
dla których jednostka jest podstawowym miejscem pracy wynosi. Średnia dla wszystkich
jednostek wynosi 97,8 (93,7 bez 5 jednostek uczelnie medycznych). Dysproporcje w zakresie
zmiennej X3 przedstawiono na rysunku 6.3.
Rysunek 6.3. Wykres pudełkowy liczby zatrudnionych w jednostkach naukowych w działalności B+R
Źródło: opracowanie własne z wykorzystaniem pakietu STATISTICA.
Generalnie rozpiętość poziomu zatrudnienia jest znaczna i mieści się w przedziale
(4,4;228,6). Istnieje też grupa jednostek o wyższym zatrudnieniu. Najwyższe zatrudnienie
prezentują wydziały lekarskie uczelni medycznych zatrudniające powyżej 400 pracowników.
Są to przykładowo jednostki U607, U598, U582, U604, U581 oraz U601.
jednostki
naukowe uczelni
medycznych
196
Analizując zatrudnienie w jednostkach naukowych według typów, uczelnie stanowią
grupę o średniej liczbie zatrudnionych wynoszącej 116,25 FTE. Pozostałe grupy jednostek
naukowych charakteryzuje niższe zatrudnienie, w przedziale (43;63). Wartości średnie w tym
zakresie zostały przedstawione na rysunku 6.4.
Rysunek 6.4. Średni poziom zatrudnienia i średni poziom dotacji statutowej w poszczególnych grupach
jednostek naukowych
Źródło: opracowanie własne.
Należy jednak zauważyć, że średnia liczba zatrudnionych pracowników nie jest
ekwiwalentna do średniej wartości dotacji statutowej w poszczególnych grupach jednostek
naukowych. Średnio najwyższe dotacje otrzymują jednostki naukowe PAN, następnie
instytuty badawcze. Poziom dotacji statutowej uczelni i innych jednostek naukowych jest
ponad czterokrotnie niższy.
Średni poziom dotacji statutowej w okresie 2005-2008 przypadający na 1 pracownika
również jest zróżnicowany względem rodzaju jednostki naukowej (rysunek 6.5).
W jednostkach naukowych PAN poziom ten wynosi 496,59 tys. zł, w instytutach badawczych
300,19 tys. zł, w innych jednostkach naukowych129,81 tys. zł. Najniższy poziom przypada
na 1 pracownika uczelni – prawie 12 razy mniejszy w stosunku do jednostek naukowych
PAN. Analizując poszczególne typy uczelni, z danych wynika, że najwyższy poziom dotacji
przypadającej na 1 pracownika otrzymują uczelnie wojskowe i służb państwowych.
25 797 850 zł
18 389 000 zł
4 594 760 zł 3 811 700 zł
50,86 63
116,25
43,8
0
20
40
60
80
100
120
140
Jednostki
naukowe PAN
Instytuty
badawcze
Uczelnie Inne jednostki
naukowe
0 zł
5 000 000 zł
10 000 000 zł
15 000 000 zł
20 000 000 zł
25 000 000 zł
30 000 000 zł
Lic
zba p
raco
wn
ików
Pozio
m d
ota
cji [tys. zł]
Średni poziom dotacji statutowej w poszczególnych grupach w latach 2005-2008
Średni poziom zatrudnienia w działalności B+R, stan na dzień 31.12.2008 r.
Średni poziom dotacji statutowej dla wszystkich jednostek
Średni poziom zatrudnienia dla wszystkich jednostek
197
Rysunek 6.5. Średni poziom dotacji statutowej na 1 pracownika w poszczególnych grupach jednostek
naukowych
Źródło: opracowanie własne.
Rozpatrując średni poziom finansowania jednostek naukowych w układzie
geograficznym należy odnotować, że jest on zróżnicowany względem województw. Średni
poziom dotacji statutowej jednostek naukowych w latach 2004-2008 przypadającej
na jednostkę naukową wraz z liczbą jednostek naukowych zlokalizowanych
w poszczególnych województwach przedstawiono na rysunku 6.6. Województwa można
pogrupować w pięć klas względem poziomu średniej dotacji statutowej:
1) mazowieckie;
2) małopolskie;
3) śląskie, wielkopolskie, dolnośląskie, łódzkie lubelskie;
4) pomorskie, warmińsko-mazurskie;
5) zachodniopomorskie, kujawsko-pomorskie, podlaskie, opolskie, podkarpackie, lubuskie,
świętokrzyskie.
Średni poziom dotacji statutowej jest istotnie skorelowany z wielkością ośrodka
akademickiego mierzonego liczbą jednostek naukowych w województwie (współczynnik
korelacji na podstawie badań autorki na poziomie 0,86).
0 50 100 150 200 250 300 350 400 450 500
Uczelnia teologiczna
Uczelnia kościelna
Uczelnia pedagogiczna
Uczelnia wychowania fizycznego
Uczelnia morska
Uczelnia medyczna
Uczelnia ekonomiczna
Uniwersytet
Uczelnia rolnicza / przyrodnicza
Uczelnia techniczna
Uczelnia służb państwowych
Uczelnia wojskowa
Uczelnia
Inna jednostka naukowa
Instytut badawczy
Jednostka naukowa PAN
Poziom dotacji [tys. zł]
198
Rysunek 6.6. Liczba jednostek naukowych i średni poziom dotacji statutowej jednostek naukowych
w latach 2005-2008 według województw [tys. zł]
Źródło: opracowanie własne w wykorzystaniem programu Quantum GIS.
Studiując jednostki naukowe pod względem uzyskiwanych przez nie rezultatów
naukowych, można zauważyć, że największą aktywność przejawiają w obszarach publikacji
i współpracy z otoczeniem. Dokonując bardziej wnikliwej analizy, zbadano jaka jest
orientacja jednostek naukowych w zakresie realizowanych obszarów naukowo-badawczych.
Dla uzyskania porównywalności zmiennych o różnych skalach dokonano standaryzacji
wybranych zmiennych. Uwzględniono uśrednione wartości zmiennych charakteryzujących
publikacje (X9, X10, X11), patenty i inne prawa z tytułu wynalazków i wzorów
przemysłowych (X19X31), wartość umów wynikających z prac B+R (X36), wpływy
z wdrożenia wyników prac B+R (X37, X38) oraz udział w projektach naukowo-badawczych
(X34, X35). Wyniki przedstawiono na rysunku 6.7.
Podstawowe jednostki naukowe uczelni realizują zadania w analizowanych obszarach
równomiernie. Dominują wśród pozostałych jednostek naukowych w zakresie publikacji.
Jednostki naukowe PAN przejawiają zbliżony do uczelni poziom w realizacji grantów
i publikacji. Realizują jednak najwięcej umów B+R, charakteryzują się natomiast niskim
poziomem patentów w stosunku do pozostałych jednostek. Patenty są dominującym obszarem
instytutów badawczych, które przejawiają również wysoką aktywność w zakresie wdrożeń
i umów B+R.
199
Rysunek 6.7. Średni poziom uzyskiwanych wyników w poszczególnych obszarach naukowych według
rodzaju jednostki naukowej
Źródło: opracowanie własne.
Zdecydowanie silną stroną innych jednostek naukowych jest współpraca z otoczeniem
wynikająca z wdrożeń finalnych produktów i nowych technologii oraz realizacja prac B+R
na rzecz podmiotów zewnętrznych. Na tym polu znacznie przekraczają poziom pozostałych
jednostek naukowych. Zestawienie będące podsumowaniem orientacji poszczególnych
rodzajów jednostek naukowych zaprezentowano w tabeli 6.5. Odnosząc się do rysunku 6.4,
można zauważyć brak bezpośredniego wpływu poziomu finansowania na uzyskiwane
rezultaty naukowe.
Tabela 6.6. Orientacja działalności jednostek naukowych
Grupa jednostek
naukowych Publikacje Granty
Patenty
i wynalazki Wdrożenia
Umowy
B+R
Instytuty badawcze + + +++ ++ ++
Jednostki naukowe PAN ++ ++ + + ++
Uczelnie ++ ++ ++ + +
Inne jednostki naukowe + + +++ +++
Legenda:
+ oznacza skalę poziomu osiąganych wyników w poszczególnym zakresie
oznacza niski poziom wyników w poszczególnym zakresie
Źródło: opracowanie własne.
-1
-0,5
0
0,5
1
1,5
2
2,5
3
3,5
Publikacje
Granty
Umowy B+RWdrożenia
Patenty
Inne jednostki naukowe Instytuty badawcze Jednostki naukowe PAN Uczelnie
200
Analogiczne, do rysunku 6.7, zestawienie sporządzono dla typów uczelni. Z rysunku
6.8 wynika duże zróżnicowanie w poszczególnych obszarach działalności podstawowych
jednostek szkół wyższych. Należy zauważyć, że nie ma grupy jednostek, które dominowałyby
we wszystkich zakresach. Każda grupa wyraża pewną specyfikę. Przykładowo jednostki
uczelni technicznych charakteryzują się wyróżniającym poziomem w zakresie patentów
oraz wysokim poziomem realizowanych grantów, wdrożeń oraz umów B+R. Publikacje
w stosunku do innych obszarów nie mają charakteru pierwszorzędnego, ale w porównaniu
do innych grup jednostek wskazują poziom wysoki. Ma to znaczenie w wypadku oceny
porównawczej jednostek naukowych.
Rysunek 6.8. Średni poziom uzyskiwanych wyników w poszczególnych obszarach naukowych według
rodzaju uczelni
Źródło: opracowanie własne.
Dla uczelni medycznych wyróżniającym obszarem są publikacje, a dla ekonomicznych
i służb państwowych – granty. Uczelnie wojskowe specjalizują się we wdrożeniach i umowach
B+R. Silną stroną rolniczych szkół wyższych są patenty i umowy B+R.
Przeprowadzone analizy wskazują, że jednostki naukowe są zróżnicowane w poziomie
finansowania statutowego i zakresie realizacji własnych zadań statutowych.
-1,5
-1
-0,5
0
0,5
1
1,5
2
2,5
3
3,5kościelne
służb państwowych
wojskowe
wychowania fizycznego
ekonomiczne
morskierolnicze
pedagogiczne
techniczne
uniwersytety
medyczne
Publikacje Granty Umowy B+R Wdrożenia Patenty
201
Poziom finansowania jest głównym czynnikiem determinującym poziom
produktywności nauki*. Zatem w ocenie produktywności jednostek naukowych należy
uwzględnić nie tylko poziom zatrudnienia, ale również zasoby środków finansowych.
Rodzaj jednostki naukowej czy typ uczelni wskazuje na pewną charakterystyczność.
Mając to na uwadze, zdaniem autorki, ocena jednostek naukowych powinna uwzględniać
ich specjalizację. Każda grupa jednostek wykazuje pewne silne strony i słabości. Stosowanie
jednakowych miar, a szczególnie tych samych wag cech, do oceny wszystkich jednostek
naukowych ogranicza autonomię jednostek naukowych przez komprymowanie i reglamentację
swobody badawczej. Specjalizacja instytucjonalna jednostek naukowych jest historycznie
uwarunkowanym efektem rozwoju nauki i dokonanego w niej podziału pracy o różnym zasięgu,
od instytucji, przez środowisko, region do nauki światowej. Zagadnienie specjalizacji
instytucjonalnej związane jest z ściśle z obszarem wiedzy i dziedziną nauki reprezentowanej
przez jednostkę naukową i wynika z konieczności zastosowania odpowiedniego warsztatu
naukowo-badawczego. Stąd, w wielu systemach oceny nauki** stosowane są liczne kryteria
pozwalające uwzględnić jak najszerszy zakres wyników działalności jednostek naukowych
o różnym profilu naukowo-badawczym. Sprzyja temu stosowanie jakościowych systemów.
W Polsce, duża liczba jednostek naukowych ogranicza wdrożenie oceny jakościowej. Zatem
istnieje potrzeba wypracowania kompleksowego i wielostronnego systemu ilościowego oceny.
Mając również na uwadze najnowszy nurt badań, który ma na celu zapewnić naukowe
podstawy wspomagania procesów decyzyjnych w sektorze nauki***, autorka proponuje
zastosowanie metody DEA i metod statystycznych do oceny jednostek naukowych w Polsce.
6.2. Wybór zmiennych do oceny produktywności jednostek naukowych
Metoda DEA była wykorzystywana w wielu krajach do oceny działalności naukowej
uczelni i jednostek państwowych akademii nauk, jednak brak jest jednomyślności,
co do stosowanego modelu i wyboru zmiennych decyzyjnych****. Na podstawie przeglądu
literatury można wysunąć konkluzję, że badania powinny uwzględniać lokalną specyfikę sektora
nauki, wymagają też konsensusu i akceptacji zarówno przez ocenianych, jak i oceniających.
Wybierając zmienne do modelu DEA należy pamiętać o postulatach metody.
Metodologia DEA oprócz założenia jednorodności zbioru obiektów wymaga
* Patrz: rozdział 2.2.
** Patrz: rozdział 3.2.
*** Patrz: rozdział 1.2.
**** Patrz: rozdział 5.2.
202
odpowiedniej liczby obserwacji w stosunku do rozważanych nakładów i efektów*. Innym
postulatem, który należy spełnić jest nieujemność nakładów i efektów, którą uzyskać
można chociażby przez dodanie stałej w wypadku, gdy jakaś wielkość przyjęła wartość
niedodatnią. Każdy nakład powinien też być wyraźnie powiązany z przynajmniej jednym
rezultatem. Wielkość uznana za rezultat musi być tak zdefiniowana, aby jej wzrost
oceniany był pozytywnie z punktu widzenia celu działania. Wzrost nakładów
przy ustalonym poziomie rezultatów natomiast niekorzystnie.
Kwestią wymagającą założenia a priori jest podział wybranych zmiennych
wejściowych na zmienne tzw. kontrolowane i niekontrolowane (środowiskowe). W wypadku
istnienia istotnych zmiennych niekontrolowanych powinno odnosić się produktywność danej
jednostki tylko do tych, które osiągają lepsze wyniki przy niższym poziomie zmiennych
wejściowych kontrolowanych i jednocześnie tym samym poziomie niekontrolowanych.
Statystyczny dobór cech kryterialnych w teorii sprowadza się do badania struktury
danych polegającego na analizie zdolności dyskryminacyjnej oraz analizie współzależności6.
W zadaniach wielowymiarowej analizy porównawczej, zmiennym diagnostycznym stawia się
dwa główne postulaty:
– wysoki poziom ich zmienności względem badanych obiektów;
– niski poziom skorelowania pomiędzy nimi.
W wyniku analizy zmienności i innych statystyk opisowych** zbiór zmiennych został
zredukowany (tabela 6.7).
Tabela 6.7. Zestaw zmiennych po analizie statystyki opisowej
Rodzaj zmiennych Numery zmiennych
Efekty działalności naukowej
X4, X5, X9, X10, X11, X12, X13, X14, X15, X16,
X22, X24, X25, X26, X28, X29, X30, X31, X32,
X33, X34, X35, X36, X37, X38
Nakłady X3, X47
Zmienne środowiskowe X1, X2, X2a
Zmienne usunięte X6, X7, X8, X17, X18, X19, X20, X21, X23, X27
Źródło: opracowanie własne.
W zakresie analiz współzależności specjalną użytecznością charakteryzują się miary
korelacji. Korelacja między zmiennymi jest pewną miarą związku między nimi. W zakresie
analiz metodą DEA przyjmuje się, że zmienne wejściowe lub zmienne wyjściowe
* Patrz: rozdział 5.1. 6 T. Panek, dz. cyt., s. 18-23.
** Patrz: rozdział 6.1.
203
nie powinny być skorelowane w ramach własnej grupy. Pożądana jest jednak sytuacja, gdy
istnieje zależność nakładów z efektami7.
Wśród metod doboru zmiennych diagnostycznych opartych na analizie korelacji
wymienia się:
współczynnik korelacji liniowej;
metodę parametryczną Z. Hellwiga;
analizę czynnikową.
Współczynnik korelacji mierzy siłę (stopień) korelacji liniowej. Przyjmuje wartości
z przedziału (-1;+1). Możliwe wartości współczynnika interpretuje się następująco8:
gdy 0 , brak korelacji między dwiema zmiennymi;
gdy 1 , zachodzi ścisły dodatni związek między dwiema zmiennymi, to znaczy
wzrostowi wartości jednej zmiennej odpowiada wzrost wartości drugiej zmiennej;
gdy 1 , zachodzi ścisły ujemny związek między dwiema zmiennymi, to znaczy
wzrostowi wartości jednej zmiennej odpowiada spadek wartości drugiej zmiennej;
jeżeli bezwzględna wartość mieści się w przedziale [0;1], to mierzy siłę liniowego
związku między zmiennymi.
Wartości istotnych i większych od 0,5 współczynników korelacji przyjętego zestawu
zmiennych dla wszystkich jednostek naukowych przedstawiono w tabeli 6.8. Pojemność
informacyjna zmiennej jest tym wyższa, im jest ona słabiej skorelowana z innymi zmiennymi
i jednocześnie silnie skorelowana ze zmiennymi, które nie wchodzą do ostatecznego zbioru
zmiennych diagnostycznych9.
Analizując macierz korelacji można zauważyć znaczącą współzależność niektórych
mierników opisujących rezultaty działalności naukowej jednostek. Wysoki współczynnik
korelacji (0,79) odnotować można dla liczby uprawnień do nadawania stopnia doktora (X4)
oraz liczby uprawnień do nadawania stopnia doktora habilitowanego (X5). Liczba patentów
udzielonych przez Urząd Patentowy RP (X24) jest skorelowana na poziomie 0,76 z liczbą
zgłoszonych wynalazków w Urzędzie Patentowym RP. Analogicznie skorelowane
są zmienne: patenty udzielony za granicą oraz zgłoszenia wynalazków za granicą (0,69).
Znaczącą korelację (0,66) wykazują również zmienne charakteryzujące przychody z tytułu
wdrożenia prac B+R jednostki wdrażającej (X37) oraz przychody jednostki naukowej
(uzyskane wpływy) z tytułu wdrożenia (X38).
7 J. Nazarko, J. Šaparauskas, dz. cyt., s. 12.
8 A.D. Aczel, Statystyka w zarządzaniu, Państwowe Wydawnictwo Naukowe, Warszawa 2006, s. 480.
9 T. Panek, dz. cyt., s. 20.
204
Tabela 6.8. Współczynniki korelacji cech wraz z poziomem ich istotności
Ś Ś N E E E E E E E E E E E E E E E E E E E E E E E E E N
X1 X2 X3 X4 X5 X9 X10 X11 X12 X13 X14 X15 X16 X22 X24 X25 X26 X28 X29 X30 X31 X32 X33 X34 X35 X36 X37 X38 X47
X1 - -0,03 -0,06 -0,09 -0,20 -0,08 -0,06 -0,06 -0,06 -0,04 -0,07 0,06 0,07 0,00 -0,09 -0,01 -0,07 -0,08 -0,07 0,07 0,01 0,01 -0,04 -0,04 -0,11 -0,03 0,00 0,05 -0,12
X2 0,46 - -0,32 -0,42 -0,33 -0,13 -0,10 -0,24 -0,06 -0,12 -0,32 -0,22 -0,05 0,14 0,07 0,21 0,07 0,06 0,07 0,20 -0,02 0,24 0,03 0,08 0,13 0,41 0,20 0,26 0,41
X3 0,10 0,00 -- 0,61 0,57 0,56 0,23 0,74 0,08 0,12 0,43 0,44 0,16 0,01 0,05 -0,05 0,05 0,04 0,00 -0,04 0,05 -0,05 0,00 0,04 0,11 0,02 -0,03 -0,06 0,13
X4 0,01 0,00 0,00 - 0,79 0,34 0,32 0,35 0,13 0,19 0,36 0,35 0,07 -0,01 0,09 -0,04 0,11 0,02 -0,01 -0,08 0,00 -0,11 -0,02 0,03 0,11 -0,08 -0,09 -0,14 0,07
X5 0,00 0,00 0,00 0,00 - 0,38 0,34 0,35 0,13 0,19 0,32 0,26 -0,04 -0,01 0,11 -0,02 0,13 0,05 0,02 -0,06 0,01 -0,11 -0,07 0,10 0,17 -0,04 -0,06 -0,11 0,18
X9 0,04 0,00 0,00 0,00 0,00 - -0,16 0,19 0,01 -0,07 -0,17 -0,16 -0,11 0,02 0,22 0,04 0,22 0,18 0,18 -0,06 -0,04 -0,04 -0,01 0,17 0,20 0,00 -0,04 -0,04 0,40
X10 0,11 0,01 0,00 0,00 0,00 0,00 - 0,00 0,09 0,21 0,23 0,48 0,00 -0,03 -0,09 -0,06 -0,10 -0,05 -0,06 -0,04 -0,02 -0,07 -0,04 -0,07 -0,12 -0,07 -0,04 -0,03 -0,05
X11 0,11 0,00 0,00 0,00 0,00 0,00 0,90 - 0,07 0,06 0,42 0,19 0,01 0,02 -0,02 -0,04 0,03 -0,03 -0,06 0,03 0,05 0,01 -0,03 -0,01 0,10 0,05 0,04 -0,03 -0,01
X12 0,15 0,12 0,03 0,00 0,00 0,91 0,02 0,09 - 0,09 0,07 0,03 -0,04 -0,01 -0,04 0,14 -0,03 0,02 -0,02 -0,01 -0,01 0,03 -0,02 0,09 0,08 0,02 -0,02 -0,02 0,02
X13 0,35 0,00 0,00 0,00 0,00 0,05 0,00 0,12 0,02 - 0,14 0,18 -0,03 -0,03 -0,06 -0,04 -0,06 -0,04 -0,05 -0,04 0,00 -0,04 -0,01 -0,02 0,00 -0,01 -0,04 -0,04 -0,06
X14 0,06 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,06 0,00 - 0,36 0,12 -0,05 -0,13 -0,10 -0,15 -0,10 -0,12 -0,07 0,00 -0,10 -0,03 -0,06 -0,04 -0,08 -0,06 -0,08 -0,19
X15 0,12 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,50 0,00 0,00 - 0,06 -0,05 -0,11 -0,09 -0,12 -0,07 -0,08 -0,02 0,02 -0,05 -0,01 -0,04 -0,08 -0,05 -0,03 -0,04 -0,15
X16 0,07 0,22 0,00 0,07 0,26 0,00 0,95 0,80 0,27 0,49 0,00 0,15 - -0,02 -0,05 -0,06 -0,09 -0,04 -0,05 -0,02 0,12 -0,03 0,23 -0,07 -0,04 -0,01 -0,03 0,00 -0,06
X22 0,99 0,00 0,79 0,82 0,79 0,59 0,42 0,68 0,73 0,50 0,21 0,22 0,62 - 0,31 0,33 0,24 0,01 0,04 0,08 0,00 0,17 0,09 0,03 0,06 0,21 0,19 0,21 0,09
X24 0,02 0,07 0,24 0,02 0,01 0,00 0,02 0,52 0,32 0,12 0,00 0,00 0,18 0,00 - 0,38 0,76 0,13 0,14 0,05 0,14 0,22 0,08 0,07 0,13 0,18 0,11 0,06 0,17
X25 0,80 0,00 0,15 0,26 0,49 0,32 0,12 0,29 0,00 0,32 0,01 0,02 0,12 0,00 0,00 - 0,34 0,02 0,06 0,04 0,00 0,30 0,13 0,11 0,10 0,26 0,30 0,22 0,14
X26 0,06 0,09 0,22 0,01 0,00 0,00 0,01 0,56 0,37 0,11 0,00 0,00 0,02 0,00 0,00 0,00 - 0,15 0,22 0,17 0,01 0,37 0,01 0,10 0,18 0,26 0,23 0,19 0,22
X28 0,04 0,13 0,33 0,65 0,22 0,00 0,17 0,36 0,57 0,31 0,01 0,06 0,33 0,84 0,00 0,55 0,00 - 0,69 0,02 -0,01 0,02 0,04 0,09 0,11 0,07 0,00 0,00 0,15
X29 0,06 0,09 1,00 0,69 0,72 0,00 0,15 0,10 0,67 0,20 0,00 0,04 0,15 0,29 0,00 0,11 0,00 0,00 - 0,13 -0,01 0,06 0,04 0,07 0,05 0,10 0,08 0,02 0,18
X30 0,06 0,00 0,28 0,03 0,10 0,11 0,32 0,45 0,79 0,32 0,06 0,59 0,56 0,05 0,18 0,36 0,00 0,67 0,00 - 0,11 0,24 0,02 0,05 0,16 0,22 0,21 0,06 0,12
X31 0,74 0,70 0,20 0,89 0,72 0,35 0,57 0,16 0,76 1,00 0,96 0,60 0,00 0,97 0,00 0,97 0,74 0,76 0,78 0,00 - 0,02 0,25 -0,02 0,01 0,00 0,00 0,00 0,00
X32 0,84 0,00 0,17 0,00 0,01 0,25 0,07 0,80 0,43 0,34 0,01 0,17 0,40 0,00 0,00 0,00 0,00 0,69 0,13 0,00 0,70 - 0,03 0,03 0,15 0,26 0,43 0,38 0,16
X33 0,30 0,50 0,96 0,54 0,08 0,77 0,36 0,44 0,59 0,80 0,48 0,76 0,00 0,02 0,03 0,00 0,72 0,29 0,27 0,59 0,00 0,50 - -0,04 0,06 0,00 0,01 0,00 0,03
X34 0,27 0,04 0,33 0,47 0,01 0,00 0,07 0,65 0,03 0,61 0,12 0,29 0,06 0,50 0,07 0,01 0,01 0,03 0,08 0,23 0,58 0,41 0,33 - 0,35 0,18 0,07 0,06 0,31
X35 0,00 0,00 0,00 0,00 0,00 0,00 0,00 0,01 0,05 1,00 0,40 0,04 0,28 0,11 0,00 0,01 0,00 0,00 0,16 0,00 0,84 0,00 0,11 0,00 - 0,32 0,12 0,08 0,31
X36 0,40 0,00 0,71 0,02 0,28 0,85 0,05 0,24 0,69 0,87 0,05 0,18 0,78 0,00 0,00 0,00 0,00 0,07 0,01 0,00 0,91 0,00 0,99 0,00 0,00 - 0,28 0,26 0,38
X37 0,96 0,00 0,41 0,02 0,13 0,24 0,26 0,30 0,61 0,29 0,12 0,38 0,48 0,00 0,00 0,00 0,00 0,91 0,04 0,00 0,96 0,00 0,89 0,08 0,00 0,00 - 0,66 0,14
X38 0,23 0,00 0,13 0,00 0,00 0,26 0,38 0,46 0,60 0,29 0,03 0,32 0,99 0,00 0,14 0,00 0,00 0,92 0,69 0,14 0,95 0,00 0,97 0,12 0,05 0,00 0,00 - 0,08
X47 0,00 0,00 0,00 0,08 0,00 0,00 0,18 0,77 0,59 0,11 0,00 0,00 0,09 0,02 0,00 0,00 0,00 0,00 0,00 0,00 0,96 0,00 0,39 0,00 0,00 0,00 0,00 0,03 -
Legenda
E – efekty, N – nakłady, Ś – środowiskowe
wartości współczynników korelacji w przedziale od 0 do 0,5
wartości współczynników korelacji w przedziale od 0,51 do 1
Poniżej przekątnej przedstawiono współczynniki istotności. Kolorem czerwonym oznaczono współczynniki istotności <0,05.
Źródło: opracowanie własne z wykorzystaniem programu STATISTICA.
204
205
Wymienione zależności mają wpływ na zakłócenia w zbiorze zmiennych, to znaczy
osłabiają różnicowalność ocenianych jednostek i powodują nadmiarowość opisu10
. W zbiorze
nie zaobserwowano istotnych i silnych korelacji ujemnych, co potwierdza, że pożądany
kierunek zmiennych jest zachowany. Zróżnicowanie między poszczególnymi grupami
jednostek naukowych ma swoje odzwierciedlenie w relacjach między zmiennymi*.
Grupa uczelni zachowuje korelacje zbieżne z wynikami współzależności dla wszystkich
jednostek naukowych. W grupie instytutów badawczych dodatkowo zachodzi współzależność
(0,67) między liczbą patentów (X24) a wartością udzielonych licencji (X22). Zasadnicze różnice
zachodzą szczególnie w grupie jednostek naukowych PAN oraz grupie innych jednostek.
W grupie jednostek PAN zachodzą znaczące korelacje liczby uprawnień do nadawania
stopnia doktora (X4) oraz liczby uprawnień do nadawania stopnia doktora habilitowanego
(X5). Ponadto liczba patentów (X24) jest skorelowana za poziomie 0,78 z liczbą zgłoszonych
wynalazków (X26). Odpowiednio skorelowane są patenty i wynalazki zgłoszone za granicą
(X28, X29) z siłą 0,94. Z tymi zmiennymi skorelowana jest również zmienna X33 (X28
– 0,95; X29 – 0,94). Liczba patentów i wynalazków zgłoszonych za granicą koresponduje
z przychodami z tytułu wdrożenia prac B+R (X37) oraz uzyskanymi wpływami z tytułu
wdrożenia (X38), które również wykazują zależność względem siebie na poziomie 0,64.
Dodatkowo zachodzi zależność (0,51) między liczbą punktów za redakcję czasopisma
pracownika ocenianej jednostki (X12) a liczbą punktów za publikacje w czasopiśmie
wyróżnionym w ERIH (X10).
W wypadku innych jednostek naukowych zachodzą silne zależności między
największą liczbą zmiennych. Jest to grupa jednostek wykazująca się znacznym dorobkiem
w zakresie wdrożeń i umów B+R. Z analizy korelacji w tej grupie wynika znaczny związek
między liczbą punktów za publikacje w recenzowanym czasopiśmie z listy MNiSW (X11)
i licencjami i patentami (X22, X28, X29) oraz działalnością wdrożeniową (X34, X35).
Podobnie działalność wdrożeniowa wykazuje związek w zakresie zmiennych X24, X31, X32,
X33, X36, X37, X38.
Skorelowane zmienne opisujące efekty należy wykluczyć ze zbioru zmiennych.
Do określenia, które zmienne należy wyłączyć zastosowano pomocniczo metodę Z. Hellwiga.
Jest to jedna z najczęściej stosowanych metoda parametryczna analizy pojemności
informacyjnej zmiennych. Ideą metody jest wyznaczenie, na podstawie współczynników
korelacji liniowej, tzw. zmiennych centralnych i skorelowanych z nimi zmiennych
10
J. Dąbkowski, O problemie redukcji wymiarów, Polskie Towarzystwo Inżynierii Rolniczej, Kraków 2000, s. 12.
* Tablice korelacji dla poszczególnych grup zawarto w aneksie, załącznik 8.
206
satelitarnych oraz zmiennych izolowanych. Do ostatecznego zbioru zmiennych
diagnostycznych, będącego podstawą analiz porównawczych, wchodzą wszystkie zmienne
centralne i zmienne izolowane11
. Wyniki analizy metodą Hellwiga przedstawiono w tabeli 6.9*.
Za progową wartość statystyki współczynnika korelacji przyjęto wartość stosowaną
najczęściej12
– 0,5.
Tabela 6.9. Wyniki metody Hellwiga dla efektów
Wszystkie
jednostki
naukowe
Zmienne centralne Zmienne satelitarne
X26 X24 (0,76)
X5 X4 (0,79)
X37 X38 (0,66)
X28 X29 (0,69)
Zmienne izolowane
X25, X14, X35, X15, X36, X9, X33, X12, X32, X13, X34, X31, X27, X22, X11, X16, X10
Uczelnie
Zmienne centralne Zmienne satelitarne
X4 X5 (0,75)
X26 X24 (0,81)
X10 X15 (0,52)
Zmienne izolowane
X36, X9, X35, X14, X16, X28, X32, X30, X25, X38, X33, X11, X34, X13, X29, X31, X12,
X22, X37
Instytuty
badawcze
Zmienne centralne Zmienne satelitarne
X26 X24 (0,59), X32 (0,67)
X4 X5 (0,75)
X13 X14 (0,69)
X38 X37 (0,70)
X25 X22 (0,52)
Zmienne izolowane
X11, X36, X15, X9, X35, X29, X12, X33, X31, X28, X10, X34, X16, X33
Jednostki
naukowe
PAN
Zmienne centralne Zmienne satelitarne
X29 X22 (0,55), X28 (0,94), X33 (0,94), X37 (0,94), X38 (0,60)
X9 X36 (0,60)
X5 X4 (0,90)
X14 X11 (0,58)
X24 X26 (0,78)
X12 X10 (0,51)
Zmienne izolowane
X34, X25, X13, X31, X32, X35, X15, X16, X30
Inne
jednostki
naukowe
Zmienne centralne Zmienne satelitarne
X26 X22 (0,85), X28 (0,83), X29 (0,83), X34 (0,83), X35 (0,88)
X32 X24 (0,69), X31 (0,88), X36 (0,80), X37 (0,83), X38 (0,93)
X33 X15 (0,99), X16 (0,96)
X30 X9 (0,71), X12 (0,84)
Zmienne izolowane
X11, X13, X14
Legenda: kolorem czerwonym wyróżniono relacje inne niż w wypadku korelacji dla wszystkich jednostek
Źródło: opracowanie własne.
11
T. Panek, Statystyczne metody wielowymiarowej analizy porównawczej, Szkoła Główna Handlowa, Warszawa
2009, s. 21-22.
* Na podstawie współczynników korelacji, aneks, załącznik 8. 12
Tamże, s. 21.
207
W dalszej kolejności dokonano analizy korelacji między nakładami a efektami. W tym
wypadku korelacje są pożądane. Wartości istotnych i większych od 0,5 współczynników
korelacji wstępnie wybranych zmiennych przedstawiono w tabeli 6.11.
Analizując dane w tabeli 6.10 można zauważyć znaczącą współzależność różnych
mierników opisujących osiągnięcia naukowe jednostek naukowych do liczby pracowników
zatrudnionych w działalności B+R (X3). Poza grupą innych jednostek naukowych, korelacje
zachodzą w zakresie uprawnień do nadawania stopni naukowych (X4, X5), liczbą punktów
za publikacje na listach JCR (X9) i MNiSW (X11). Dla instytutów badawczych dodatkowo
zachodzi zależność z liczbą rozdziałów w monografii lub podręczniku autorskim w języku
innym niż angielski lub podstawowy dla danej dyscypliny (X16).
Dla innych jednostek naukowych zasoby kadry naukowej warunkują poziom
zmiennych charakteryzujących liczbę rozdziałów w monografiach, zarówno w języku
angielskim (X15), jak i polskim (X16), liczbę patentów (X22), liczbę zgłoszonych
wynalazków (X26), prawa autorskie (X33) oraz liczbę projektów UE, w które zaangażowana
była jednostka naukowa.
Tabela 6.10. Korelacje między efektami a nakładami
Wszystkie Uczelnie
Instytuty
badawcze
Jednostki
naukowe PAN
Inne jednostki
naukowe
X3 X47 X3 X47 X3 X47 X3 X47 X3 X47
X4 0,61 - 0,58 - 0,56 0,54 - - - -
X5 0,57 - 0,56 0,51 0,51 0,60 0,56 - - -
X9 0,56 - 0,56 0,74 0,65 0,67 0,82 0,69 - -
X10 - - - - - - - - - -
X11 0,74 - 0,72 - 0,73 - - - - -
X12 - - - - - - - - - -
X13 - - - - - - - - - -
X14 - - - - - - - - - -
X15 - - - - - - - - 0,72 -
X16 - - - - 0,66 - - - 0,65 -
X22 - - - - - - - - 0,90 -
X24 - - - - - - - - - -
X25 - - - - - - - - - -
X26 - - - - - - - - 0,67 -
X28 - - - - - - - - - -
X29 - - - - - - - - - -
X30 - - - - - - - - - -
X31 - - - - - - - - - -
X32 - - - - - - - 0,51 - -
X33 - - - - - - - - 0,76 -
X34 - - - - - - - - - -
X35 - - - - - - - - 0,66 -
X36 - - - - - - - - - -
X37 - - - - - - - - - -
X38 - - - - - - - - - -
Źródło: opracowanie własne.
208
Ustalając uwarunkowania finansowania jednostek naukowych, należy zwrócić uwagę
na wskaźniki w poszczególnych grupach. W grupie uczelni, instytutów badawczych
i jednostek naukowych PAN istnieje znacząca – wynosząca 0,74 – pozytywna zależność
między poziomem finansowania a liczbą punktów za publikacje na liście JCR (tak zwana lista
filadelfijska). Poziom finansowania wykazuje również zależność w stosunku do uprawnień
do nadawania stopni naukowych doktora (w wypadku instytutów badawczych) oraz doktora
habilitowanego (w wypadku uczelni i instytutów badawczych).
W ostatniej części analizy współzależności zbadano relacje między nakładami.
Wartości istotnych i większych od 0,5 współczynników korelacji wstępnie wybranych
zmiennych wystąpiły między liczbą pracowników B+R (X3) oraz poziomem finansowania
(X47). Poziom korelacji wynosi odpowiedni: dla uczelni 0,53, w grupie instytutów
badawczych 0,68, a w wypadku instytutów naukowych PAN – 0,70.
Tabela 6.11. Wybrane zmienne analizowanych jednostek naukowych
Kod zmiennej Opis zmiennej
X3 Liczba osób, w przeliczeniu na pełny wymiar czasu pracy (FTE), zatrudnionych
w jednostce naukowej przy prowadzeniu badań naukowych lub prac rozwojowych
na podstawie stosunku pracy, dla których jednostka jest podstawowym miejscem pracy
X47 Suma dotacji na finansowanie lub dofinansowanie działalności statutowej w latach
2005-2008 [tys. zł]
X5 Liczba uprawnień do nadawania stopnia doktora habilitowanego
X9 Liczba punktów za publikacje w czasopiśmie wyróżnionym w Journal Citation
Reports (JCR)
X10 Liczba punktów za publikacje w czasopiśmie wyróżnionym w ERIH
X11 Liczba punktów za publikacje w recenzowanym czasopiśmie krajowym
lub zagranicznym wymienionym w wykazie ministra
X12 Liczba punktów za redakcję czasopisma pracownika ocenianej jednostki, otrzymuje
podwójną liczbę punktów przypisanych danemu czasopismu w wykazie ministra.
Punkty otrzymuje jednostka za cały oceniany okres
X13 Liczba monografii autorstwa pracownika jednostki lub podręcznika autorskiego
w języku angielskim lub podstawowym dla danej dyscypliny
X14 Liczba monografii lub podręcznika autorskiego w języku innym niż angielski
lub podstawowy dla danej dyscypliny
X15 Liczba rozdziałów w monografii lub podręczniku autorskim w języku angielskim
lub podstawowym dla danej dyscypliny
X16 Liczba rozdziałów w monografii lub podręczniku autorskim w języku innym
niż angielski lub podstawowy dla danej dyscypliny
X22 Wartość udzielonych licencji (opłaty licencyjne) [tys. zł]
X24 Liczba patentów udzielonych przez Urząd Patentowy Rzeczypospolitej Polskiej
X28 Patent udzielony za granicą
X31 Prawo ochronne na wzór użytkowy
X34 Liczba projektów koordynowanych w projektach Programów Ramowych lub innych
konkursach Unii Europejskiej
X35 Liczba projektów (uczestnictwo instytucjonalne) w projektach Programów
Ramowych lub innych konkursach Unii Europejskiej
X36 Wartość umów zawartych z innymi podmiotami na wykonanie prac B+R [tys. zł]
X37 Przychody z tytułu wdrożenia prac B+R jednostki wdrażającej [tys. zł]
Źródło: opracowanie własne.
209
Zidentyfikowane zależności między zmiennymi wskazują na konieczność redukcji
zmiennych. Analiza czynnikowa w zakresie redukcji zmiennych nie wskazała dodatkowych
zależności. Przeprowadzony statystyczny dobór cech kryterialnych pozwolił na wyłonienie
nowego zbioru 19 charakterystyk jednostek naukowych, składającego się z 17 zmiennych
opisujących wyniki działalności naukowej jednostek oraz 2 zmiennych charakteryzujących
ich nakłady.
6.3. Klasyfikacja jednostek naukowych i wybór modelu Data Envelopment Analysis
Podstawowym założeniem metody DEA jest homogeniczność grup obiektów
poddanych analizie względem czynników charakteryzujących działalność poszczególnych
jednostek (nakłady i efekty). Jednostki naukowe w Polsce są zróżnicowane między innymi
w zakresie realizowanych obszarów działania*. Zastosowanie tego samego zestawu zmiennych
wymaga zatem rozważnej kwalifikacji jednostek naukowych o zbliżonej strukturze technologii
do poszczególnych grup. Klasyfikacja ta będzie miała bezpośredni wpływ na uzyskane
wskaźniki produktywności, ponieważ w metodzie DEA wynik każdej DMU jest zależny
od pozostałych obiektów w grupie. Oznacza to, że należy dążyć do takiej klasyfikacji obiektów
w grupy, aby obiekty należące do tej samej grupy były jak najbardziej do siebie podobne
(jak najwyższa homogeniczność grup obiektów), a należące do różnych grup były do siebie
jak najbardziej niepodobne (heterogeniczne). W rozdziale 5.1 wskazano metody wyznaczania
jednorodności obiektów. Autorka postuluje zastosowanie odpowiednich metod statystyki
wielowymiarowej w celu utrzymania poziomu obiektywności procedury badawczej.
Istotnym elementem analizy na tym etapie jest również dobór odpowiedniej liczby
badanych jednostek. Na podstawie wskazanych w rozdziale 5.1 metod wyznaczania
minimalnej liczby jednostek w grupach, należy rozważyć następujące wielkości:
dwu- lub trzykrotność sumy wejść i wyjść – minimum 38-56 DMU w każdej grupie;
iloczyn liczby wejść i liczby – minimum 34 DMU w każdej grupie.
Przyjęto minimalny poziom liczebności grupy na poziomie 34 jednostek.
Dalsza klasyfikacja obiektów polega na konstrukcji reguły decyzyjnej pozwalającej
kwalifikować obserwacje jako realizacje poszczególnych klas podobieństwa obiektów13
.
* Patrz: rozdział 6.1. 13
W literaturze często synonimicznie używa się terminów: grupowanie, podział, dyskryminacja, taksonomia,
taksometria, analiza skupień, czy identyfikacja.
210
Związki między obiektami można oceniać na podstawie miar odległości lub miar zgodności.
Metody grupowania obiektów mogą być klasyfikowane według różnych kryteriów14
:
wzorcowe i bezwzorcowe;
obszarowe i czynnikowe;
hierarchiczne i niehierarchiczne;
aglomeracyjne i podziałowe;
liniowe i nieliniowe.
Większość metod opiera się na grupowaniu względem pojedynczych cech.
Porównywanie i grupowanie obiektów opisanych za pomocą wielu cech jest zagadnieniem
bardziej złożonym. W wypadku zbiorów obiektów opisanych za pomocą wielu cech
praktyczne zastosowanie znajdują przykładowo metody aglomeracyjne, k-średnich, analiza
składowych głównych, analiza czynnikowa15
.
W celu klasyfikacji jednostek naukowych w Polsce przeprowadzono szereg analiz
szczegółowych różnych zbiorów danych i metod. Większość metod pozostaje bezbronna
wobec problemu wielowymiarowych, rozbudowanych zbiorów danych. Przeprowadzone
analizy wskazały użyteczność metod analizy składowych głównych oraz analizy
czynnikowej. Metod aglomeracji i grupowania k-średnich nie zastosowano ze względu na ich
ograniczenia względem dużych zbiorów danych. Klasyfikacji przypadków dokonano
względem wszystkich zmiennych.
Metody analizy skupień i analizy czynnikowej w praktyce znajdują główne
zastosowanie do analizy grupowania zmiennych. W tych zastosowaniach w większości
wypadków, obie metody dają bardzo podobne wyniki. Analiza składowych głównych jest
często preferowana jako metoda redukcji danych, przy czym analiza czynnikowa jest chętniej
stosowana, gdy celem jest wykrycie struktury w związkach między zmiennymi16
. Obie
metody można również zastosować do klasyfikacji przypadków. W obliczeniach
wykorzystywana jest macierz korelacji pomiędzy zmiennymi pozwalająca na identyfikowanie
ukrytych wymiarów. Wymiary te można traktować jako zmienne ukryte, które korelują
z wielkościami bezpośrednio obserwowanymi17
.
14
T. Grabiński, S. Wydymus, A. Zeliaś, Metody taksonomii numerycznej w modelowaniu zjawisk społeczno-
gospodarczych, Państwowe Wydawnictwo Naukowe, Warszawa 1989. 15
J. Kolonko, Analiza dyskryminacyjna i jej zastosowanie w ekonomii, Państwowe Wydawnictwo Naukowe,
Warszawa 1980, s. 13-93; T. Panek, dz. cyt., s. 105-166, 175-210. 16
T. Panek, dz. cyt., s. 176-179. 17
Tamże.
211
Analizę czynnikową zastosowano dla różnej liczby grup. Maksymalnie uzyskano
klasyfikację jednostek dla 6 grup. Zastosowanie analizy składowych głównych pozwala
na przeprowadzenie symulacji dla maksymalnie 19 grup. Jednak zwiększenie liczby grup
powoduje jednocześnie zmniejszenie liczby jednostek naukowych wewnątrz grup – poniżej
założonego poziomu minimalnego. Wyniki symulacji zestawiono w tabeli 6.12.
Tabela 6.12. Liczebność grup jednorodnych
Liczba grup Analiza czynnikowa Analiza składowych głównych
1 309 281 225 210 281 210 207 203 199
2 250 169 152 148 169 148 146 143 141
3 123 100 89 73 100 73 69 65 63
4 132 100 80 132 80 80 73 68
5 116 106 281 106 96 86 80
6 65 65 55 50 37
7 29 28 23
8 34 34
9 37
Legenda: Kolorem czerwonym zaznaczono grupy, które nie osiągnęły przyjętej minimalnej liczebności.
Źródło: opracowanie własne z wykorzystaniem programu Statistica.
Rozstrzygające rozwiązanie w wyniku zastosowania obu metod uzyskano dla 6 grup.
Przyporządkowanie do grup przeprowadzono na podstawie współrzędnych czynnikowych
przypadków. Położenie punktów reprezentujących przypadki względem osi czynnikowych
(głównych składowych) pozwala na zakwalifikowanie obiektów do odpowiednich kategorii.
Poglądowy przykład dla dwóch czynników (J3 oraz J4) przedstawiono na rysunku 6.9.
Jednostki naukowe
U1U2U3
U4
U5
U6
U7
U8
U9U10
U11
U12U13U14
U15U16
U17
U18U19U20
U21U22U23U24
U25
U26
U27U28
U29U30
U31
U32U33U34U35U36U37U38U39U40U41
U42
U43
U44
U45
U46
U47U48
U49
U50U51
U52U53
U54
U55
U56U57U58U59U60U61
U62
U63
U64
U65U66U67
U68U69U70U71U72
U73U74U75U76U77U78
U79U80U81U82U83U84U85U86U87U88U89
U90
U91
U92
U93U94
U95
U96
U97
U98
U99
U100U101U102U103U104U105U106U107U108
U109U110U111U112U113U114
U115U116U117
U118U119U120U121
U122
U123
U124
U125
U126U127U128U129U130U131U132U133
U134
U135U136
U137U138U139
U140U141
U142U143
U144U145U146 U147
U148U149
U150U151
U152U153
U154
U155
U156
U157
U158
U159
U160
U161U162U163
U164
U165U166
U167U168U169
U170U171
U172U173U174U175U176U177U178U179U180U181U182U183U184U185U186
U187
U188U189U190
U191U192
U193
U194
U195
U196U197
U198
U199U200
U201
U202
U203U204
U205
U206U207U208U209
U210
U211
U212U213U214U215U216U217U218U219U220U221U222U223
U224
U225U226U227U228U229
U230U231
U232U233
U234U235U236
U237U238U239
U240
U241
U242
U243
U244U245U246
U247
U248U249
U250U251U252U253U254U255U256
U257U258
U259
U260
U261
U262U263U264U265U266U267U268U269
U270
U271U272
U273
U274
U275U276
U277
U278
U279
U280
U281
U282
U283U284U285
U286
U287U288U289
U290
U291U292U293U294U295
U296U297
U298
U299
U300
U301
U302U303
U304U305U306
U307
U308U309
U310
U311U312U313U314
U315
U316U317U318U319U320U321U322U323U324
U325U326U327
U328U329U330U331U332
U333
U334
U335U336
U337
U338U339U340U341U342
U343U344U345U346U347U348U349
U350
U351U352
U353U354U355U356U357U358U359U360
U361U362U363
U364U365U366U367U368U369U370U371
U372U373U374U375U376U377U378U379
U381U382
U383U384U385
U386
U387
U388
U389
U390U391U392U393U394
U395
U396U397
U398U399U400U401U402U403
U404
U405U406U407U408U409U410U411U412
U413
U414
U415
U416U417U418U419
U420
U421U422U423
U424
U425U426U427U428U429U430
U431U432U433
U434U435U436
U437U438U439U440U441U442
U443U444U445U446U447U448U449U450U451U452U453U454
U455U456
U457U458
U459U460U461U462U463U464
U465U466
U467
U468
U469U470
U471U472
U473
U474U475U476U477U478U479U480U481U482U483U484U485U486U487U488U489U490U491
U492U493
U494
U495
U496U497U498U499
U500U501U502U503U504U505
U506U507
U508U509U510U511U512U513U514U515
U516U517U518U519
U520U521U522U523U525
U526
U527
U528
U529
U530
U531U532U533U534
U535U536U537U538U539U540U541U542U543
U544
U545U546U547U548U549
U550
U551
U552U553U554U555U556
U557U558
U559U560U561U562U563U564U565
U566U567U568U569U570
U571
U572
U573
U574U575U576U577U578U579
U580
U581U582U583U584U585U586
U587U588U589
U590U591U592U593U594
U595
U596U597
U598
U599U600U601U602
U603
U604
U605U606U607U608U609U610U611U612U613U614U615U616U617U618
U619U620U621U622U623
U624U625U626U627U628
U629U630U631U632U633U634U635U636
U637
U638U639
U640
U641U642U643U644U645U646
U647
U648
U649U650
U651
U652
U653
U654
U655U656U657U658U659U660U661U662
U663U664U665
U666U667
U668U669U670
U671U672U673U674U675U676U677U678
U679
U680
U681U682U683
-15 -10 -5 0 5 10 15 20
Grupa J3
-15
-10
-5
0
5
10
15
Gru
pa
J4
U1U2U3
U4
U5
U6
U7
U8
U9U10
U11
U12U13U14
U15U16
U17
U18U19U20
U21U22U23U24
U25
U26
U27U28
U29U30
U31
U32U33U34U35U36U37U38U39U40U41
U42
U43
U44
U45
U46
U47U48
U49
U50U51
U52U53
U54
U55
U56U57U58U59U60U61
U62
U63
U64
U65U66U67
U68U69U70U71U72
U73U74U75U76U77U78
U79U80U81U82U83U84U85U86U87U88U89
U90
U91
U92
U93U94
U95
U96
U97
U98
U99
U100U101U102U103U104U105U106U107U108
U109U110U111U112U113U114
U115U116U117
U118U119U120U121
U122
U123
U124
U125
U126U127U128U129U130U131U132U133
U134
U135U136
U137U138U139
U140U141
U142U143
U144U145U146 U147
U148U149
U150U151
U152U153
U154
U155
U156
U157
U158
U159
U160
U161U162U163
U164
U165U166
U167U168U169
U170U171
U172U173U174U175U176U177U178U179U180U181U182U183U184U185U186
U187
U188U189U190
U191U192
U193
U194
U195
U196U197
U198
U199U200
U201
U202
U203U204
U205
U206U207U208U209
U210
U211
U212U213U214U215U216U217U218U219U220U221U222U223
U224
U225U226U227U228U229
U230U231
U232U233
U234U235U236
U237U238U239
U240
U241
U242
U243
U244U245U246
U247
U248U249
U250U251U252U253U254U255U256
U257U258
U259
U260
U261
U262U263U264U265U266U267U268U269
U270
U271U272
U273
U274
U275U276
U277
U278
U279
U280
U281
U282
U283U284U285
U286
U287U288U289
U290
U291U292U293U294U295
U296U297
U298
U299
U300
U301
U302U303
U304U305U306
U307
U308U309
U310
U311U312U313U314
U315
U316U317U318U319U320U321U322U323U324
U325U326U327
U328U329U330U331U332
U333
U334
U335U336
U337
U338U339U340U341U342
U343U344U345U346U347U348U349
U350
U351U352
U353U354U355U356U357U358U359U360
U361U362U363
U364U365U366U367U368U369U370U371
U372U373U374U375U376U377U378U379
U381U382
U383U384U385
U386
U387
U388
U389
U390U391U392U393U394
U395
U396U397
U398U399U400U401U402U403
U404
U405U406U407U408U409U410U411U412
U413
U414
U415
U416U417U418U419
U420
U421U422U423
U424
U425U426U427U428U429U430
U431U432U433
U434U435U436
U437U438U439U440U441U442
U443U444U445U446U447U448U449U450U451U452U453U454
U455U456
U457U458
U459U460U461U462U463U464
U465U466
U467
U468
U469U470
U471U472
U473
U474U475U476U477U478U479U480U481U482U483U484U485U486U487U488U489U490U491
U492U493
U494
U495
U496U497U498U499
U500U501U502U503U504U505
U506U507
U508U509U510U511U512U513U514U515
U516U517U518U519
U520U521U522U523U525
U526
U527
U528
U529
U530
U531U532U533U534
U535U536U537U538U539U540U541U542U543
U544
U545U546U547U548U549
U550
U551
U552U553U554U555U556
U557U558
U559U560U561U562U563U564U565
U566U567U568U569U570
U571
U572
U573
U574U575U576U577U578U579
U580
U581U582U583U584U585U586
U587U588U589
U590U591U592U593U594
U595
U596U597
U598
U599U600U601U602
U603
U604
U605U606U607U608U609U610U611U612U613U614U615U616U617U618
U619U620U621U622U623
U624U625U626U627U628
U629U630U631U632U633U634U635U636
U637
U638U639
U640
U641U642U643U644U645U646
U647
U648
U649U650
U651
U652
U653
U654
U655U656U657U658U659U660U661U662
U663U664U665
U666U667
U668U669U670
U671U672U673U674U675U676U677U678
U679
U680
U681U682U683
Rysunek 6.9. Rzut przypadków na płaszczyznę czynników J3 i J4 Źródło: opracowanie własne z wykorzystaniem pakietu STATISTICA, moduł skalowanie wielowymiarowe.
212
Przykładowo, rozważając położenie punktów względem osi poziomej, obiekty mogą
być zakwalifikowane do jednej z dwóch kategorii, zależnie od tego po której stronie tej osi
leżą obrazy ich ładunków czynnikowych. Tym samym klasyfikacja jest dokonywana
ze względu na znaki ładunków czynnikowych. Jeżeli rozpatruje się jednocześnie obie osie
czynnikowe, to obiekty mogą być kwalifikowane do jednej z czterech kategorii, zależnie
od kombinacji znaków ich ładunków czynnikowych. Im bliżej siebie leżą na wykresie punkty
reprezentujące obiekty, tym bardziej podobne są do siebie względem wskazanych zmiennych.
W wypadku jednostek naukowych, rozpatrywana była sześciowymiarowa przestrzeń
czynnikowa, na której rozmieszczone zostały punkty reprezentujące obrazy obiektów.
Współrzędnymi tych punktów są odpowiadające im współczynniki (ładunki czynnikowe)
przypadków. Jednostka została zakwalifikowana do grupy, dla której wykazywała wartość
ładunku czynnikowego najwyższą dla danej grupy. Wyniki klasyfikacji przedstawiono
w tabeli 6.13.
Tabela 6.13. Jednostki naukowe według grup jednorodnych
Grupa Kod jednostki
J1
U7, U10, U15, U19, U27, U28, U33, U34, U35, U38, U40, U45, U46, U47, U48, U58, U59, U63,
U65, U66, U71, U72, U76, U81, U82, U83, U84, U86, U88, U89, U100, U101, U102, U104, U107,
U108, U109, U110, U111, U112, U113, U114, U117, U124, U127, U129, U132, U133, U139, U144,
U145, U154, U159, U161, U167, U168, U170, U174, U176, U185, U188, U189, U190, U191, U203,
U206, U208, U209, U210, U212, U215, U216, U218, U219, U223, U226, U227, U229, U239, U240,
U245, U248, U250, U255, U256, U257, U262, U263, U264, U265, U266, U268, U270, U311, U313,
U314, U316, U317, U319, U320, U322, U323, U325, U327, U328, U330, U331, U332, U335, U338,
U340, U341, U344, U345, U346, U347, U362, U368, U371, U372, U373, U374, U375, U376, U378,
U379, U382, U385, U392, U394, U398, U402, U403, U404, U405, U406, U407, U409, U410, U411,
U412, U419, U420, U423, U426, U431, U444, U446, U447, U449, U450, U451, U452, U456, U461,
U472, U493, U494, U495, U500, U503, U513, U514, U522, U524, U542, U547, U548, U562, U566,
U570, U574, U575, U576, U577, U578, U579, U581, U584, U603, U607, U608, U617, U619, U620,
U622, U625, U626, U629, U638, U642, U643, U646, U648, U649, U650, U652, U655, U656, U657,
U659, U661, U662, U666, U668, U669, U679, U680, U682, U683
J2
U41, U67, U70, U77, U78, U79, U80, U126, U130, U135, U173, U177, U178, U179, U183, U186,
U222, U225, U228, U254, U267, U269, U276, U282, U283, U284, U287, U288, U289, U290, U291,
U292, U293, U294, U295, U296, U297, U298, U305, U306, U348, U349, U353, U358, U421, U422,
U425, U427, U428, U429, U430, U432, U433, U434, U435, U436, U437, U438, U439, U440, U441,
U442, U443, U445, U453, U454, U455, U457, U458, U459, U460, U462, U463, U464, U465, U466,
U467, U469, U470, U471, U474, U477, U478, U479, U480, U481, U482, U483, U487, U492, U501,
U502, U506, U507, U509, U511, U512, U517, U518, U520, U521, U523, U525, U526, U527, U528,
U529, U531, U532, U533, U534, U535, U536, U537, U538, U539, U540, U541, U544, U546, U549,
U552, U553, U554, U555, U556, U557, U558, U559, U560, U561, U563, U564, U567, U621, U623,
U628, U630, U631, U632, U636, U639, U641, U644, U673, U674, U675, U676
J3
U42, U43, U44, U52, U73, U75, U90, U91, U92, U93, U94, U95, U96, U97, U98, U115, U116,
U118, U119, U120, U121, U125, U147, U148, U149, U150, U152, U162, U192, U193, U194, U195,
U196, U198, U199, U200, U201, U202, U204, U207, U211, U213, U214, U217, U221, U230, U231,
U232, U233, U234, U235, U237, U238, U242, U244, U247, U249, U258, U259, U260, U261, U286,
U299, U303, U307, U326, U350, U416, U499, U504, U505, U510, U516
213
Grupa Kod jednostki
J4
U37, U49, U56, U57, U60, U61, U68, U85, U87, U128, U136, U138, U142, U146, U156, U164,
U166, U169, U175, U180, U182, U184, U205, U224, U246, U251, U252, U253, U339, U343, U351,
U352, U354, U355, U356, U357, U359, U360, U377, U475, U484, U488, U489, U508, U515, U519,
U530, U545, U565, U568, U569, U571, U573, U586, U587, U588, U589, U590, U591, U592, U593,
U594, U595, U596, U597, U598, U599, U600, U615, U616, U618, U624, U627, U633, U634, U635,
U637, U640, U672, U677
J5
U4, U6, U8, U9, U11, U12, U16, U18, U20, U21, U22, U23, U25, U29, U30, U32, U36, U39, U51,
U64, U69, U99, U106, U151, U153, U155, U158, U163, U165, U171, U172, U181, U197, U220,
U236, U271, U272, U273, U274, U275, U277, U278, U279, U280, U281, U285, U304, U312, U315,
U318, U321, U324, U329, U336342, U364, U365, U366, U367, U369, U370, U381, U383, U386,
U388, U390, U391, U395, U396, U397, U399, U400, U401, U408, U413, U414, U415, U417, U418,
U424, U468, U497, U498, U550, U551, U580, U582, U583, U585, U601, U602, U605, U606, U609,
U610, U611, U612, U613, U614, U658, U663, U664, U667, U670, U671, U681
J6
U1, U2, U3, U5, U13, U14, U17, U24, U26, U31, U50, U53, U54, U55, U62, U74, U103, U105,
U122, U123, U131, U134, U137, U140, U141, U143, U157, U160, U187, U241, U243, U300, U301,
U302, U308, U309, U310, U333, U334, U337, U361, U363, U384, U387, U389, U393, U448, U473,
U476, U485, U486, U490, U491, U496, U543, U572, U604, U645, U647, U651, U653, U654, U660,
U665, U678
Źródło: opracowanie własne.
Analizując skład poszczególnych grup, można zaobserwować pewne relacje o podłożu
merytorycznym*.
W strukturze grupy J1 znalazła się znaczna część instytutów badawczych, jednostek
naukowych PAN oraz innych jednostek naukowych (tabela 6.14). Do grupy tej zostały
zakwalifikowane jednostki naukowe inżynieryjne z zakresu nauk inżynierii chemicznej
i materiałowej, konstrukcji i technologii, mechaniki, elektrotechniki, biologicznych oraz nauk
fizycznych, chemicznych i matematycznych.
Tabela 6.14. Struktura grup jednorodnych
J1 J2 J3 J4 J5 J6
Uczelnie 110 144 28 76 81 42
Jednostki naukowe PAN 35 3 2 - 19 15
Instytuty badawcze 58 1 41 3 6 8
Inne jednostki naukowe 7 - 2 1 - -
Źródło: opracowanie własne.
Do grupy J1 zostało zakwalifikowanych również kilka jednostek o innym profilu
(wnioskując z rodzaju jednostki i jej nazwy), przykładowo Wydział Inżynieryjno-
Ekonomiczny Uniwersytetu Ekonomicznego we Wrocławiu, który w ocenie parametrycznej
MNiSW deklarował przynależność do grupy wspólnej oceny (GWO) nauk humanistycznych
i społecznych HS1EK**. Jednostka ta uzyskała 6 wynik w rankingu MNiSW w swojej
grupie wśród 93 jednostek naukowych. W wyniku przeprowadzonej klasyfikacji statystycznej,
* Szczegółowy wykaz jednostek naukowych i grup zawarto w aneksie, załącznik 9.
** Wyjaśnienie oznaczeń grup znajduje się w aneksie, załącznik 5, tabela Grupy wzajemnej oceny w roku 2013.
214
na podstawie przyjętych zmiennych, jednostka ta została wskazana do grupy o profilu
inżynieryjnym. Podobna sytuacja zachodzi w wypadku Wydziału Informatyki i Gospodarki
Elektronicznej Uniwersytetu Ekonomicznego w Poznaniu (HS1EK), Wydziału Ekonomicznego
Uniwersytetu Technologiczno-Humanistycznego w Radomiu (HS1EK), a także Wydziału
Nauczycielskiego Uniwersytetu Technologiczno-Humanistycznego w Radomiu (SI1EA),
który w 2012 roku został przekształcony w Wydział Informatyki i Matematyki. Skłania
to do zastanowienia się i dyskusji nad kwestiami rzetelności i prawidłowości procedury
deklaracji przynależności jednostek naukowych do grup GWO w ocenie parametrycznej
MNiSW.
Na podstawie graficznej prezentacji struktury grup jednorodnych przedstawionej
na rysunku 6.10 można dokonać analizy porównawczej analizowanych grup, która sprowadza
się między innymi do wskazania ich atrybutów i wskaźników kryterialnych stanowiących ich
słabości w ocenie. Przy interpretacji odległości grupa-cecha należy pamiętać, że im ona
większa, tym wyższy poziom reprezentacji cechy przypisanej tej grupie.
Rysunek 6.10. Graficzna prezentacja wartości średnich dla wyznaczonych grup jednorodnych
z wykorzystaniem metody M. Rybaczuka Źródło: opracowanie własne z wykorzystaniem autorskiego programu M. Rybaczuka Wizualizacja.
Charakterystyka grupy J1 względem ich średnich wartości cech wskazuje, że jest to grupa
jednostek o względnie niskim zatrudnieniu. Położenie najbliżej środka okręgu wskazuje,
że jednostki z tej grupy osiągają umiarkowany poziom zmiennych względem innych grup.
X16
X31
X3
X34
X9
X28 X47X35
X24
X36
X22
X37
X13
X10
X15
X14X11
J6
J5
J4
J3
J1
J2
X5 X12
215
Grupa J2 składa się głównie z jednostek naukowych uczelni. Zakwalifikowane
tu zostały przede wszystkim wydziały społeczno-humanistyczne: filologiczne,
humanistyczne, zarządzania, administracji, ekonomiczne, pedagogiczne, teologiczne i inne.
Większość z nich jest zbieżna z kwalifikacją MNiSW. Inne przyporządkowanie otrzymał
przykładowo Wydział Informatyki i Zarządzania Politechniki Wrocławskiej, który deklarował
udział w grupie SI1EA z wydziałami elektrycznymi i elekrotechnicznymi, Wydziały
Inżynierii Produkcji Politechniki Warszawskiej (SI1MH) i Szkoły Głównej Gospodarstwa
Wiejskiego (NZ1R). Analiza informacji o jednostkach wykazała, że Wydział Inżynierii
Produkcji wyodrębniony został w 2010 roku z Wydziału Zarządzania Politechniki
Warszawskiej18
, a Wydział Inżynierii Produkcji SGGW od roku 2000 orientuje się
na kształcenie menedżerów i organizacyjnie podzielony jest na Katedry Podstaw Inżynierii,
Organizacji i Inżynierii Produkcji oraz Maszyn Rolniczych i Leśnych19
. Między innymi
te przykłady demonstrują, że klasyfikacja arbitralna lub samodzielna deklaracja jednostki
nie odzwierciedla rzeczywistego profilu jednostek i może prowadzić do niewłaściwej
i niesprawiedliwej oceny jednostek naukowych.
Do grupy J2 przyporządkowanych zostało również kilkanaście wydziałów
technicznych, między innymi Wydział Inżynierii Lądowej Politechniki Warszawskiej
(SI1BA), który w zestawieniu MNiSW z wydziałami architektury osiągnął ujemną ocenę
ostateczną. Podobnie Wydziały Budownictwa i Inżynierii Środowiska Politechniki
Rzeszowskiej, Szkoły Głównej Gospodarstwa Wiejskiego oraz Wydział Nauk Przyrodniczych
Uniwersytetu Kazimierza Wielkiego w Bydgoszczy (NZ1B), który osiągnął jeden
z najniższych wyników w grupie MNiSW. Przynależność do tej grupy wykazały także
wydziały nauk o zdrowiu i wychowania fizycznego.
Grupę J2 tworzą jednostki, których silną stroną są publikacje recenzowane
w czasopismach z listy MNiSW (X11) oraz monografii i rozdziałów w monografiach (X14,
X15). Ich słabą stroną są publikacje w czasopismach z listy JCR (X9), patenty (X24, X28),
projekty UE (X35). Jednostki te średnio otrzymują najniższą dotację statutową.
W grupie J3 dominują instytuty badawcze oraz jednostki uczelni o pokrewnym profilu.
Zakwalifikowane instytuty badawcze, w odróżnieniu od grupy J1, mają silniejszą reprezentację
cech charakteryzujących licencje (X22), patenty krajowe (X24), udział w projektach UE (X35)
oraz realizację prac na rzecz otoczenia (X36, X37). Są to zatem jednostki najmniej liczne pod
18
Wydział Inżynierii Produkcji PW, http://www.wis.pw.edu.pl/wydzial/historia [20.10.2014]. 19
Wydział Inżynierii Produkcji SGGW, http://wis.sggw.pl/historia [20.10.2014].
216
względem zatrudnienia, ale wysoce zorientowane na aspekty wdrożenia wyników działalności
naukowo-badawczej. Jest to silna grupa pod tym względem.
Spośród jednostek uczelnianych dominują wydziały inżynieryjne reprezentujące nauki
techniczne (inżynieria środowiska, transport) i o Ziemi (geologia). Włączonych zostało także
6 wydziałów ekonomicznych oraz 2 humanistyczno-społeczne. Są to wydziały, które
w swoim grupach MNiSW uzyskały wysokie oceny. Przykładowo, Wydział Nauk
Historycznych i Pedagogicznych osiągnął najwyższą ocenę i kategorię A+ w grupie HS1HS.
Z analizy statystycznej wynikać może, że ma ona profil nieporównywalny z pozostałymi
jednostkami w grupie HS1HS, co ma znaczenie w zakresie analiz i odniesień
benchmarkingowych.
W grupie J4 wyróżniają się uczelniane jednostki w obszarze nauk medycznych
i o zdrowiu. Dodatkowo zostały zakwalifikowane jednostki rolnicze i przyrodnicze
oraz techniczne o profilu elektrycznym i mechanicznym. Pojedynczo są reprezentowane wydziały
ekonomiczne. Grupę tę tworzą jednostki o słabej orientacji wdrożeniowej, ale wysokim poziomie
publikacji krajowych. Publikacje z listy JCR stanowią przewagę jednostek medycznych.
Dość charakterystyczną i odmienną do J4, stanowią jednostki z grupy J5. Z rysunku
6.9 wynika, że są to jednostki o reprezentacji pewnych cech podobnej do grupy J3. Dominują
w tej grupie wydziały chemii oraz elektroniki, informatyczno-matematyczne. Drugą podgrupę
stanowią wydziały o nauk o żywności i medycyny weterynaryjnej, natomiast trzecią wydziały
farmaceutyczne. Można zauważyć pewną symetrię dziedzinową. Znaczną podgrupę stanowią
również wydziały filologiczne i historyczne. Przeważają zatem wydziały z zakresu nauk
podstawowych, o średnio najniższej liczebności pracowników B+R, ale wysokim poziomie
działalności wdrożeniowej. W strukturze tej grupy wyodrębnić można stosunkowo liczną
grupę jednostek naukowych PAN.
Grupa J6 składa się z jednostek największych pod względem średniego zatrudnienia.
Podobnie do grup J5 i J3, jednostki otrzymują wysoką dotację statutową. Wykazują wysokie
zaangażowanie w zakresie publikacji w czasopismach z listy JCR (X9), redakcji czasopism
(X12), patentów zagranicznych (X28), uprawnień do nadawania stopnia doktora
habilitowanego (X5), aplikowaniu i koordynacji projektów PR i innych projektów UE (X34).
Grupę tę definiują jednostki o profilu nauk przestrzennych, w tym architektury, geografii,
inżynierii i ochrony środowiska, przyrodnicze. Dodatkowo jednostki chemii (chemii fizycznej,
fizykochemii, chemii bioorganicznej), fizyki jądrowej, biologii doświadczalnej, mechaniki
i mechatroniki. Również w tej grupie kwalifikowane są nieliczne jednostki humanistyczne
(pedagogiki i psychologii) oraz medycyny pracy. Nieoczekiwanie zakwalifikowany został
217
również jeden wydział ekonomiczny Wydział Zarządzania i Inżynierii Produkcji Politechniki
Opolskiej, który w klasyfikacji MNiSW zadeklarował przynależność o grupy SI1EA, wspólnie
z wydziałami elektronicznymi, elektrycznymi i informatycznymi. Analiza historii wydziału
ujawniła, iż wywodzi się on z jednostki o profilu matematyczno-fizyczno-chemicznym. Przez
lata struktura jednostki zachowała spójność z tymi obszarami naukowymi, mimo zmieniających
się parokrotnie nazw wydziału i jego instytutów.
W klasyfikacji jednostek naukowych w grupy jednorodne na podstawie analiz
z wykorzystaniem metod statystycznych, można zauważyć pewne uzasadnienie merytoryczne
– jednostki grupują się wokół obszarów naukowych z uwzględnieniem specyficznego
charakteru działania. Wybrane przykłady pokazują, że pozornie odmienne jednostki wykazują
integralność z innymi jednostkami w ramach współtworzonej grupy. Należy mieć na uwadze,
że klasyfikacja została dokonana na podstawie przyjętego układu zmiennych.
Zaproponowana klasyfikacja jednostek zostanie uwzględniona w dalszym etapie
badań. Rozwiązanie podjętego zadania badawczego wymaga doboru odpowiedniego modelu
DEA. W literaturze brak jest jednomyślności, co do stosowanego modelu*. Zakres modeli jest
szeroki i powinien być optymalnie dostosowany do sformułowanego problemu badawczego.
Schemat wyboru modelu dla poszczególnych zadań optymalizacji bazuje przede
wszystkim na orientacji. W wypadku przyjętych do modelu zmiennych, zdaniem autorki,
należy rozważyć model zorientowany na efekty. Można uznać, że jednostki naukowe mają
większy wpływ na osiągane rezultaty niż na dyspozycje nakładami. Zatem należy przyjąć
założenie, że jednostki naukowe powinny maksymalizować efekty przy danym poziomie
ponoszonych nakładów. Ponadto zdaniem R. Ramanathana, jeśli uwzględnia się zmienne
niekontrolowane, właściwe jest zastosowanie modelu o orientacji na efekty20
.
Kolejną kwestią jest rozstrzygnięcie wyboru modelu o określonych korzyściach skali.
Wybór stałych lub zmiennych zwrotów skali zależy od konkretnego zastosowania. Przyjmuje
się, że jeśli działalność DMU nie zależy od skali działania (na przykład porównania
produktywności kilku dużych monopoli), do skalowania stosuje się modele o stałych
korzyściach skali (CRS). W większości innych przypadków, bardziej odpowiednie jest
przyjęcie założenia o zmiennych korzyściach skali (VRS)21
. W rozdziale 5.3 zaprezentowano
35 przypadków użycia metody DEA do badania działalności jednostek naukowych.
Ich analiza nie wykazała jednoznacznych przesłanek wyboru modelu. Zastosowanie
* Patrz: rozdział 5.3. 20
R. Ramanathan, dz. cyt., s. 130-131. 21
Tamże, s. 175.
218
obu modeli pozwala jednak na określenie wskaźnika efektywności skali (ang. the most
productive scale size, MPSS)22
. MPSS wskazuje obszar optymalnych korzyści skali danej
jednostki. Jeżeli DMU jest w pełni produktywna w modelach CRS i VRS, to oznacza,
że DMU działa w obszarze najbardziej produktywnych korzyści skali. Na rysunku 5.1* MPSS
osiąga obiekt B. Jeżeli DMU jest produktywna w modelu VRS, ale nie w CRS, wówczas
DMU jest produktywna lokalnie w zakresie korzyści skali, lecz nie w sensie globalnym.
Poziom jej korzyści skali wynosi:
*
*
CCR
BCC
SE
(6.1)
gdzie:
SE – efektywność korzyści skali *
CCR – wskaźnik produktywności wyznaczony modelem CCR
*
BCC – wskaźnik produktywności wyznaczony modelem BCC
Wskaźnik SE kształtuje się w przedziale <0;1>.
Innym istotnym zagadnieniem dotyczącym wyboru modelu jest problematyka
substytucji i komplementarności nakładów lub efektów.
R. Viale i H. Etzkovitz są zdania, że rezultaty naukowe są komplementarne,
choć autorzy wyjaśniają też aspekty ich substytucyjności. Rozważają relację publikowania
i patentowania. W naturalnie kształtujących się relacjach, patentowanie wpływa pozytywnie
na publikowanie. W przytoczonych badaniach amerykańskich, ponad połowa naukowców
uznaje, że współpraca z przemysłem ma korzystny wpływ na ich badania naukowe. Publikacje
naukowców, którzy uzyskali więcej patentów, są wyżej cytowane. Liczba patentów jest istotnie
skorelowana z liczbą publikacji w naukach o życiu i naukach technicznych23
. Założenie
o komplementarności wyników naukowych potwierdzają badania L. Manjarrés-Henríqueza
i in.24
, A. Klotkou i M. Gulbrandsena25
, K.-S. Kwona i B.R. Martina26
.
Zjawisko ewentualnej substytucji może występować w wyniku działania mechanizmów
rynkowych oddziałujących na strukturę korzyści naukowców. Naukowcy coraz częściej stoją
przed koniecznością alokacji swojego czasu w wybrane formy działalności naukowej. Narasta
22
W.W. Cooper, L.M. Seiford, K. Tone, dz. cyt., s. 92.
* Patrz: rozdział 5.1. 23
R. Viale, H. Etzkovitz, dz. cyt., s. 6-9. 24
L. Manjarrés-Henríquez, A. Gutiérrez-Gracia, A. Carrión-García, J. Vega-Jurado, The Effects of university
-industry relationships and academic research on scientific performance: synergy or substitution?, ”Research
in Higher Education” 2009, t. 50, s. 795-811. 25 A. Klotkou, M. Gulbrandsen, The relationship between academic patenting and scientific publishing
in Norway, “Scientometrics” 2010, t. 82, 2010, s. 93-108. 26
K.-S. Kwon, B.R. Martin, Synergy or separation mode: the relationship between the academic research
and the knowledge transfer activities of Korean academics, “Scientometrics” 2012, t. 90, s. 177-200.
219
też presja polityczna na rozwój technologiczny i współpracę z przemysłem. Poświęcają swój
czas na działalność konsultacyjną, realizację umów badawczych z partnerami przemysłowymi,
licencjonowanie patentów lub prace związane z transferem technologii. Wybór celów
komercyjnych sprzyja krótkoterminowym trajektoriom badawczym i prowadzeniu badań
naukowych na niższym poziomie. Dodatkowo, wymagania kontraktów komercyjnych obligują
do zachowania poufności w zakresie publikowania procedury badawczej i jej wyników.
Te mechanizmy mogą wpływać na redukcję ilości i jakości produkcji naukowej. Jest to niejako
kompromis realizacji działalności naukowej i wdrożeniowej27
. Takie podejście potwierdzają
badania H. Lee i M. Miozzo28
.
W Polsce jednostki naukowe charakteryzują się różną strukturą technologii produkcji
rezultatów naukowych. Zdaniem autorki, rezultaty osiągane przez jednostki naukowe mają
generalnie charakter komplementarny, co wskazuje użycie modeli radialnych. W rozdziale 6.1
wskazano, że inny rodzaj rezultatów osiągają jednostki naukowe w zależności
od realizowanej dziedziny naukowej. Zróżnicowanie to zależne jest także od rodzaju
jednostki naukowej. Nie zidentyfikowano jednak jednostek, które osiągają w równie wysokim
stopniu rezultaty w zakresie publikacji, patentowania, realizacji projektów krajowych
lub międzynarodowych czy wdrożeń.
Ponadto, z metodycznego punktu widzenia i z obserwacji autorki wynika, że modeli
nieradialnych zorientowanych na efekty nie można wykorzystać, gdy jednostki wykazują
zerowe wartości w niektórych rezultatach, ponieważ dokonując obliczeń wskaźnika
produktywności w modelach o takiej orientacji, w takim wypadku niemożliwe
jest wyznaczenie odwrotności średniej arytmetycznej optymalnych wskaźników cząstkowych.
Próba zastąpienia wartości zerowych względnie małą liczbą prowadzi do skrajnie niskich
wartości wskaźnika produktywności. Dążąc do uzyskania modelu uniwersalnego
dla wszystkich jednostek, należy przyjąć komplementarność rezultatów.
W badaniu produktywności jednostek naukowych w Polsce, w celu dokonania
szczegółowego rangowania obiektów produktywnych, użyteczne będzie zastosowanie modelu
nadproduktywności (nadefektywności). Jeśli frakcja jednostek uznanych za produktywne jest
znaczna w stosunku do liczby DMU w grupie, powstaje potrzeba ustalenia rankingu również
obiektów produktywnych i wskazania obiektów rzeczywiście wzorcowych. W modelu tym
27
R. Viale, H. Etzkovitz, The capitalization of knowledge…, s. 2-3. 28
H. Lee i M. Miozzo, How does working on university-industry collaborative projects affect science
and engineering doctorates’ careers? Evidence from a UK research-based university, “The Journal
of Technology Transfer”, 2014 May.
220
dokonuje się dodatkowego różnicowania jednostek uznanych za produktywne i jest
on naturalnym uogólnieniem podstawowego modelu DEA. Konsekwencją jest brak
ograniczenia wskaźnika produktywności od góry wartością 1. Interpretacja tak otrzymanych
współczynników jest następująca: obiekty, których współczynnik jest co najmniej równy
1 są w pełni produktywne.
Trzeba jednak rozważyć połączenie modelu naproduktywności z modelem
nieradialnym. Należy zwrócić uwagę, że o ile radialny model nadproduktywności (SE-R) jest
rozszerzeniem zwykłego modelu radialnego (R), to nieradialny model nadproduktywności
(SE-NR) nie jest prostym uogólnieniem zwykłego nieradialnego modelu (NR). Efektywności
cząstkowe wynikające z modelu SE-NR w wielu wypadkach są bowiem inne niż ustalone
w zwykłym modelu NR. Występujące różnice wynikają z następujących zależności
dla modelu ukierunkowanego na efekty29
:
jeśli w modelu SE-NR obiekt jest produktywny ze względu na wszystkie efekty,
to w modelu NR obiekt też jest nieproduktywny ze względu na wszystkie efekty;
odwrotne twierdzenie też jest prawdziwe;
jeśli w modelu SE-NR obiekt jest produktywny ze względu na wszystkie efekty,
to w modelu NR obiekt też jest produktywny ze względu na wszystkie efekty; odwrotne
twierdzenie nie jest jednak prawdziwe;
jeśli w modelu NR obiekt jest nieproduktywny ze względu na niektóre efekty,
to w modelu SE-NR obiekt też jest nieproduktywny ze względu na te efekty.
Zdaniem B. Guzika, modele SE-NR oraz NR to wyraźnie różne modele. Autor
sugeruje posługiwanie się modelami nadproduktywności, ponieważ zwykłe modele radialne
oraz nieradialne dość często przeszacowują wskaźniki produktywności30
.
Ostatecznie w pracy wykorzystano radialny model nadproduktywności o zmiennych
korzyściach skali, zorientowany na efekty (SE-VRS-O). W celu ustalenia efektywności skali
zastosowano również model o stałych korzyściach skali (SE- CRS-O). Ze względu na rozmiar
materiału badawczego, wyniki obliczeń zostaną przedstawione na przykładzie grupy
jednostek J1, natomiast analizy zbiorcze będą dotyczyły wszystkich grup. W przyjętym
modelu pomiaru produktywności jednostek naukowych w Polsce, każda jednostka naukowa
charakteryzuje się wektorem określającym jego technologię własną określoną wzorem:
29
B. Guzik, dz. cyt., s. 245-246. 30
Tamże, s. 247.
221
1 , 2 , 1 ,..., 17j j j j jT X X Y Y (6.2)
gdzie:
Xj – nakłady obiektu DMUj (wejście);
Yj – efekty obiektu DMUj (wyjście).
Oznaczenia zmiennych oraz wskazanie ich rodzaju w modelu przedstawiono
w tabeli 6.15. Kwestią wymagającą założenia a priori jest podział wybranych wejść na tak
zwane zmienne kontrolowane i zmienne niekontrolowane. Metoda DEA w wypadku istnienia
istotnych zmiennych niekontrolowanych powinna odnosić produktywność danej jednostki
tylko do tych, które osiągają lepsze wyniki przy niższym poziomie zmiennych wejściowych
kontrolowanych i jednocześnie o tym samym poziomie zmiennych niekontrolowanych.
Tabela 6.15. Zmienne w modelu oceny produktywności jednostek naukowych
Kod
zmiennej
Oznaczenie
zmiennej w modelu Rodzaj zmiennej
X3 X1 Nakład
X47 X2 Nakład niekontrolowany X5 Y1 Efekt
X9 Y2 Efekt
X10 Y3 Efekt
X11 Y4 Efekt
X12 Y5 Efekt
X13 Y6 Efekt
X14 Y7 Efekt
X15 Y8 Efekt
X16 Y9 Efekt
X22 Y10 Efekt
X24 Y11 Efekt
X28 Y12 Efekt
X31 Y13 Efekt
X34 Y14 Efekt
X35 Y15 Efekt
X36 Y16 Efekt
X37 Y17 Efekt
Źródło: opracowanie własne.
Istotnym problemem, który może prowadzić do różnych wyników, jest wpływ
czynników środowiskowych na badane jednostki decyzyjne. W celu włączenia do analizy
zmiennych środowiskowych, przyjęto dwuetapową procedurę (ang. two-stage DEA)
mierzenia produktywności jednostek naukowych. Najpierw zastosowano modele
zorientowane na efekty analizując zmienne będące pod kontrolą ocenianych jednostek.
Następnie, dokonano analizy regresji w celu określenia siły i kierunku wpływu zmiennych
środowiskowych i skorygowano otrzymane wskaźniki produktywności. Zasadnicze znaczenie
ma uzyskanie wiarygodnych wyników. Dwuetapowy sposób mierzenia efektywności
był zastosowany w przeważającej części ostatnich prac dotyczących aplikacji metody DEA.
222
6.4. Obliczenia produktywności
W pierwszym etapie oceny produktywności jednostek naukowych w Polsce
dla przyjętych nakładów kontrolowanych i efektów (tabela 6.15) zastosowano modele DEA
CRS-O oraz VRS-O w celu zbadania efektywności skali*. Wyniki obliczeń wykonano
za pomocą oprogramowania Banxia Software, programu Frontier Analyst w wersji 4.0.10.
Postulat o nieujemności wartości rezultatów i nakładów (w wypadku analizowanych danych
sprowadzający się do usunięcia zerowych wartości wśród wybranych zmiennych) spełniono
przez zastąpienie wartości zerowych liczbą 0,131
.
Analiza wskaźników efektywności skali pokazuje, że tylko 34,93% jednostek
naukowych w grupie G1 działa w obrębie najbardziej produktywnych efektów skali (MPSS),
49,89% jednostek działa w obszarze rosnących efektów skali, zaś nieco ponad 18%
w obszarze malejących efektów skali.
W kolejnym kroku dokonano analizy wpływu zmiennych środowiskowych testując
pięć różnych zmiennych środowiskowych zaprezentowanych w tabeli 6.16.
Tabela 6.16. Zmienne środowiskowe poddane analizie regresji
Model Zmienna
objaśniana Zmienna objaśniająca
model 1
wskaźnik
produktywności
SE-VRS-O
S1 typ jednostki naukowej (jednostka naukowa PAN,
uczelnia, inna jednostka, instytut badawczy)
model 2 S2 województwo
model 3 S3 wskaźnik PKB według województw [mln zł]
model 4 S4 wskaźnik PKB na 1 mieszkańca według województw [zł]
model 5 S5 dotacja statutowa w latach 2005-2008
Źródło: opracowanie własne.
Zastosowano model regresji wielorakiej. Jako zmienną objaśnianą przyjęto uzyskany
wskaźnik produktywności w modelu SE-VRS-O. Analizowane zmienne środowiskowe
zostały wskazane ze względu na wcześniejsze analizy, gdzie pokazano zróżnicowanie
jednostek naukowych. Badania wykazały zróżnicowanie jednostek względem regionów,
uwzględniono następujące czynniki: S2, S3, S4. Autorka przyjęła dotację statutową jako
zmienną środowiskową**, ponieważ faktycznie jednostki mają ograniczony wpływ na jej
wysokość analizując algorytm podziału dotacji bazowej (formuła 6.3). Algorytm nominalnego
* Wyniki obliczeń przedstawiono w aneksie, załącznik 10. 31
Jest to wartość ustalona na podstawie symulacji. Przyjęcie niższych wartość uniemożliwiało przeprowadzenie
analiz z powodu zbyt dużego rozrzutu wartości zmiennych.
** Uwzględnienie środków finansowych jako zmiennej niekontrolowanej zastosowano w jednym z przykładów
aplikacji metody DEA do oceny uczelni w rozdziale 5.3.
223
poziomu odniesienia dotacji bazowej dla jednostki naukowej co prawda uwzględnia
współczynnik przypisany kategorii naukowej32
, lecz wpływ ten jest ograniczony:
1
lj j
i i i i
j
S q w k N
(6.3)
gdzie:
qi – współczynnik przypisany kategorii i-tej jednostki naukowej (1,5 – A+; 1,0 – A; 0,75 – B; 0,4 – C),
wi – współczynnik rodzaju grupy jednotek naukowych (1,0 – jednostki PAN; 0,7 – instytuty badawcze; 0,4
podstawowe jednostki organizacyjne uczelni; 0,4 –inne jednostki naukowe);
l – liczba dziedzin;
kj – współczynnik kosztochłonności badań dla j-tej dziedziny, ogłaszany w formie komunikatu w Biuletynie
Informacji Publicznej na stronie podmiotowej Ministra;
Nij – liczba osób w i-tej jednostce naukowej w j-tej dziedzinie naukowej, w przeliczeniu na pełny wymiar czasu
pracy, zatrudnionych w jednostce naukowej przy prowadzeniu badań naukowych lub prac rozwojowych
na podstawie stosunku pracy, ustalona na podstawie corocznie składanych przez pracowników pisemnych
oświadczeń o wyrażeniu zgody na zaliczenie do tej liczby.
Dla każdej zmiennej środowiskowej przyjęto, że funkcja regresji zmiennej objaśnianej
Y ma jedną zmienną objaśniającą X, a hipoteza zerowa przyjmuje postać:
ˆ: ( )o y yH Y f X X , (6.3)
gdzie parametry funkcji są dwiema niewiadomymi i oznaczają współczynnik regresji liniowej
y oraz wyraz wolny tej funkcji y . Parametry te oszacowano na podstawie wyników
empirycznych. Hipotezy zerowe sformułowano jako brak wpływu zmiennej objaśniającej
na objaśnianą. W tabeli 6.16 przedstawiono podstawowe statystyki analizy regresji
poszczególnych zmiennych środowiskowych.
Deklarowany poziom istotności wynosi 0,05. Ocena punktowa współczynnika regresji
y od x wynosi y , ze średnim błędem losowym równym ya . Wyznaczony poziom
istotności wynosi t , a krytyczny poziom istotności ustalono na poziomie p. Ogólnie, hipoteza
H0 jest odrzucana, jeżeli wartość bezwzględna statystyki t jest większa od wartości krytycznej
przy danym poziomie istotności33
. Na podstawie analizy parametrów w tabeli 6.17
jednoznacznie odrzucono model 5, co oznacza, że dotacja statutowa w latach 2005-2008
ma istotny wpływ na wskaźnik produktywności. Brak podstaw do odrzucenia hipotezy
o braku wpływu zaobserwowano w modelach 1, 2 i 5. W modelach 3 i 4 brak podstaw
do odrzucenia hipotezy zerowej dla współczynnika y , ale istnieją przesłanki do odrzucenia
hipotezy zerowej dla współczynnika y .
32
obwieszczenie Ministra Nauki i Szkolnictwa Wyższego z dnia 5 czerwca 2013 r. w sprawie ogłoszenia
jednolitego tekstu rozporządzenia Ministra Nauki i Szkolnictwa Wyższego w sprawie kryteriów i trybu
przyznawania oraz rozliczania środków finansowych na naukę na finansowanie działalności statutowej,
Warszawa, Dz. U. z dnia 20 stycznia 2014 r., poz. 90, załącznik nr 2. 33
A. Luszniewicz, T. Słaby, Statystyka z pakietem komputerowym STATISTICA PL. Teoria i zastosowania,
Wydawnictwo C.H. Beck, Warszawa 2008, s. 228.
224
Tabela 6.17. Wyniki analizy regresji wielorakiej
Model Parametry b̂ b
Średni
błąd
ya
Poziom
istotności
t
Poziom
p
Hipoteza
Ho
model 1 y -136,147 1009,814 -0,13482 0,89288 +
y 0,0208 0,0694 2,945 9,811 0,30020 0,76432 +
model 2 y -98,3085 311,8701 -0,31522 0,75291 +
y 0,0590 0,0693 2,5223 2,9631 0,85126 0,39560 +
model 3 y 185,8833 22,32872 8,32485 0,00000 –
y -0,0692 0,0693 -0,0001 0,00014 -0,99833 0,31928 +
model 4 y 201,7276 42,68510 4,72595 0,00000 –
y -0,0587 0,0693 -0,0010 0,00120 -0,84726 0,39782 +
model 5 y 189,8673 14,93316 12,7144 0,00000 –
y -0,1688 0,0685 -0,0037 0,00151 -2,4648 0,01452 –
Legenda:
+ brak podstaw do odrzucenia hipotezy H0
– odrzucenie hipotezy H0
Źródło: opracowanie własne z wykorzystaniem programu Statistica.
Nie uzyskano jednoznacznej kwalifikacji w zakresie uznania wpływu zmiennej
środowiskowej na wyniki obiektów. W celu ograniczenia ryzyka odrzucenia zmiennej, która
mogłaby ewentualnie poprawić jakość modelu wykorzystano procedurę regresji krokowej
wstecznej, która jest często stosowana w analizach DEA. W metodzie regresji krokowej
wstecznej najpierw budowany jest model początkowy zawierający wszystkie zmienne
środowiskowe oraz określane są wartości progowe statystyki do usuwania i do wprowadzania
zmiennych do modelu, zwykle za pomocą statystyki F lub poziomu istotności p. Następnie,
w każdym kroku dla każdej zmiennej obliczane są wartości statystyk. Jeśli żadna
ze zmiennych nie da wartości mniejszej od określonej krytycznej wartość statystyki F
lub przekraczającej progową wartość p to procedura krokowa zostaje przerwana. Natomiast
w przeciwnym wypadku z modelu zostaje usunięta zmienna z najmniejszą wartością
statystyki F do usunięcia lub z największą wartością p. W wypadku doboru zmiennych
tą metodą w każdym kroku zmienne mogą być wprowadzane i usuwane z modelu, dlatego
też wartość p do wprowadzania musi być mniejsza od p do usuwania, tak aby zmienne
właśnie wprowadzone nie były natychmiast, w następnym kroku usuwane (i odwrotnie).
Analogicznie, F do wprowadzania musi być większe od F do usuwania.
225
W zastosowanej analizie przyjęto współczynniki: p do wprowadzenia 0,05,
oraz p do usunięcia 0,06 (ustawiając wartości progowe F od 3 do 4, co odpowiada w przybliżeniu
5% poziomowi istotności testu F). Wyniki analizy krokowej wstecznej zawarto w tabeli 6.18.
Tabela 6.18. Wyniki analizy regresji krokowej wstecznej
Zmienna
środowiskowa Kroki
F do
usunięcia
p do
usunięcia
F do
wprowadzenia
p do
wprowadzenia Efekt
S1 krok nr 1 2,0642 0,1523
w modelu
S2 0,0450 0,8320
usunięty
S3 0,8169 0,3671
w modelu
S4 0,7154 0,3986
w modelu
S5 7,1947 0,0079
w modelu
S1 krok nr 2 2,1485 0,1442
w modelu
S5 7,1886 0,0079
w modelu
S3 0,8574 0,3555
w modelu
S4 0,6788 0,4109
usunięty
S2
0,045068 0,832092 poza
S1 krok nr 3 1,8199 0,1788
w modelu
S5 6,9410 0,0090
w modelu
S3 0,3161 0,5745
usunięty
S4
0,678864 0,410940 poza
S2
0,005326 0,941895 poza
S1 krok nr 4 1,5804 0,2101
usunięty
S5 7,5801 0,0064
w modelu
S3
0,316176 0,574529 poza
S4
0,137155 0,711508 poza
S2
0,211617 0,645990 poza
S5 krok nr 5 6,0756 0,0145
w modelu
S1
1,580451 0,210119 poza
S3
0,071173 0,789903 poza
S4
0,017820 0,893935 poza
S2
0,014140 0,905462 poza
Źródło: opracowanie własne z wykorzystaniem programu Statistica.
Wynik uzyskano w piątym kroku. Zmienne przyjęte do modelu są zgodne
z wnioskami przedstawionymi po wykonaniu wstępnej analizy regresji. Na podstawie analiz
regresji przyjęto, że dotacja statutowa w latach 2005-2008 ma wpływ na wskaźnik
produktywności. Wprowadzenie tej zmiennej do modelu oznacza skorygowanie wyników
modelu SE-VCR-O. Do oszacowania wartości oczekiwanych, najlepsze dopasowanie
wykazał model segmentowej regresji liniowej w następującej postaci:
( ) 0,0029 228,99f x x
gdzie:
x – wskaźnik produktywności w modelu SE-VCR-O bez zmiennej środowiskowej;
y – wskaźnik produktywności uwzględniający wysokość dotacji statutowej.
226
Oceny modelu regresji do danych empirycznych dokonano na podstawie
współczynnika determinacji R2, który jest opisową miarą liniowego związku między
zmiennymi. Współczynnik determinacji przyjmuje wartości z przedziału <0;1>.
W uzyskanym modelu współczynnik R2 wynosi 0,8181, co oznacza, że model wyjaśnia
81,81% zmienności y. Podstawowe statystyki opisowe analizowanego modelu przedstawiono
w tabeli 6.19.
Tabela 6.19. Wybrane statystyki opisowe opracowanych rankingów
Statystyki opisowe
SE-VRS-O
bez zmiennej
środowiskowej
Skorygowany
model SE-VRS-O*
ze zmienną
środowiskową
Minimum 37,54 94,69
Maksimum 1000,00 228,76
Średnia 166,98 126,19
Źródło: opracowanie własne z wykorzystaniem programu Statistica.
Włączenie zmiennej o zasobach finansowych zmniejsza zróżnicowanie jednostek
naukowych. Ponadto uwzględnienie dotacji statutowej całkowicie różnicuje ranking jednostek
naukowych w stosunku do modelu bez zmiennej środowiskowej (rysunek 6.11). Jednostki
naukowe poniżej czerwonej linii, po uwzględnieniu zasobów finansowych, osiągają wyższy
wskaźnik produktywności. Oznacza to, że efektywniej wykorzystują posiadane zasoby.
Jednostki powyżej linii czerwonej, osiągają relatywnie słabsze wyniki. Z posiadanych
zasobów produkują mniej efektów w porównaniu z innymi jednostkami w grupie.
Rysunek 6.11. Porównanie rankingów modeli SE-VRS-O i skorygowanego SE-VRS-O w grupie J1
Źródło: opracowanie własne.
0
20
40
60
80
100
120
140
160
180
200
220
U44
7
U45
0
U26
3
U21
8
U25
0
U31
9
U35
U10
9
U50
0
U10
4
U65
9
U15
4
U31
7
U57
9
U60
3
U64
9
U31
6
U61
9
U16
1
U45
2
U41
0
U15
U49
3
U21
6
U12
9
U34
7
U68
3
U40
2
U18
8
U66
8
U40
U22
6
U88
U36
2
U37
8
U40
7
U37
6
U40
6
U64
3
U64
2
U57
0
U54
8
Mie
jsce
w r
an
kin
gu
DMU
Ranking SE-VRC-O Skorygowany ranking SE-VRS-O*
227
Włączenie zmiennej charakteryzującej zasoby finansowe pozwala w pełniejszy sposób
wyjaśnić poziom uzyskiwanych efektów. Potwierdza to wnioski płynące z przeglądu
literatury, że nakłady finansowe na działalność naukową determinują osiągane efekty
naukowe przez jednostki naukowe. To pokazuje, jak ważne jest uwzględnienie poziomu
finansowania w ocenie jednostek naukowych, szczególnie w wypadku, kiedy alokacja
środków finansowych uzależniona od wyników tej oceny jednostek.
6.5. Testy odporności i stabilności modeli Data Envelopment Analysis
Realizacja zadania wielowymiarowej analizy porównawczej metodą DEA jest
związana z podejmowaniem pewnych rozstrzygnięć związanych z wyborem poszczególnych
procedur na każdym jego etapie. Implikuje to bowiem rezultat analizy porównawczej.
W poprzednich podrozdziałach wskazano rozwiązania, przesłanki i uzasadnienie wyboru
zmiennych, obiektów czy modelu DEA. Zdaniem autorki, wieloetapowa analiza DEA
powinna być uzupełniona o analizę wrażliwości i stabilności na błędy i perturbacje danych.
Ma to znaczenie szczególnie w obrębie prawidłowości i niepodważalności analiz i wyników.
Zagadnienie wrażliwości i stabilności rozwiązań metodą DEA na zmianę materiału
empirycznego jest istotne i często przywoływane w literaturze przedmiotu. Badania z tego
zakresu zostały zapoczątkowane przez prekursorów metody DEA. Pierwszą analizę
wrażliwości zaproponował A. Charnes dla zmiany pojedynczego efektu34
. To zapoczątkowało
serię dalszych badań i ich publikacji. W eksperymentalnych studiach bada się zazwyczaj
stopień stabilności wyników ze względu na zmianę liczby obiektów35
, wybór analizowanych
zmiennych36
, błędy pomiaru37
, a także dobór modelu38
.
34
A. Charnes, W.W. Cooper, A.Y. Lewin, R.C. Morey, J. Rousseau, Sensitivity and stability analysis in DEA,
“Annals of Operation s Research” 1985, t. 2, s. 139-156. 35
B. Guzik, dz. cyt., s. 17-34. 36
G.R. Jahanshahloo i in., Sensitivity of efficiency classifications in the inverse DEA models, “Applied
Mathematics and Computation” 2005, t. 169, s. 905-916; P. Tyagi, S.P. Yadav, S.P. Singh, dz. cyt., s. 168-177;
K. Lee, K. Choi, Cross redundancy and sensitivity in DEA models, “Journal of Productivity Analysis” 2010, t.
34, nr 2, s. 151-165. 37
A. Mostafaee, M. Soleimani-damaneh, Identifying the anchor points in DEA using sensitivity analysis in linear
programming, “European Journal of Operational Research” 2014, t. 237, s. 383-388; W.W. Cooper, S. Li,
L.M. Seiford, J. Zhu, Sensitivity Analysis in DEA, [w:] Handbook on Data Envelopment Analysis,
W.W. Cooper, L.M. Seiford, J. Zhu (red.), Stanford University, 2011, s. 71-91; S. Singh, Multiparametric
sensitivity analysis of the additive model in data envelopment analysis, “International Transactions
in Operational Research” 2010, t. 17, s. 365-380; J. Nazarko, J. Urban, dz. cyt., s. 101-106; V. Boljunčić,
Sensitivity analysis of an efficient DMU in DEA model with variable returns to scale (VRS), “Journal
of Productivity Analysis” 2006, t. 25, s. 173-192; G.R. Jahanshahlo i in., Sensitivity and stability analysis
in DEA, “Applied Mathematics and Computation” 2005, t. 169, s. 897-904; W.W. Cooper, S. Li, L.M. Seiford,
K. Tone, R.M. Thrall, J. Zhu, Sensitivity and stability analysis in DEA: some recent developments, “Journal
of Productivity Analysis” 2001, t. 15, s. 217-246.
228
Badacz B. Guzik syntetyzuje zależności dotyczące liczby zmiennych i obiektów39
.
Przez wzrost produktywności jednostek, spowodowanej wzrostem liczby nakładów lub/i
rezultatów, otrzymywane wyniki stają się mniej zróżnicowane i model jest mniej selektywny.
Z kolei rozszerzenie zbioru obiektów ocenianych nie polepsza efektywności obiektów już
uwzględnianych. Dołączenie nowego obiektu, o ile nie okaże się on w pełni efektywny,
nie zmienia wskaźnika efektywności dotychczas ujętych jednostek. Jeżeli natomiast
dodatkowo uwzględniony obiekt jest w 100% efektywny, efektywność dotychczas ujętych
spada lub co najwyżej pozostaje na poprzednim poziomie, w zależności czy obiekt będzie
wzorował się na obiekcie wprowadzonym czy nie. Analogicznie, jak w wypadku zmiany
liczby nakładów lub/i rezultatów, wynika to bezpośrednio z wykorzystania programowania
liniowego do określenia optymalnych wag maksymalizujących efektywność*.
Szczególny typ analizy wrażliwości i stabilności i odrębne badania prowadzi się
na modelach nadproduktywności, pierwotnie zaproponowana przez A. Charnesa i innych
dla równoczesnej proporcjonalnej zmiany wszystkich nakładów i efektów40
. J. Zhu41
oraz L.M. Seiford i J. Zhu42
ten warunek zmienności złagodzili do sytuacji, w której wejścia
lub wyjścia modelu można zmienić indywidualnie i określić obszar największej stabilności.
Wymienione metody były stosowane dla zmiany danych jedynie jednostek produktywnych.
Rozszerzenie analizy na obiekty nieefektywne zastosowali J. Zhu i L.M. Seiford43
.
Wymienione metody analizy wrażliwości oparte były na założeniu wzrostu pojedynczych
lub wszystkich wejść i spadku niektórych lub wszystkich wyjść. G.R. Jahanshahloo i inni
oraz W.W. Cooper i inni rozważyli pozostałe trzy przypadki44
:
wzrost nakładów i efektów;
spadek efektów i wzrost nakładów;
spadek efektów i nakładów.
38
T. Anh, L.M. Seiford, Sensitivity of DEA to models and variable sets in a hypothesis test setting: the efficiency
of university operations, [w:] Creative and innovative approaches to the science of management, Y. Ijiri (red.),
Quorum Books, New York 1993, s. 191-208. 39
B. Guzik, dz. cyt., s. 108.
* Patrz: rozdział 5.1. 40
A. Charnes, S. Haag, P. Jaska, J. Semple, Sensitivity of efficiency classifications in the additive model of data
envelopment analysis, “International Journal of Systems Science” 1992, t. 23, s. 789-798; A. Charnes,
J. Rousseau, J. Semple, Sensitivity and stability of efficiency classifications in data envelopment analysis,
“Journal of Productivity Analysis” 1996, t. 7, s. 5-18. 41
J. Zhu, Robustness of the efficient DMUs in data envelopment analysis, “European Journal of Operational
Research” 1996, t. 90, s. 451-460. 42
L.M. Seiford, J. Zhu, Stability regions for maintaining efficiency in data envelopment analysis, “European
Journal of Operational Research” 1998, t. 108 (1), s. 127-139. 43
L.M. Seiford, J. Zhu, Sensitivity analysis of DEA models for simultaneous changes in all the data, “Journal
of the Operational Research Society” 1998, t. 49, 1998, s. 1060-1071. 44
G.R. Jahanshahloo i in., Sensitivity of efficiency, s. 897-904; W.W. Cooper, S. Li, L.M. Seiford, J. Zhu, dz.
cyt., s. 72.
229
Przypadek spadku nakładów i wzrostu efektów nie jest analizowany, ponieważ
z założenia nie wpływa na pogorszenie wyników DMU.
W wyniku różnych badań prezentowanych w literaturze, zakłada się, że metoda DEA
charakteryzuje się generalnie stosunkowo niską odpornością na błędy pomiaru. Jest to również
naturalna konsekwencja jej specyfiki – tego, że oznaczana jest względna produktywność,
a granica produktywności jest formułowana na podstawie rzeczywistych, najlepiej działających
jednostek. Dodatkowo, ponieważ DEA jest metodą nieparametryczną, stosowanie tradycyjnych
testów statystycznych, weryfikowanie hipotez, budowanie przedziałów ufności parametrów
modelu jest utrudnione. W tej sytuacji dużego znaczenia nabiera diagnostyka empiryczna
wybranego modelu przeprowadzana a posteriori45
.
Zgodnie z podejściem przyjętym w literaturze, dokonano obliczeń określających
odporność klasyfikacji jednostek produktywnych i nieproduktywnych na występowanie błędów
pomiaru w modelu nadproduktywności. Zakłócano losowo wartość zmiennych wejściowych
w grupie jednostek naukowych J1 szumem o rozkładzie normalnym , ,( , )i j i j iN , gdzie
,i j
oryginalna wartość zmiennej i-tej dla obiektu j, vi określony współczynnik zmienności
zmiennej i, a następnie dokonywano wtórnych obliczeń produktywności. Procedurę powtarzano
wielokrotnie z różnym poziomem współczynnika zmienności vi starając się określić
akceptowalny poziom błędów nienaruszający stabilności modeli.
Tabela 6.20. Podstawowe statystyki zmiennych w grupie J1
Rodzaj zmiennej Kod zmiennej Średnia x Odchylenie standardowe
Nakład X1 45,60 26,63
Zmienna środowiskowa X2 6154,15 7771,55
Efekt Y1 0,28 0,49
Efekt Y2 1563,54 1691,01
Efekt Y3 4,89 26,80
Efekt Y4 369,63 369,54
Efekt Y5 17,42 27,34
Efekt Y6 1,38 2,46
Efekt Y7 9,74 10,54
Efekt Y8 4,29 7,77
Efekt Y9 3,67 10,29
Efekt Y10 31,01 155,24
Efekt Y11 1,86 3,49
Efekt Y12 0,09 0,35
Efekt Y13 0,18 0,87
Efekt Y14 0,23 0,66
Efekt Y15 2,45 3,52
Efekt Y16 2099,31 3848,83
Efekt Y17 7766,78 30280,00
Źródło: opracowanie własne z wykorzystaniem pakietu STATISTICA.
45
R. Ramanathan, dz. cyt., s. 176.
230
Zakłócenia wprowadzono do wszystkich zmiennych, lecz z różnym natężeniem
zależnym od poziomu parametrów średniej i odchylenia standardowego. W tabeli 6.20
przedstawiono wartość statystyk opisowych zmiennych wyjściowych, wejściowych modeli
oraz zmiennych środowiskowych.
Cechy charakteryzują się wysoką zmiennością. Ustalenie jednakowych poziomów
zakłóceń dla każdej ze zmiennych miałoby nieadekwatne przełożenie na rzeczywiste wartości
przyjmowane przez zmienne, dlatego też przyjęto odpowiednio 1%, 5%, 10%, 20% oraz 30%,
wartości średniej i odchylenia standardowego danej zmiennej. Otrzymane wartości
zaprezentowano w tabeli 6.21.
Tabela 6.21. Zestawienie wartości średniej i odchylenia standardowego poszczególnych zmiennych
dla różnych poziomów zakłóceń danych w grupie J1
Kod
zmiennej
Poziom zakłóceń
1% 5% 10% 20% 30%
x x x x x
X1 0,46 0,27 0,91 0,53 1,37 0,80 2,28 1,33 4,56 2,66
X2 61,54 77,72 123,08 155,43 184,63 233,15 307,71 388,58 615,42 777,16
Y1 0,00 0,01 0,01 0,01 0,01 0,02 0,01 0,03 0,03 0,05
Y2 15,64 16,91 31,27 33,82 46,91 50,73 78,18 84,55 156,35 169,10
Y3 0,05 0,27 0,10 0,54 0,15 0,80 0,25 1,34 0,49 2,68
Y4 3,70 3,70 7,39 7,39 11,09 11,09 18,48 18,48 36,96 36,95
Y5 0,17 0,27 0,35 0,55 0,52 0,82 0,87 1,37 1,74 2,73
Y6 0,01 0,03 0,03 0,05 0,04 0,07 0,07 0,12 0,14 0,25
Y7 0,10 0,11 0,20 0,21 0,29 0,32 0,49 0,53 0,97 1,05
Y8 0,04 0,08 0,09 0,16 0,13 0,23 0,22 0,39 0,43 0,78
Y9 0,04 0,10 0,07 0,21 0,11 0,31 0,18 0,52 0,37 1,03
Y10 0,31 1,55 0,62 3,11 0,93 4,66 1,55 7,76 3,10 15,52
Y11 0,02 0,04 0,04 0,07 0,06 0,11 0,09 0,18 0,19 0,35
Y12 0,00 0,00 0,00 0,01 0,00 0,01 0,01 0,02 0,01 0,04
Y13 0,00 0,01 0,00 0,02 0,01 0,03 0,01 0,04 0,02 0,09
Y14 0,00 0,01 0,01 0,01 0,01 0,02 0,01 0,03 0,02 0,07
Y15 0,03 0,04 0,05 0,07 0,07 0,11 0,12 0,18 0,25 0,35
Y16 20,99 38,49 41,99 76,98 62,98 115,47 104,97 192,44 209,93 384,88
Y17 77,67 302,80 155,34 605,60 233,00 908,40 388,34 1514,00 776,68 3028,00
Źródło: opracowanie własne z wykorzystaniem pakietu STATISTICA.
Do wygenerowania zakłóceń wykorzystano narzędzie analizy danych Generowanie
liczb losowych należące do pakietu Analysis Toolpak programu Microsoft Excel. Następnie
obliczono produktywność jednostek w modelach SE-DEA-VRS i skorygowanym SE-DEA-
VRS* przy określonych poziomach zakłóceń zmiennych w celu zbadania ich interferencji.
Do oceny wpływu poziomu zakłóceń na klasyfikację wykorzystano analizę korelacji rang
R Spearmana, tau Kendalla oraz Gamma* dla oryginalnych oraz otrzymanych po zakłóceniu
zmiennych. Wyniki zawarto w tabeli 6.22.
* Szerzej omówiono statystyki korelacji rang w rozdziale 7.1.
231
Tabela 6.22. Stabilność rankingów DEA na perturbacje danych
Model Statystyki Poziom zakłóceń
1% 5% 10% 20% 30%
SE-DEA-VRS RSpearmana 0,99 0,97 0,91 0,85 0,73
Gamma, tau Kendalla 0,89 0,89 0,80 0,73 0,59
skorygowany
SE-DEA-VRS*
RSpearmana 0,94 0,79 0,79 0,72 0,62
Gamma, tau Kendalla 0,93 0,81 0,81 0,74 0,64
Źródło: opracowanie własne z wykorzystaniem pakietu Analysis Toolpak Microsoft Excel oraz oprogramowania
STATISTICA.
W modelu SE-DEA-VRS* produktywność oceniana jest dwuetapowo: najpierw
wykorzystywana jest metoda DEA, a następnie metoda regresji uwzględniająca zakłócenia
w zmiennej środowiskowej. W tabeli 6.22 zestawiono współczynniki korelacji dla obu etapów.
Zakłócenia zmiennych do poziomu 10% ich średniej wartości zmieniają klasyfikację
jednostek naukowych. Korelacja oryginalnego rankingu i rankingu po wprowadzeniu
zakłóceń wynosi powyżej 91%. Zakłócenia danych powyżej 20% mają większe przełożenie
na finalną pozycję. Przyjmuje się istotny poziom korelacji R Spearmana powyżej 0,6
za wysoki (zależność znaczna), powyżej 0,8 za bardzo wysoki, a wskaźnik powyżej 0,9
traktuje się jako zależność praktycznie pełną46
.
Fluktuacje korelacji wraz ze wzrostem poziomu zakłóceń wykazują pewną tendencję
rosnącą. Oznacza to, że wraz ze wzrostem amplitudy zakłóceń rankingi coraz bardziej
odbiegają od pierwotnego, jednak niedopuszczalna jest dewaluacja znaczenia zmian
jednostkowych wartości charakteryzujących pojedyncze obiekty nawet przy niskim
współczynniku zmienności na ostateczną klasyfikację.
Zbadano zatem, jak zakłócenia wpływają na zmianę kwalifikacji jednostki w obrębie
grup jednostek produktywnych i nieproduktywnych. Wyniki przedstawiono w tabeli 6.23.
Tabela 6.23. Stabilność rankingów DEA w zakresie jednostek produktywnych i nieproduktywnych
Wyszczególnienie Poziom zakłóceń
1% 5% 10% 20% 30%
nieproduktywne → produktywne 5 (6%) 4 (4%) 5 (6%) 8 (10%) 18 (20%)
produktywne → nieproduktywne 0 0 0 0 0
Źródło: opracowanie własne z wykorzystaniem pakietu Analysis Toolpak Microsoft Excel oraz oprogramowania
STATISTICA.
Okazuje się, że zakłócenia nie miały wpływu na jednostki produktywne, które
utrzymały swoją klasyfikację. Natomiast w obrębie jednostek nieproduktywnych pojawiły się
zmiany. W wyniku zakłóceń na poziomie 1-10% nieliczne jednostki osiągnęły poziom pełnej
46
A. Maksymowicz-Ajchel, Wstęp do statystyki, Wydawnictwo Uniwersytetu Warszawskiego, Warszawa 2007,
s. 175.
232
produktywności. Z obserwacji danych wynika, że były to jednostki o wyniku oryginalnym
powyżej 95% czyli znacznie zbliżonym do progu pełnej produktywności.
Wyniki przeprowadzonych symulacji polegających na pewnych zmianach materiału
empirycznego i weryfikacji stabilności uzyskiwanych wyników, zdaniem autorki,
nie pozwalają na podważenie wiarygodności pierwotnych oszacowań efektywności. Błędy
pomiaru w każdej statystycznej metodzie analizy danych w jakimś stopniu oddziałują
na wyniki. W metodzie DEA ten wpływ może być szczególnie znaczący. Jednakże
w wypadku analizowanych danych, stabilność zaproponowanego modelu można uznać
za co najmniej zadowalającą. Stwierdzona eksperymentalnie znaczna odporność wyników
na błędy i perturbacje danych jest szczególnie korzystna dla oceny modeli
nadproduktywności, co potwierdzają inne badania47
.
47
J. Zhu, Super-efficiency and DEA sensitivity analysis, ”European Journal of Operational Research” 2001, t. 129,
s. 454.
233
ROZDZIAŁ 7.
REKOMENDACJE DO METODYKI DATA ENVELOPMENT ANALYSIS
W OCENIE JEDNOSTEK NAUKOWYCH
7.1. Porównanie produktywności jednostek naukowych
System nauki można traktować jako system produkcyjny, w którym nakłady pracy
i kapitału są zużywane w celu produkcji, upowszechniania i wdrażania wiedzy. Wymiernym
efektem tego procesu są między innymi: publikacje, awanse pracowników, udział
w konferencjach naukowych, patenty, licencje, wdrożenia, zrealizowane projekty naukowo
-badawcze i inne. Do oceny produktywności tego procesu możliwe jest zastosowanie metody
DEA. W aplikacji metody DEA aspekt obliczeniowy, choć ważny, to ze względu
na możliwość zastosowania dedykowanego oprogramowania, przesuwa się na drugi plan.
Kwestią zasadniczą stają się podejmowane decyzje dotyczące wyboru zbioru ocenianych
jednostek, doboru zmiennych, klasyfikacji jednostek w grupy jednorodne, wyboru
konkretnego modelu tak, by proces ten był obiektywny i uzasadniony. Sprzyja temu
stosowanie odpowiednich metod naukowych.
W pracy dokonano oceny produktywności publicznych jednostek naukowych
w Polsce. Wstępny zbiór zmiennych obejmował dane będące podstawą oceny parametrycznej
MNiSW w latach 2005-2008 oraz dane na temat wysokości środków finansowych
na finansowanie lub dofinansowanie działalności statutowej. W wyniku zastosowania
wybranych metod statystycznych wyłoniono zestaw zmiennych niezależnych opisujących
efekty uzyskiwane przez jednostki naukowe. Zaproponowany model oceny produktywności
o dwóch nakładach i siedemnastu efektach przedstawiono na rysunku 7.1.
Rysunek 7.1. Koncepcja modelu oceny produktywności jednostek naukowych
Źródło: opracowanie własne..
DEA
SE-VCR-O
Uprawnienia do nadawania stopnia
doktora habilitowanego
Publikacje z listy JCR
Publikacje z listy ERIH
Publikacje z listy MNiSW
Redakcja czasopism
Monografie
(w języku angielskim i polskim)
Rozdziały w monografiach
(w języku angielskim i polskim)
Licencje
Patenty (krajowe i zagraniczne)
Prawo ochronne na wzór użytkowy
Liczba projektów UE
(koordynacja i udział)
Wartość umów na prace B+R
Przychody z tytułu wdrożenia prac B+R
EFEKTY
NAKŁADY
Liczba
pracowników B+R
kontrolowane
Dotacja statutowa
niekontrolowane
234
Przyjętą metodykę zastosowano odrębnie dla zdefiniowanych sześciu grup
jednorodnych jednostek naukowych*. Ze względu na rozmiar zbioru jednostek ograniczona
jest możliwość analizy indywidualnej wszystkich obiektów. Dokonano ogólnej oceny
poziomu produktywności i wskazano główne możliwości interpretacyjne modelu
na przykładzie wybranych jednostek. Syntetyczne zestawienie wyników jednostek
naukowych w poszczególnych grupach przedstawiono w tabeli 7.1.
Tabela 7.1. Zestawienie wyników oceny jednostek naukowych
Grupy jednorodne
Lp. Kryterium J1 J2 J3 J4 J5 J6
1. Liczba produktywnych
SE-VRC-O
120
(57,41%)
148
(100%)
61
(83,56%)
63
(78,75%)
60
(56,60%)
53
(81,54%)
2. Liczba nieproduktywnych
model SE-VRC-O*
89 0 12 17 46 12
3.
Liczba produktywnych
model skorygowany
SE-VRC-O*
57
(27,27%)
148
(100%)
72
(98,63%)
80
(100%)
70
(66,04%)
65
(100%)
4.
Liczba nieproduktywnych
model skorygowany
SE-VRC-O*,
w tym:
152 0 1 0 36 0
uczelnie 86 - - - 36 -
jednostki naukowe PAN 25 - - - - -
instytuty badawcze 33 - - 1 - -
inne jednostki naukowe 7 - - - - -
5. Liczba MPSS 59
(28,23%)
79
(53,38%)
45
(61,64%)
55
(68,75%)
45
(42,45%)
42
(64,62%)
6. Średnia, w tym: 126,38 140,55 157,38 152,27 141,92 171,04
uczelnie 121,64 141,00 156,35 147,46 141,30 167,38
jednostki naukowe PAN 108,14 124,97 260,45 - 136,00 175,89
instytuty badawcze 139,70 122,07 146,51 176,04 169,11 181,12
inne jednostki naukowe 178,07 - 291,58 446,08 - -
7. Mediana 95,23 106,92 113,94 117,17 100,87 117,26
8. Min 94,69 105,40 97,49 114,22 99,26 114,85
9. Max 228,76 361,26 296,57 484,16 289,80 295,91
10. Rozstęp 134,08 255,85 199,08 369,95 190,5353 181,06
11. Odchylenie standardowe 51,65 75,69 72,81 92,42 72,86 79,33
12. Współczynnik zmienności 40,87 53,85 46,26 60,70 51,10 46,33
Źródło: opracowanie własne..
Zastosowany model dostarcza szeregu możliwości analitycznych. W wyniku
zastosowanej procedury uzyskano rankingi jednostek w poszczególnych grupach
jednorodnych. Wobec interpretacji współczynników produktywności oczywista jest zasada,
że obiekt o niższym wskaźniku klasyfikowany jest na dalszym miejscu. Ponieważ większość
jednostek osiągnęła poziom co najmniej 100%, zastosowano model nadproduktywności (SE)
w celu zróżnicowania jednostek produktywnych. Wskaźnik produktywności w modelu SE
dla jednostek produktywnych unormowany jest w przedziale <1;100>, co odpowiada skali
* Wyniki pomiaru produktywności poszczególnych jednostek naukowych zawarto w aneksie, załącznik 10.
235
100-1000%. Jednostki nieproduktywne w modelu SE osiągają tę samą wartość
jak w zwykłym modelu.
Na podstawie poziomu wskaźników produktywności można sformułować pogląd,
że względna produktywność jednostek naukowych w Polsce jest dość wysoka. Większość
jednostek naukowych uzyskuje poziom pełnej produktywności. Mniej niż 30% jednostek
naukowych osiągnęło wskaźnik produktywności względnej poniżej 100%. Są to jednostki
zakwalifikowane głównie do grupy J1 i J5. Należy jednak podkreślić, że wszystkie
nieproduktywne jednostki uzyskały wynik powyżej 90% po uwzględnieniu poziomu
finansowania. Relatywnie, co czwarta jednostka naukowa uczelni osiągnęła wskaźnik
produktywności poniżej progu 100% (122 jednostki), a co trzecia jednostka PAN
(75 jednostek). Prawie 30% spośród instytutów badawczych i 70% innych jednostek
naukowych może uzyskać lepsze rezultaty naukowe przy posiadanych zasobach.
Jeśli chodzi o skalę działania, 48% wszystkich jednostek naukowych działa
w obszarze najbardziej produktywnych korzyści skali (MPSS). Są to zarówno jednostki
produktywne, jak i nieproduktywne. Oznacza to, że pozostałe jednostki nie wykorzystują
w pełni zależności ekonomii skali.
Wnosząc po współczynniku zmienności, obiekty są dość zróżnicowane. Dokonując
analizy podstawowych statystyk opisowych, zaobserwowano, że w każdej grupie wyodrębnia się
zbiór jednostek naukowych o charakterze liderów. Niewielka różnica między wartością
minimalną w grupie a medianą sugeruje, że połowa jednostek w każdej grupie uzyskuje wskaźnik
na niskim poziomie w odniesieniu do wielkości wskaźnika rozstępu w grupach. Najwyższe
różnice zachodzą w grupach J1, J3 i J6. Szczególnie wyraźnie zróżnicowanie obiektów zachodzi
w grupie J1. Świadczy o tym wysoka wartość wskaźnika rozstępu (721,92) oraz rozrzut wyników
wokół średniej (154,80). Należy pamiętać, że statystyki w poszczególnych grupach mają
charakter względny, nie są to porównywalne kategorie względem grup.
Dokonując porównania wyników modelu SE-VRC-O bez zmiennej środowiskowej
oraz modelu SE-VRC-O* uwzględniającego zasoby finansowe, można zauważyć, że wyniki
dla jednostek nieproduktywnych zasadniczo uległy poprawie. Kształtowanie się poziomu
wskaźników produktywności w poszczególnych grupach jednorodnych oraz różnice między
pierwotnym a skorygowanym modelem przedstawiono na rysunku 7.2 a-f. Na tych rysunkach
wyraźnie widać grupę jednostek naukowych „odstających” o wysokich wskaźnikach
produktywności. Dalej, duża część jednostek uzyskuje wskaźniki na zbliżonym poziomie.
236
0
100
200
300
400
500
600
700
800
900
1000U
44
7
U13
9
U21
5
U10
0
U45
U21
8
U25
7
U20
6
U20
8
U16
8
U35
U48
U58
U68
0
U47
U10
4
U66
1
U40
4
U46
U57
8
U31
7
U57
4
U39
4
U31
1
U33
U64
9
U26
2
U60
7
U21
2
U62
9
U16
1
U20
3
U34
4
U64
8
U10
2
U15
U32
8
U65
0
U45
6
U34
1
U12
9
U17
6
U14
4
U66
U28
U40
2
U21
0
U17
4
U61
7
U37
2
U40
U81
U42
6
U34
5
U18
5
U36
2
U10
7
U39
8
U51
4
U37
5
U37
6
U26
8
U56
6
U82
U83
U64
2
U47
2
U44
9
U52
2
U62
5
Wsk
aźn
ik p
rod
uk
tyw
no
ści
Jednostki naukowe w grupy J1
SE-VRS-O bez zmiennej środowiskowej skorygowany SE-VRS-O* ze zmienną środowiskową MNiSW
0
100
200
300
400
500
600
700
800
900
1000
U28
3U
52
3U
43
5U
46
7U
50
2U
67
6U
79
U34
8U
42
5U
28
2U
67
U35
3U
49
2U
45
3U
52
9U
17
3U
12
6U
28
4U
77
U17
8U
50
1U
51
1U
55
5U
45
5U
50
9U
51
7U
46
9U
13
5U
43
7U
46
2U
53
1U
18
6U
28
7U
13
0U
47
7U
44
1U
43
4U
29
0U
45
9U
47
8U
46
5U
47
1U
43
3U
56
1U
56
3U
17
9U
52
8U
47
4U
43
8U
63
0U
44
2U
46
4U
64
4U
55
7U
47
9U
44
3U
51
8U
42
7U
53
8U
44
5U
29
2U
46
3U
53
6U
46
0U
53
4U
54
0U
53
5U
43
0U
53
7U
48
1U
56
7U
46
6U
48
2U
29
1
Wsk
aźn
ik p
rod
uk
tyw
no
ści
Jednostki naukowe z grupy J2
SE-VRS-O bez zmiennej środowiskowej skorygowany SE-VRS-O* ze zmienną środowiskową MNiSW
a)
b)
236
237
0
100
200
300
400
500
600
700
800
900
1000
1100
1200
1300
1400
U2
86
U4
2U
41
6U
21
3U
49
9U
73
U9
3U
23
2U
51
6U
19
3U
20
4U
90
U5
2U
24
2U
21
1U
23
0U
43
U3
03
U9
1U
98
U2
31
U1
95
U1
94
U2
14
U2
21
U5
05
U1
25
U5
04
U1
19
U2
02
U5
10
U1
18
U2
17
U7
5U
14
8U
30
7U
35
0U
23
7U
19
6U
12
1U
16
2U
12
0U
20
0U
11
6U
32
6U
19
9U
25
9U
23
5U
29
9U
96
U9
5U
24
4U
26
1U
97
U2
01
U1
98
U9
4U
14
7U
92
U2
60
U2
58
U2
33
U2
38
U2
07
U4
4U
15
2U
14
9U
11
5U
24
9U
19
2U
15
0U
23
4U
24
7
Wsk
aźn
ik p
rod
uk
tyw
no
ści
Jednostki naukowe w grupie J3
SE-VRS-O bez zmiennej środowiskowej skorygowany SE-VRS-O* ze zmienną środowiskową MNiSW
0
100
200
300
400
500
600
700
800
900
1000
U4
88
U4
75
U5
6U
22
4U
20
5U
60
U1
82
U4
9U
24
6U
57
U5
95
U1
66
U5
89
U5
98
U6
27
U5
92
U5
73
U5
87
U5
90
U1
69
U5
69
U5
91
U6
00
U1
64
U6
1U
18
0U
37
U5
68
U3
55
U5
94
U6
72
U5
93
U3
39
U3
57
U5
71
U1
56
U2
52
U5
97
U5
15
U1
28
U1
75
U6
18
U5
88
U3
56
U5
99
U5
30
U3
59
U6
15
U6
8U
25
3U
25
1U
35
1U
50
8U
35
2U
35
4U
34
3U
59
6U
36
0U
14
2U
64
0U
13
6U
18
4U
58
6U
61
6U
13
8U
62
4U
37
7U
51
9U
85
U8
7U
14
6U
48
9U
63
7U
54
5U
67
7U
63
4U
48
4U
63
5U
56
5U
63
3
Wsk
aźn
ik p
rod
uk
tyw
no
ści
Jednostki naukowe z grupy J4
SE-VRS-O bez zmiennej środowiskowej skorygowany SE-VRS-O* ze zmienną środowiskową MNiSW
c)
d)
237
238
Rysunek 7.2. Porównanie poziomu wskaźników produktywności w modelach DEA oraz MNiSW w poszczególnych grupach jednorodnych
Źródło: opracowanie własne.
0
100
200
300
400
500
600
700
800
900
1000
U49
8
U61
3
U19
7
U49
7
U31
5
U32
1
U41
4
U41
3
U18
1
U15
8
U99
U38
3
U41
5
U51
U58
3
U60
2
U22
U31
2
U16
5
U41
7
U29
U66
3
U9
U39
5
U36
7
U58
5
U66
4
U16
3
U39
7
U11
U39
U38
8
U8
U34
2
U32
4
U38
1
U68
1
U32
9
U36
5
U32
U36
6
U61
4
U61
0
U60
6
U60
5
U67
0
U60
9
U27
5
U27
4
U42
4
U36
U46
8
U55
0
Wsk
aźn
ik p
rod
uk
tyw
no
ści
Jednostki naukowe w grupie J5
SE-VRS-O bez zmiennej środowiskowej skorygowany SE-VRS-O* ze zmienną środowiskową MNiSW
0
100
200
300
400
500
600
700
800
900
1000
U6
51
U5
72
U2
43
U3
02
U1
57
U1
3U
5U
1U
31
U5
5U
10
3U
33
3U
38
4U
54
U6
2U
10
5U
12
3U
30
8U
47
6U
47
3U
13
1U
30
1U
65
3U
38
7U
38
9U
3U
24
1U
39
3U
60
4U
36
3U
2U
30
0U
65
4U
17
U5
3U
18
7U
66
0U
14
U7
4U
24
U2
6U
66
5U
31
0U
49
6U
50
U1
60
U3
34
U1
40
U1
22
U3
61
U3
37
U1
43
U3
09
U1
37
U1
41
U1
34
U6
78
U4
85
U4
48
U4
90
U6
47
U4
86
U4
91
U6
45
U5
43
Wsk
aźn
ik p
rod
uk
tyw
no
ści
Jednostki naukowe z grupy J6
SE-VRS-O bez zmiennej środowiskowej skorygowany SE-VRS-O* ze zmienną środowiskową MNiSW
e)
f)
243
238
239
Zaobserwować można, jak poziom finansowania wpływa na osiągane wyniki.
Z obserwacji wyodrębniających się podgrup względem wskaźnika produktywności, można
sformułować ogólne twierdzenie, że poziom finansowania determinuje poziom rezultatów
naukowych. W pewnych więc okolicznościach może stanowić również czynnik ograniczający
rozwój jednostki naukowej.
Uwzględnienie poziomu finansowania zróżnicowało rankingi we wszystkich grupach.
Do oceny tego zróżnicowania zastosowano analizę korelacji rang, czyli analizę zależności
między zmiennymi wyznaczoną dla pozycji przypadków w rankingach. Popularne
współczynniki korelacji rang to R Spearmana, tau Kendalla oraz Gamma.
Współczynnik R Spearmana, podobnie jak współczynnik korelacji Pearsona, należy
rozumieć jako miarę wyjaśnianej zmienności. Współczynnik tau Kendalla to miara zależności
między zmiennymi obliczana według wzoru (7.1)1:
ZR NRT
R
(7.1)
gdzie:
ZR – liczba par obserwacji, takich że relacje wartości obu zmiennych są takie same, tzn. tzn. jeśli wartość
pierwszej zmiennej dla pierwszej obserwacji jest większa od wartości tej zmiennej dla drugiej obserwacji,
to wartość drugiej zmiennej dla pierwszej obserwacji jest również większa od jej wartości dla drugiej
obserwacji
NR – liczba par obserwacji, takich że relacje wartości obu zmiennych są przeciwne do ZR, tzn. jeśli wartość
pierwszej zmiennej dla pierwszej obserwacji jest mniejsza od wartości tej zmiennej dla drugiej obserwacji,
to wartość drugiej zmiennej dla pierwszej obserwacji jest również mniejsza od jej wartości dla drugiej
obserwacji
R – łączna liczba par
Współczynnik tau Kendalla, w swoich założeniach, odpowiada współczynnikowi
R Spearmana. Dotyczy to również ich statystycznej mocy. Jednakże wielkości obu
współczynników zwykle nie pokrywają się, gdyż ich podstawy logiczne oraz formuły
obliczeniowe różnią się. Zależność pomiędzy tymi dwoma miarami wyrażają w postaci
nierówności:
1 3* 2* 1tauKendalla RSpearmana (7.2)
Współczynniki te posiadają różną interpretację. Współczynnik R Spearmana wyjaśnia
procent zmienności, z kolei współczynnik tau Kendalla odnosi się do różnicy między
prawdopodobieństwem tego, że dwie zmienne układają się w tym samym porządku w obrębie
obserwowanych danych, a prawdopodobieństwem, że ich uporządkowanie się różni.
Założenia dla współczynnika Gamma są takie jak dla R Spearmana i tau Kendalla,
natomiast pod względem interpretacji i obliczeń statystyka gamma jest bardziej podobna do tau
Kendalla. Współczynnik Gamma wyznacza się jako różnicę między prawdopodobieństwem,
1 A. Zeliaś, Metody statystyczne, Polskie Wydawnictwo Ekonomiczne, Warszawa 2000, s. 84-95.
240
że uporządkowanie dwóch zmiennych jest zgodne, a prawdopodobieństwem, że jest niezgodne,
podzieloną przez (1 prawdopodobieństwo występowania obserwacji powiązanych). Wartości
współczynników dla poszczególnych grup zawarto w tabeli 7.2. Wartości statystyk tau
Kendalla i Gamma pokrywają się.
Tabela 7.2. Korelacje rang rankingów w grupach jednorodnych
Korelacje rang Grupy jednorodne
J1 J2 J3 J4 J5 J6
R Spearmana 0,32 0,66 0,75 0,43 0,66 0,66
uczelnie -0,29 0,66 0,65 0,40 0,67 0,67
jednostki naukowe PAN 0,16 0,50 - - 0,61 0,76
instytuty badawcze 0,54 - 0,72 - 0,83 0,76
inne jednostki naukowe 0,23 - - - - -
tau Kendalla, Gamma 0,22 0,48 0,55 0,31 0,46 0,45
uczelnie 0,16 0,48 0,49 0,29 0,49 0,47
jednostki naukowe PAN 0,11 0,33 - - 0,44 0,56
instytuty badawcze 0,38 - 0,54 - 0,73 0,57
inne jednostki naukowe -0,05 - - - - -
Zależność między statystykami 0,02 0,12 0,15 0,07 0,06 0,03
Legenda: kolorem czerwonym oznaczono współczynniki o poziomie istotności 0,05.
Źródło: opracowanie własne. z wykorzystaniem programu Statistica.
Istotna zgodność rankingów zachodzi w grupie J3 przy współczynniku R Spearmana
wynoszącym 0,75. Statystyki tau Kendalla i Gamma są zgodne z wynikami R Spearmana
względem zależności (7.2) na poziomie od 0,02 do 0,15. Oznacza to, że poziom finansowania
ma silny wpływ na uzyskiwane rezultaty naukowe i ranking jednostek naukowych.
Na rysunku 7.2, do celów poglądowych zamieszczono wskaźniki MNiSW. Procedura
MNiSW w roku 2010 nie uwzględniała relatywnych wskaźników, lecz bezpośrednie, wobec
czego klasyfikacja MNiSW do grup jednorodnych nie miała wpływu na uzyskiwany
współczynnik efektywności. Można zauważyć znaczne różnice w wynikach rankingu
MNiSW i rankingu autorki.
Oceniając jednak średni poziom efektywności MNiSW jednostki naukowe szkół
wyższych generalnie uzyskiwały najniższe wskaźniki, zarówno globalnie (tabela 7.3),
jak i w poszczególnych zestawieniach w grupach jednorodnych (rysunek 7.3a). W modelu
DEA, gdzie wagi poszczególnych zmiennych są zróżnicowane i dostosowane do każdej
jednostki odrębnie (przy pewnych ograniczeniach), poziom jednostek naukowych uczelni jest
bardziej zróżnicowany.
Tabela 7.3. Średnie wskaźniki produktywności DEA i efektywności MNiSW według rodzaju jednostek
naukowych
Rodzaj jednostek naukowych MNiSW DEA
Inna jednostka naukowa 184,65 193,55
Instytut badawczy 162,74 175,71
Jednostka naukowa PAN 101,90 141,22
Uczelnia 56,02 151,28
Źródło: opracowanie własne..
241
Rysunek 7.3. Średni poziom wskaźnika efektywności MNiSW według rodzaju jednostki naukowej
Źródło: opracowanie własne..
Ważną korzyścią przeprowadzonej analizy metodą DEA jest możliwość określenia
formuły benchmarkingowej obiektów, w celu określenia najlepszych praktyk, ustalenia
kryteriów poprawy funkcjonowania i mierzenia postępów. Formuła benchmarkingowa
wskazuje wzorcowe obiekty odniesienia oraz określa poziom natężenia tych relacji, w celu
wyznaczenia technologii optymalnej. Technologia optymalna obiektu nieproduktywnego j jest
kombinacją technologii empirycznych poszczególnych obiektów produktywnych będących
wzorcami dla jednostki j. Tę kombinację konstruuje się z punktu widzenia
zmaksymalizowania efektów danej jednostki naukowej przy określonym poziomie
zatrudnienia i poziomu dotacji statutowej. Technologią optymalną jednostki produktywnej
jest jej technologia empiryczna*.
* Patrz: rozdział 5.1.
0
50
100
150
200
250
300
350
400
G1 G2 G3 G4 G5 G6 G7 G8 N1 N2 N3 N4 N5 N6 N7a N7b N8 N9 N10 N11 N13 N15
Śre
dn
i w
ska
źnik
efek
tyw
no
ści
MN
iSW
Grupy jednorodne MNiSW (2010)
Inna jednostka naukowa Instytut badawczy Jednostka naukowa PAN Uczelnia
a)
0
50
100
150
200
250
300
350
400
450
J1 J2 J3 J4 J5 J6
Śre
dn
i w
ska
źnik
pro
du
kty
wn
ośc
i D
EA
Grupy jednorodne w badaniach autorki Inna jednostka naukowa Instytut badawczy Jednostka naukowa PAN Uczelnia
b)
1353,25
242
W modelach klasycznych DEA formułę benchmarkingową wyznacza się dla jednostek
nieproduktywnych. W modelach nadproduktywności możliwe jest wskazanie możliwości
dalszej poprawy także dla obiektów produktywnych.
Porównując technologię optymalną i empiryczną otrzymuje się wskaźnik
produktywności * (
* ). W celu ustalenia technologii docelowej obiektów nieproduktywnych,
tj. wektorów nakładów i rezultatów zapewniających stuprocentową efektywność, można
proporcjonalnie zredukować wszystkie nakłady do poziomu oszacowanej * -krotności
obecnych, utrzymując dotychczasowe rezultaty lub * -krotnie proporcjonalnie zwiększyć
rezultaty, utrzymując dotychczasowe nakłady. Można też wykorzystać technologię
optymalną, którą określają wartości wag λj występujące we wzorach modeli DEA.
Oszacowane optymalne wartości wag λj definiują, które obiekty i z jaką krotnością ich wektor
nakładów i rezultatów tworzą technologię optymalną nieproduktywnego obiektu j.
Na podstawie tej informacji oszacować można nadwyżki nakładów lub/i niedobory
rezultatów, które występują w obiekcie nieproduktywnym. Technologię optymalną
wybranych jednostek naukowych w grupie J5 zawarto w tabeli 7.4.
Tabela 7.4. Technologia docelowa jednostek nieproduktywnych oparta na technologii optymalnej
wybranych jednostek z grupy J5
Technologia docelowa
Różnica między technologią optymalną
a empiryczną (%)
DMU U30 U21 U4 U414 U613 U30 U21 U4 U414 U613
Score 93,52 117,36 127,66 1000 1000 - - - -
Y1 1,07 1,9 2,35 1 0,1 47,37% 6,54% -27,66% 0,00% 0,00%
Y2 8700,45 11567,86 7100,02 32 851,5 -17,36% 6,48% -27,66% 0,00% 0,00%
Y3 0,11 0,1 0,1 625 0,1 0,00% 9,09% 0,00% 0,00% 0,00%
Y4 0,21 0,68 241,68 81 120 85,29% 52,38% 99,96% 0,00% 0,00%
Y5 19,46 39 20,62 58 0,1 -12,82% 99,49% 99,52% 0,00% 0,00%
Y6 0,11 5,15 0,67 0,5 0,1 98,06% 9,09% 85,07% 0,00% 0,00%
Y7 0,11 0,1 3,15 26 0,1 0,00% 9,09% 96,83% 0,00% 0,00%
Y8 0,11 0,1 0,1 10 2 0,00% 9,09% 0,00% 0,00% 0,00%
Y9 0,11 0,1 5,87 0,1 16 0,00% 9,09% 98,30% 0,00% 0,00%
Y10 3,57 334,39 632,06 0,1 0,1 99,97% 97,20% 93,48% 0,00% 0,00%
Y11 12,61 65 75,2 0,1 22 69,23% 36,56% -27,66% 0,00% 0,00%
Y12 3,11 0,85 0,78 0,1 3 -17,65% 67,85% -28,21% 0,00% 0,00%
Y13 0,11 1,12 0,57 0,1 0,1 91,07% 9,09% 82,46% 0,00% 0,00%
Y14 0,11 0,85 0,29 0,1 0,1 88,24% 9,09% 65,52% 0,00% 0,00%
Y15 10,41 13,63 5,48 0,1 0,1 -17,39% 99,04% -27,74% 0,00% 0,00%
Y16 1424,01 6529,59 4656,8 0,1 0,1 88,06% 57,88% 39,54% 0,00% 0,00%
Y17 413,27 3891,92 4009,79 0,1 0,1 100,00% 99,98% 100,00% 0,00% 0,00%
Źródło: opracowanie własne.
Technologia docelowa nieproduktywnej jednostki naukowej U30 sugeruje niedobór
rezultatów Y1, Y4, Y6, Y10, Y11, Y13, Y14, Y16 i Y17 oraz nadwyżki rezultatów Y2,Y5, Y12
i Y15. Wartość niedoborów i nadwyżek została wyrażona w procentach. W jej technologii
optymalnej poziom zmiennych Y7, Y8 i Y9 jest taki sam.
243
Obiekty U21 i U4 to jednostki produktywne, które osiągnęły wskaźnik produktywności
powyżej 100%, lecz poniżej 1000%. Mogą one poprawić swoje wyniki względem innych
jednostek produktywnych. Dla jednostki U21 wskazano obszary i zakres poprawy, natomiast
dla jednostki naukowej U4 wskazano również pewne nadwyżki w obszarze efektów Y1, Y2,
Y11, Y12 i Y15. Obiekty U414 i U613 to liderzy w swojej grupie o produktywności
na poziomie 1000%.
Korzystając z optymalnych wartości wag λj można utworzyć też graf benchmarkingu
dla wszystkich obiektów (rysunek 7.4).
Rysunek 7.4. Graf benchmarkingowy grupy J5
Źródło: opracowanie własne. z wykorzystaniem oprogramowania Gephi 0.8.2.
Przedstawione na rysunku 7.4 obiekty oznaczone kolorem czerwonym
i pomarańczowym są w pełni produktywne. Z uwagi na znaczną liczbę obiektów w grupie J5,
szczegóły relacji w grafie benchmarkingowym przedstawiono na rysunku 7.5 dla wybranych
obiektów wskazanych w tabeli 7.4.
obiekty nieproduktywne (Pj <100)
obiekty produktywne (1000> Pj >100)
obiekty produktywne (Pj=1000)
244
Rysunek 7.5. Graf benchmarkingowy wybranych obiektów z grupy J5
Źródło: opracowanie własne. na podstawie B. Guzik, Podstawowe modele DEA w badaniu efektywności
gospodarczej i społecznej, Wydawnictwo Uniwersytetu Ekonomicznego, Poznań 2009, s. 79.
Na rysunku 7.5 strzałka pokazuje kierunek pożądanego imitowania i biegnie
od obiektów wzorujących się do wzorcowego. Nad strzałkami umieszczono optymalne wagi λj.
Jednak ich absolutna wartość nie powinna być interpretowana jako skala wzorowania,
gdyż zależy od wymiaru nakładów i rezultatów w ocenianym obiekcie. Żeby ustalić udział
poszczególnych obiektów wzorcowych w tworzeniu technologii optymalnej należy określić
strukturę technologii docelowej. Na podstawie grafu odnotować można, że dominującymi
obiektami wzorcowymi w grupie J5 są jednostki naukowe U414 i U613 oraz U220, U386, U21,
U395, U413, U613 i U418. Są to jednostki występujące najczęściej jako obiekty wzorcowe.
Natomiast jednostki U165, U18, U274, U29, U318, U400, U585 mimo pełnej produktywności,
nie są wzorcem dla innych. Intensywność benchmarkingu rozumiana jest jako liczba obiektów
w technologiach optymalnych. W grupie J5 maksymalnie wynosi 10 obiektów wzorcowych,
najczęściej 6-7. Strukturę technologii optymalnej wyznacza na podstawie sumy wektorów
nakładów i rezultatów obiektów wzorcowych pomnożonych przez odpowiadające im wartości
współczynnika λj. Najsilniej oddziałujące benchmarki mają najwyższy współczynnik λj
w poszczególnych technologiach optymalnych. Przykładowo dla obiektu U30 (Wydział Chemii
Uniwersytetu Łódzkiego) obiektami wzorcowymi są głównie jednostki U12 (Instytut Chemii
U220
U151
U12
U4
U30
U388 U414
U6
U21
U6
U386
U613
U497
U550
U670
U9
U663
245
Organicznej PAN), U21 (Wydział Chemii Uniwersytetu Wrocławskiego) oraz U4 (Wydział
Chemiczny Politechniki Warszawskiej). Na rysunku 7.4. jednostka U4 ma wskazane relacji
w kierunku trzech innych obiektów. Ponieważ wszystkie te obiekty są produktywne, obiekty
te nie są benchmarkami, lecz jednostkami konkurującymi.
Ocena produktywności metodą DEA, umożliwia również na wskazanie konkurentów
technologicznych obiektów. W modelach nadproduktywności, banchmarki jednostek
produktywnych są ich konkurentami technologicznymi. Dla obiektów nieproduktywnych,
rozwiązując model DEA, sformułowany z wykluczeniem obiektów produktywnych
określonych w pełnym modelu, które stanowiąc wzór do naśladowania, nie mogą być
jednocześnie konkurentami, można określić rywali technologicznych. Konkurentem danego
obiektu będą te obiekty, które w zawężonym modelu DEA tworzą jego technologię optymalną.
Odrzuca się zatem jednostki, które uzyskały pełną produktywność na pierwszym poziomie
(ang. first level best-practice)2. Na drugim i kolejnych poziomach analizy wyznacza się
konkurentów technologicznych pozostałych obiektów. Konkurentów w obrębie obiektów
nieproduktywnych zestawiono w tabeli 7.5.
Tabela 7.5. Konkurenci technologiczni jednostek nieproduktywnych z grupy J5
Kod jednostki Konkurenci technologiczni
U20 U25 U390 U106 U364 U23 U16 U580 U601 U11
U30 U25 U390 U106 U16 U580 U11
U370 U390 U106 U396 U16 U580 U424
U399 U25 U390 U106 U16 U580 U11
U401 U25 U390 U602 U106 U16 U580
U408 U390 U106 U364 U396 U16 U580 U601 U424
U605 U25 U390 U106 U16 U580 U36
U606 U25 U390 U106 U16 U580 U36
U609 U25 U602 U106 U32 U364 U580 U275 U11
U610 U25 U106 U39 U16 U580 U11 U614
U667 U397 U25 U106 U281 U69 U16 U580 U11 U614
Źródło: opracowanie własne. z wykorzystaniem programu Frontier Analyst w wersji 4.0.10.
Przykładowo dla obiektu U30, największymi konkurentami technologicznymi
są obiekty U390 (Instytut Niskich Temperatur i Badań Strukturalnych PAN), U25 (Wydział
Chemii Uniwersytetu Jagiellońskiego) oraz U16 (Wydział Technologii Chemicznej
Politechniki Poznańskiej). Obiekty U16, U25, U106, U390, U580 są konkurentami z różnym
natężeniem λj dla większości obiektów.
2 J. Zhu, dz. cyt., p. 115.
246
7.2. Aplikacja metody Data Envelopment Analysis w ocenie jednostek naukowych
Współczesne systemy wartościowania nauki są zorientowane na osiąganie rezultatów
praktycznych. Powiązanie poziomu finansowania z oceną przydatności badań wywołało silną
presję na przyspieszenie procesu badawczego. Społeczna użyteczność nauki nie może być
jednak traktowana tylko z punktu widzenia doraźnych efektów ekonomicznych, jakie może
przynieść zastosowanie wyników badań. Zadaniem nauki jest zapewnienie ciągłości rozwoju
społeczeństwa, a w konsekwencji prognozowanie rozwoju społeczeństwa i przyszłych potrzeb
na informację naukową3. W tym celu nauka ma prawo wytwarzać informację naukową
również na własny użytek w postaci badań podstawowych. Często trudno określić, czy i kiedy
wyniki te będą przydatne. Ocena wyników badań naukowych powinna zatem uwzględniać
i zachować proporcje między ilością informacji wytworzonej przez naukę na użytek
wewnętrzny a ilością informacji przekazanej odbiorcom zewnętrznym i tam zastosowane
w praktyce. Proporcja ta zależna jest jednak od dziedziny nauki i etapu jej rozwoju. Można
zaobserwować, że w początkowym okresie następuje rozwój ukierunkowany na potrzeby
wewnętrzne: gromadzenie obserwacji, formułowanie teorii i instrumentarium badawczego.
Dalej następuje okres praktycznych zastosowań zdobytej wiedzy i pewnego zwrotu inwestycji
w naukę. Prawidłowy rozwój nauki wymaga podjęcia pewnej strategii badań naukowych,
która uwzględniałaby zarówno potrzeby bieżące, jak i przyszłe. Jednym z istotnych narzędzi
definiowania strategii i jej realizacji jest odpowiednio skonstruowany system oceny badań
naukowych, który dostarczy zarówno informacji o poziomie realizowanych zadań,
jak i będzie stymulował pożądane kierunki rozwoju. Odpowiedni zakres kryteriów i metodyka
powinny sprzyjać stosowaniu zasady precyzyjnego określania kompetencji poszczególnych
elementów strukturalnych instytucji naukowych.
Autorka zaproponowała adaptację koncepcji produktywności nauki i model ilościowy
oceny i analizy produktywności jednostek naukowych oparty na metodzie Data Envelopment
Analysis. Wykorzystanie metody DEA, nowego na gruncie polskim narzędzia pozwalającego
na ocenę produktywności nauki, miałoby większą wartość użytkową, gdyby pomiar odbywał
się systematycznie. Oprócz ustalenia bieżącej produktywności opartej na metodzie DEA,
ewaluacji można byłoby wówczas poddać wpływ zmian w systemie nauki na ogólne
tendencje oraz na stałość pozycji poszczególnych jednostek w rankingach. Regularnie
monitorowanie nakładów i wyników osiągniętych przez jednostkę naukową w czasie,
mogłoby także doprowadzić do wskazania właściwych kierunków zmian w systemie nauki.
3 W. Leszek, B. Wojciechowicz, Analiza pewnych możliwości podniesienia efektywności badań naukowych,
Politechnika Poznańska, Poznań 1975, s. 8-9.
247
Podejmowanie decyzji na podstawie analiz ponawianych w dłuższym czasie, a nie w jednym
okresie, jest dużo bardziej właściwe. Pojedyncza zaobserwowana sytuacja może mieć
przyczynę w niezwykłym splocie okoliczności, które nie pojawią się ponownie. Jednak, gdy
wyniki utrzymują się przez kilka okresów, ryzyko przypadkowości maleje. Warunkiem
wyjścia zastosowania metody DEA poza ramy jednorazowego pilotażowego projektu, jest
zaimplementowane analitycznych narzędzi metody DEA wewnątrz systemu informacyjnego
regularnie zbierającego, przetwarzającego i raportującego dane o ponoszonych nakładach
oraz osiągnięciach jednostek naukowych. Opracowany przez autorkę proces systematycznej
oceny produktywności jednostek naukowych przedstawiono na rysunku 7.6.
Rysunek 7.6. Proces systematycznej oceny produktywności z zastosowaniem metody DEA
Źródło: opracowanie własne.
Projektowanie ewaluacji i oceny instytucjonalnej rozpoczyna się od określenia
założeń, zdefiniowania celów i sprecyzowania jej funkcji. Ma to odniesienie do założeń
polityki naukowej, cyklu polityki naukowej i powiązań z innymi instrumentami polityki
naukowej. W kontekście tych działań następuje rozpoznanie zasobów informacyjnych
oraz ustalenie roli grup interesariuszy na różnych etapach ewaluacji. Sprecyzowanie zasad
systemu ewaluacji obejmuje ustalenie ram czasowych i metodologicznych ewaluacji.
Drugi etap proponowanego procesu to pozyskanie danych o jednostkach naukowych
oraz o poziomie finansowania blokowego na działalność naukową.
Projektowanie
Pozyskanie danych
Weryfikacja danych
Specyfikacja statystyczna zmiennych
Klasyfikacja statystyczna obiektów
Konstrukcja modelu DEA
Weryfikacja modelu
Ocena produktywności jednostek naukowych
Interpretacja wyników
Sformułowanie rekomendacji
Komunikacja wyników
Monitorowanie postępów
248
W Polsce zauważyć można brak konsultacji środowiskowych w zakresie doboru
kryteriów oceny jednostek naukowych. Przykładem dobrej praktyki w tym aspekcie jest
Wielka Brytania. Istotne jest zaangażowanie wielu interesariuszy w celu konstrukcji arkusza
danych i określenia możliwie szerokiego zestawu efektów działalności naukowej. Zdaniem
autorki, ocena jednostek naukowych nie musi odzwierciedlać społeczno-gospodarczych celów
państwa, ponieważ te są kontrolowane w procesie alokacji środków konkursowych. Zgodnie
z koncepcją produktywności, powinno się gromadzić możliwie obszerną wstępną listę
zmiennych, które mogą okazać się znaczące i uwzględniać w tym zakresie wszelkie efekty
naukowe (artefakty naukowe lub usługi), które mają pewną wartość (niekoniecznie określoną
jawnie) wynikające z działalności jednostki naukowej4. Ważne jest dążenie do osiągnięcia
pewnej równowagi pomiędzy jednolitością kryteriów a ich zróżnicowaniem ze względu
odmienności dyscyplin oraz specyfikę poszczególnych typów jednostek.
Innym ważnym aspektem jest porównywalność danych, której sprzyja stosowanie
parametrów ilościowych, ale odnoszących się do jakiegoś systemu jakości. Przykładowo
jest to liczba habilitacji, publikacje w czasopismach recenzowanych, cytowania, wartość
realizowanych projektów naukowo-badawczych. Porównywalność danych jest również
istotna z punktu widzenia porównywania wyników. Produktywność nauki może być mierzona
w sposób statyczny w odniesieniu do benchmarków, czyli jednostek naukowych wzorcowych,
i dynamiczny przez analizę zmian w czasie. Analiza zmian w czasie pozwala porównać
zmiany wskaźnika produktywności oraz zidentyfikować strukturę tych zmian.
Autorka uważa, że zaproponowany model można wzbogacić o dodatkowe zbiory
danych i odpowiednią ich analizę. Z przeglądu literatury i doświadczeń międzynarodowych
w zakresie oceny jednostek naukowych wynika, że istotne zmienne charakteryzujące
jednostki naukowe to między innymi:
liczba pracowników na poszczególnych stanowiskach (nakład);
liczba habilitacji (efekt);
liczba przewodów doktorskich i uzyskanych doktoratów w jednostce i poza nią (efekt);
referaty i publikacje konferencyjne rejestrowane we wskazanych bazach bibliograficznych
(efekt);
zagraniczna i międzynarodowa współpraca w zakresie publikacji, konferencji
i pozyskiwania funduszy zewnętrznych (efekt);
4 R.D. Banker, W.W. Cooper, Validation and generalization of DEA and its uses, “Top” 1994, t. 2, nr 2, s. 249.
249
najważniejsze przejawy uznania dla pracowników naukowych (nagrody i wyróżnienia
naukowe, zaproszenia do podejmowania największych konferencji, działalność
organizacji konferencji, redaktorstwo, członkostwo akademii) (efekt);
dane o społecznym wymiarze i wpływie działalności naukowej na poziomie lokalnym,
regionalnym, krajowym i międzynarodowym (efekt);
krajowe i zagraniczne staże naukowe pracowników, wizyty naukowe w kraju i za granicą,
wizyty naukowców z kraju i zagranicy (efekt);
udział pracowników jednostki naukowej w kształceniu na I, II i III stopniu (zmienna
środowiskowa).
Im szerszy wstępny zakres danych, tym większe możliwości analityczne. Dobrą
praktyką jest wymóg opracowywania raportu samooceny jednostki naukowej, w którym
corocznie jednostka może wskazać dodatkowe osiągnięcia istotne z perspektywy jej
działalności i uwarunkowań (Holandia, Wielka Brytania).
Zdaniem autorki, jednym z ważniejszych aspektów oceny jednostek naukowych jest
odniesienie się do poziomu finansowania. Należy jednak uwzględnić pełną kwotę dotacji
na badania. W Polsce, oprócz dotacji na finansowanie lub dofinansowanie działalności
statutowej, jednostki naukowe otrzymują z MNiSW5:
– dotacje na badania własne;
– dotacje na utrzymanie potencjału badawczego;
– dotacje na finansowanie utrzymania specjalnych urządzeń badawczych;
dotacje na finansowanie zadań z zakresu działalności upowszechniającej naukę;
dotacje na finansowanie współpracy naukowej z zagranicą;
– dotacje na badania wspólne sieci naukowej;
– dotacje na finansowanie działalności polegającej na prowadzeniu badań naukowych
lub prac rozwojowych oraz zadań z nimi związanych, służących rozwojowi młodych
naukowców oraz uczestników studiów doktoranckich;
inne dotacje celowe.
Ponadto, uwzględnić należałoby dotacje na naukę z innych ministerstw oraz inne
nakłady, które w koncepcji produktywności rozumiane są jako wszelkie zasoby jednostek
naukowych, które uznaje się, że mają pewną wartość (niekoniecznie określoną jawnie)
w produkcji jednego lub więcej rezultatów naukowych. Kluczowe w tym zakresie jest
5 MNiSW, Akty prawne, www.bip.mnisw.gov.pl [27.11.2014].
250
systematyczne gromadzenie rzetelnych, jednorodnych i wiarygodnych danych. Systematyczne
podejście ułatwia ich weryfikację.
Kolejnym etapem w procesie oceny jednostek naukowych jest analiza statystyczna
zbioru danych. W dotychczasowej ocenie MNiSW zauważyć można brak analizy właściwości
statystycznych danych. Zmienne skorelowane prowadzą do niewłaściwych proporcji
zmiennych w ocenie i zafałszowują obraz o rzeczywistej działalności jednostek naukowych.
Natomiast decyzje o wyborze zmiennych do oceny produktywności wymagają umocowania
na podstawach empirycznych. Konieczna jest głęboka analiza do zrozumienia
współzależności między różnymi metrykami, które będą również wyjaśniały przyczyny,
skutki i implikacje decyzji polityki naukowej. Dostęp do właściwych, dokładnych
i aktualnych informacji oraz oparta na metodach naukowych analiza danych stanowi
pożądane uzasadnienie decyzji wyboru kluczowych charakterystyk oceny produktywności
jednostek naukowych i wspiera kreowanie akceptacji kryteriów w środowisku naukowym.
Szczególnie oryginalnym podejściem jest zaproponowanie na kolejnym etapie
statystycznej klasyfikacji jednostek naukowych w grupy jednorodne. Dotychczasowa
klasyfikacja grup jednorodnych, zarówno arbitralna, jak i oparta na deklaracjach jednostek
naukowych, nie zapewniała dostatecznej separowalności grup jednorodnych. Nazwy
podmiotów oraz ich struktura nie wskazują jednoznacznie specyfiki jednostki*. Zastosowanie
właściwych metod statystycznych pozwala na przeprowadzenie analizy porównawczej
obiektów faktycznie jednorodnych pod względem struktury technologii produkcji.
W dalszej kolejności następuje wybór zmiennych, dobór modelu i jego orientacji.
Określenie czynników analizy, czyli wejść i wyjść, jest jednym z najtrudniejszych elementów
w analizie produktywności metodą DEA. Wybór tych czynników ma ogromy wpływ
na wyniki i budzi największe kontrowersje w środowisku naukowym. Warto dokonać
symulacji kilku wariantów modeli, różnych poziomów agregacji danych badając zgodność
otrzymywanych wyników.
Jeśli chodzi o wybór modelu, autorka postuluje stosowanie modelu DEA
nadproduktywności zorientowanego na efekty. Model taki szczególnie pozwala w sposób
czytelny wyłonić liderów, oznaczanych jako jednostki o kategorii A+. Orientacja modelu
na efekty jest bardziej uzasadniona od modelu dążącego do minimalizacji nakładów.
Właściwie każdą aplikację modelu DEA do oszacowania produktywności jednostek
powinna poprzedzać analiza jego wrażliwości. Przetestować warto zgodność osiąganych
* Patrz: rozdział 6.3.
251
przez jednostki wyników zarówno w wypadkach liczby branych pod uwagę wejść i wyjść,
jak i wpływu zaburzeń i błędów danych. Autorka w swoich badaniach pominęła analizy
liczby zmiennych, gdyż został on zredukowany do minimum po analizie statystycznej
i usunięciu zmiennych o niepewnych danych.
Po uzgodnieniu modelu następuje jego weryfikacja empiryczna, czyli ocena poziomu
produktywności jednostek naukowych i interpretacja wyników. Wymiernym efektem całej
procedury jest przyznanie określonej kategorii, a w konsekwencji przypisanie reguł alokacji
dotacji podmiotowej.
Dużą korzyścią zaproponowanej procedury jest sformułowanie rekomendacji
dla jednostek naukowych ze wskazaniem słabych i silnych stron, obszarów i zakresów
poprawy oraz potencjalnych obiektów wzorcowych.
Istotnym elementem jest komunikacja wyników. W środowisku naukowym oczekuje
się przedstawienia wyników oceny wraz z analizą, czy osiągnięto zamierzone cele,
z możliwością wzajemnego porównania. Ważne, aby jednostki miały możliwość
skomentowania raportów.
Ostatnim etapem procesu i jednocześnie łączącym z kolejną jego iteracją jest
monitorowanie postępów poprzez porównywanie wyników w czasie. Wsparciem może być
wspomniany wcześniej raport samooceny, w którym jednostka deklaruje wypełnienie
rekomendacji i zaleceń z poprzedniej oceny.
Zaproponowane podejście odpowiada na uwagi krytyczne środowiska naukowego
prezentowane w rozdziale 4.3. Wzrastająca rola nauki spowodowała konieczność
przeprowadzenia analiz samego przebiegu procesu poznawczego i czynników wpływających
na ten proces. Dotychczas jednak nie opracowano wartościowych kryteriów umożliwiających
obiektywne traktowanie procesu badawczego. Pożądany kierunek ewolucji systemu
parametrycznego to coraz bardziej syntetyczna wycena wybranych, jednoznacznie
zdefiniowanych elementów aktywności naukowej, dokumentujących pozycję dorobku jednostki
badawczej na tle nauki polskiej i światowej. Systematyczne przyglądanie się procesom
w obszarze działalności naukowej zachodzącym w jednostkach naukowych, świadomość
nakładów oraz powstających w wyniku ich transformacji efektów oraz ich naukowa
konfrontacja przyczyni się do zwiększenia przejrzystości oceny jednostek naukowych
oraz ułatwi alokację środków publicznych i ich rozliczalność przed interesariuszami.
252
ZAKOŃCZENIE
W rozprawie doktorskiej podjęto się analizy i oceny produktywności jednostek
naukowych. Problematyka stanowiła duże wyzwanie badawcze, zarówno ze względu
na próbę nowatorskiego ujęcia tematu, jak i panujący – zdaniem autorki – chaos pojęciowy
i metodologiczny w literaturze przedmiotu oraz w praktyce oceny jednostek naukowych.
W przekonaniu autorki, zasadniczy problem badawczy niniejszej rozprawy polegający
na analizie możliwości wykorzystania koncepcji produktywności do wartościowania
i porównywania dorobku jednostek naukowych oraz zastosowanie tej koncepcji
w zarządzaniu organizacją i finansowaniem badań naukowych został rozwiązany pomyślnie.
Treści zaproponowane w rozprawie mogą stanowić wypełnienie luki badawczej w zakresie
zarządzania badaniami naukowymi oraz oceny produktywności jednostek naukowych,
a zaproponowana metodyka wnosi nowy wkład do wiedzy z zakresu nauk o zarządzaniu
(wartość poznawcza) oraz może stanowić narzędzie użyteczne dla decydentów,
jak i jednostek naukowych do inicjatyw podejmowanych z zakresie oceny jednostek
naukowych w Polsce przez MNiSW (wartość aplikacyjna). Opracowana metodyka
ma charakter nowatorski, również w kontekście piśmiennictwa zagranicznego.
Zdaniem autorki, w rozprawie wykazano, że:
analiza produktywności jednostek naukowych daje możliwość oceny wykorzystania
ich zasobów materialnych i niematerialnych;
zastosowanie procedury metody DEA zwiększa obiektywność ewaluacji działalności
naukowej;
ocena parametryczna MNiSW wykazuje w jej dotychczasowym kształcie wiele słabości
i wskazano obszary jej dalszego doskonalenia merytorycznego i formalnego;
ocena produktywności działalności naukowej może być podstawą do kształtowania
instrumentów zarządzania organizacją i finansowaniem badań naukowych.
Tym samym pozytywnie konfirmowano hipotezy badawcze postawione w rozprawie.
Powyższe hipotezy zostały uwiarygodnione w treści pracy poprzez wykonanie
logicznie powiązanego ciągu zadań badawczych. W pracy wykonano szerokie prace studialne
z zakresu: (i) zarządzania sektorem nauki, kreowania polityki naukowej, ewaluacji
instytucjonalnej jednostek naukowych; (ii) uporządkowania terminologicznego wokół
zagadnienia produktywności; (iii) adaptacji koncepcji produktywności do analizy jednostek
253
naukowych oraz przeglądu metod jej pomiaru; (iv) obszernej prezentacji obecnego stanu
stosowanych podejść do systematycznej oceny jednostek naukowych w krajach europejskich
i pozaeuropejskich oraz finansowania jednostek naukowych; (v) szczegółowej analizy
metodyki oceny parametrycznej MNiSW; (vi) metody Data Envelopment Analysis i jej
zastosowania do oceny działalności naukowej w kraju i na świecie. Do przeprowadzenia
badania produktywności jednostek naukowych w Polsce zgromadzono dane o jednostkach
naukowych za lata 2004-2008, będące podstawą oceny parametrycznej MNiSW w roku 2010.
Zbiór danych uzupełniono o dane na temat wysokości środków finansowych na finansowanie
lub dofinansowanie działalności statutowej w latach 2003-2010. Dokonano wielowymiarowej
analizy statystycznej dostępnych zbiorów danych w celu programowej identyfikacji i analizy
nakładów i efektów jednostek naukowych oraz przeprowadzono analizy symulacyjne w celu
opracowania metodyki oceny produktywności jednostek naukowych opartej na procedurze
metody DEA. Przeprowadzona ocena i analiza porównawcza produktywności jednostek
naukowych w Polsce oraz dyskusja wyników pozwoliła na wypracowanie propozycji
metodycznych oceny działalności jednostek naukowych opartej na koncepcji produktywności
z wykorzystaniem metody DEA oraz zaprojektowanie modyfikacji procedury oceny
parametrycznej jednostek naukowych stosowanej przez MNiSW.
Realizacja powyższych zadań badawczych pozwoliła – zdaniem autorki –
na osiągnięcie zakładanych celów rozprawy. W zakresie poznawczym przeprowadzono
szeroką i pogłębioną dyskusję nad porównywaniem i wartościowaniem dorobku instytucji
naukowych, dokonano szerokiej analizy i oceny istniejących modeli systematycznej oceny
jednostek naukowych oraz wskazano obszary dyskusyjne metodyki oceny parametrycznej
stosowanej przez MNiSW. W zakresie metodycznym opracowano procedurę oceny
działalności jednostek naukowych opartej na koncepcji produktywności z wykorzystaniem
metody Data Envelopment Analysis (DEA). W zakresie utylitarnym zaprojektowano proces
systematycznej oceny produktywności z zastosowaniem metody DEA jako propozycję
modyfikacji procedury oceny parametrycznej jednostek naukowych stosowanej
przez Ministerstwo Nauki i Szkolnictwa Wyższego w Polsce.
Z przedstawionego materiału teoretycznego i empirycznego zaprezentowanego
w rozprawie wynikają również interesujące uzupełniające wnioski badawcze:
1. Względna produktywność jednostek naukowych w Polsce jest dość wysoka.
2. Poziom finansowania jednostek naukowych w postaci dotacji statutowej w sposób
znaczący determinuje osiągane przez nie rezultaty naukowe i ich rozwój.
254
3. Ponad 50% jednostek naukowych nie działa w obszarze najbardziej produktywnych
korzyści skali (MPSS).
4. Jednostki naukowe w Polsce są znacznie zróżnicowane pod względem poziomu
finansowania i brak jest korelacji między poziomem finansowania w postaci dotacji
statutowej a wynikiem oceny parametrycznej MNiSW; istnieje istotna korelacja między
poziomem finansowania a liczbą punktów za publikacje z listy JCR.
5. Rodzaj jednostki naukowej determinuje jej orientację w zakresie rezultatów działalności
naukowej.
6. Klasyfikacja jednostek naukowych w grupy jednorodne na podstawie metod
statystycznych pozwala ujawnić ich cechy dominujące.
7. Zastosowanie metod statystycznych w procedurze oceny produktywności zwiększa
obiektywność i wiarygodność wyników.
8. Wyniki analizy DEA mogą dostarczyć wartościowych informacji wspomagających
zarządzanie jednostkami naukowymi. Wynika to z faktu, że DEA oprócz nominalnej
wartości efektywności jednostki względem ocenianego zbioru wskazuje również możliwe,
maksymalne do osiągnięcia wyniki. Wytypowane wzorce dla obiektów nieproduktywnych
pozwalają na oszacowanie obszarów oszczędności nakładów lub niedoborów rezultatów.
Można również określić konkurentów technologicznych obiektów.
9. Gromadzenie i analiza danych o nauce i środowisku naukowym w Polsce
jest niejednorodna i niesystematyczna.
10. Uwzględnienie czynników środowiskowych w ocenie produktywności jednostek
naukowych pozwala na pełniejsze rozpoznanie i wyjaśnienie uwarunkowań
ich działalności.
W opinii autorki, zagadnienie oceny i analizy produktywności jednostek naukowych
jest niezwykle interesującym i obszernym zagadnieniem badawczym. Niniejsza praca
nie wyczerpuje w pełni tego zagadnienia. W opinii autorki, przeprowadzone w rozprawie
rozważania – zarówno w warstwie teoretycznej, jak i empirycznej – mogą stanowić podstawę
i inspirację do dalszych prac z tego zakresu. Istotne dalsze kierunki badań są związane
z uzupełnieniem zestawu zmiennych charakteryzujących nakłady i efekty jednostek
naukowych, próbą zdefiniowania innych czynników środowiskowych mających wpływ
na osiągane rezultaty jednostek naukowych. Za interesujący kierunek badań, autorka uznaje
możliwość wprowadzenia ograniczeń wag przypisanych zmiennym w algorytmie metody
DEA oraz ich wpływu na uzyskane wyniki.
255
Dużą trudność w przygotowaniu niniejszej rozprawy stanowił żmudny proces
gromadzenia danych dotyczących wyników działalności naukowej jednostek naukowych
oraz danych finansowych. Ponadto, próba nowatorskiego ujęcia tematu, a przy tym brak
syntetycznych ujęć problematyki będącej przedmiotem pracy spowodowały konieczność
szczegółowego odnoszenia się do wybranych zagadnień. Ze względu na różnorodność opinii
i wielość poglądów wyrażonych w literaturze przedmiotu, potrzeba doprecyzowania podjętej
w rozprawie problematyki w szerokim i wielowątkowym obszarze zarządzania w sektorze
badań naukowych oraz rzetelne przygotowanie rozprawy wymusiło jej obszerność.
256
ANEKS
Załącznik 1. Kryteria oceny parametrycznej w 1999 roku
Załącznik 2. Kryteria oceny parametrycznej w 2003 roku
Załącznik 3. Kryteria oceny parametrycznej w 2006 roku
Załącznik 4. Kryteria oceny parametrycznej w 2010 roku
Załącznik 5. Kryteria oceny parametrycznej i grupy wzajemnej oceny w 2013 roku
Załącznik 6. Liczebność jednostek oraz rozpiętość przedziałów poszczególnych kategorii
względem wskaźnika efektywności E
Załącznik 7. Zestawienie publikacji na temat zastosowań metody DEA w Polsce
Załącznik 8. Współczynniki korelacji cech wraz z poziomem ich istotności w poszczególnych
grupach jednostek naukowych
Załącznik 9. Lista jednostek naukowych w badaniach autorki i ich podział w grupy jednorodne
Załącznik 10. Wyniki oceny jednostek naukowych metodą DEA
257
Załącznik 1. Kryteria oceny parametrycznej w 1999 roku
Kryteria Punkty
H01a H01b H02 P03 P04 P05 P06 T07 T08 T09 T10 T11 T12
1. PUBLIKACJE RECENZOWANE
Publikacja w czasopiśmie wyróżnionym z listy filadelfijskiego Instytutu
Informacji Naukowej 10 10 10 10
5, 8,
10 4-10 4-10 4-10 4-10 4-10 8 4-10 4-10
Publikacja w innym czasopiśmie zagranicznym i w wyróżnionym czasopiśmie
krajowym 7 7 4
1-7 1, 3, 4 1-7
4, 5
1-7 1-7 1-7 4, 6 1-6 1-7 W innym wiodącym czasopiśmie krajowym 7 3
W pozostałych czasopismach krajowych 2 2 1 2
W recenzowanym wydawnictwie zbiorowym nie mającym charakteru
monografii naukowej 1 1 1 1 1, 2 1-2 1 1-2 1-2 1-2 1, 2 1-2 1-2
Rola, reżyseria (teatr, film, TV), wystawa indywidualna twórczości aktualnej,
publikacja partytur mniejszych form muzycznych, udokumentowana
konserwacja obiektu zabytkowego 10
Udział w wystawie zbiorowej, konkursie muzycznym, festiwalu 7 2. MONOGRAFIE NAUKOWE, PODRĘCZNIKI AKADEMICKIE
Autorstwo monografii lub podręcznika o zasięgu międzynarodowym 24 24 24 24 16-24 16-24 24 16-24 16-24 16-24 16, 24 16-24 16-24
Redakcja naukowa monografii lub podręcznika o zasięgu międzynarodowym 10 10 10 3 3-10 3-10 10 3-10 3-10 3-10 5 3-10 3-10
Autorstwo rozdziału w monografii lub podręczniku o zasięgu
międzynarodowym 7 7 7 10 5-10 5-10 5-10 5-10 5-10 5-10 7 5-10 5-10
Autorstwo monografii lub podręcznika o zasięgu krajowym 16 16 16 16 8-16 8-16 16 8-16 8-16 8-16 8, 10,
14, 16 8-16 8-16
Redakcja naukowa monografii lub podręcznika o zasięgu krajowym 5 5 5 2 2-5 2-5 5 2-5 2-5 2-5 2 2-5 2-5
Autorstwo rozdziału w monografii lub podręczniku o zasięgu krajowym 4 4 4 2 2-6 2-6 2-6 2-6 2-6 2-6 4 2-6 2-6
Praca habilitacyjna wydana w Polsce 0-4 Retrospektywna wystawa indywidualna, publikacja teorii o dziele sztuki,
publikacja partytur dużych form muzycznych, płyta CD (kompozytora,
wykonawcy lub dyrygenta), udokumentowana konserwacja ważnego zabytku 24
Wykonanie publiczne, koncert, źródłowe opracowanie dzieła muzycznego,
opracowanie i adaptacja sceniczna 10
Nominacje do prestiżowych nagród międzynarodowych 16 Nominacje do prestiżowych nagród krajowych 4
3. STOPNIE NAUKOWE, TYTUŁY NAUKOWE
Doktorat uzyskany przez pracownika (doktoranta) jednostki 8 8 8 8 8 8 8 8 8 8 8 8 8
Doktorat uzyskany w jednostce przez osobę w niej niezatrudnioną 4 4 4 4 4 4 4 4 4 4 4 4 4
257
AN
EK
S
258
Kryteria Punkty
H01a H01b H02 P03 P04 P05 P06 T07 T08 T09 T10 T11 T12
Habilitacja uzyskana przez pracownika jednostki 12 12 12 12 12 12 12 12 12 12 12 12 12
Habilitacja uzyskana w jednostce przez osobę w niej niezatrudnioną 6 6 6 6 6 6 6 6 6 6 6 6 6
Tytuł profesorski uzyskany przez pracownika jednostki 20 20 20 20 20 20 20 20 20 20 20 20 20
4. PATENTY, WZORY UŻYTKOWE
Uzyskany patent międzynarodowy 5 5 5 5 1-10
5-10 5 1-10 1-10
5-10 8 1-10 1-10
Uzyskany patent krajowy 1-4 7 1-4
Zarejestrowany wzór użytkowy 2 2 2 1 1-2 1-2 2 1-2 1-2 1-2 2 1-2
5. WYKORZYSTANIE W PRAKTYCE WYNIKÓW PRAC JEDNOSTKI (WDROŻENIA)
Udokumentowany efekt praktyczny, gospodarczy lub społeczny, prowadzonych
w jednostce badań naukowych i prac rozwojowych o zasięgu
międzynarodowym
10 10 10 2-24 2-24 2-24 2-24 2-24 2-24
2-24 24 8-24 2-24
o zasięgu krajowym 5 5 5 16
6. SYSTEMY JAKOŚCI, AKREDYTACJA LABORATORIÓW
Wdrożenie międzynarodowego systemu jakości, przyjętego w Unii
Europejskiej 5 5 5 8 8-16 8-16 16 8-16 8-16 8-16 8, 15 12-16 8-16
Uzyskanie akredytacji laboratorium 10 10 10 12 12-24 12-24 24 12-24 12-24 12-24 24 16-24 12-24
Opracowana norma ustanowiona przez PKN 10 7. OCENA OGÓLNA POZYCJI JEDNOSTKI NAUKOWEJ
Ocenę ogólną pozycji i aktywności jednostki naukowej ustala zespół naukowy ekspertów biorąc pod uwagę między innymi: projekty
badawcze, umowy o współpracy międzynarodowej, staże naukowe, cytowania publikacji, nagrody i wyróżnienia naukowe, ekspertyzy,
uprawnienia do nadawania stopni naukowych, działalność popularyzująca i upowszechniająca wyniki badań, prowadzone studia
doktoranckie i liczbę doktorantów, organizację konferencji zagranicznych i krajowych.
Maksymalnie 20% sumy ocen
wyników przedstawionych
w punktach od 1 do 6
Legenda:
H01a – Zespół Nauk Humanistycznych jednostek naukowych i jednostek
badawczo-rozwojowych
H01b – Zespół Nauk Humanistycznych jednostek naukowych wyższych szkół
artystycznych
H02 – Zespół Nauk Społecznych, Ekonomicznych i Prawnych
P03 – Zespół Nauk Matematycznych, Fizycznych i Astronomii
P04 – Zespół Nauk Biologicznych, Nauk o Ziemi i Ochrony Środowiska
P05 – Zespół Nauk Medycznych
P06 – Zespół Nauk Rolniczych i Leśnych
T07 – Zespół Mechaniki, Budownictwa i Architektury
T08 – Zespół Inżynierii Materiałowej i Technologii Materiałowych
T09 – Zespół Nauk Chemicznych, Technologii Chemicznych oraz Inżynierii
Procesowej i Ochrony Środowiska
T10 – Zespół Elektrotechniki, Energetyki i Metrologii
T11 – Zespół Elektroniki, Automatyki i Robotyki, Informatyki i Telekomunikacji
T12 – Zespół Górnictwa, Geodezji i Transportu
Źródło: opracowanie własne na podstawie Komitet Badań Naukowych, http://kbn.icm.edu.pl/finauki98/zespoly.html [07.05.2013].
25
8
259
Załącznik 2. Kryteria oceny parametrycznej w 2003 roku
Kryteria Punkty
H01 H02 P03 P04 P05 P06 T07 T08 T09 T10 T11 T12 O13
1. PUBLIKACJE RECENZOWANE
Publikacja w czasopiśmie wyróżnionym z listy filadelfijskiego Instytutu
Informacji Naukowej 9 10 10
6, 11, 16,
21, 24 6-24 10, 15 7 12 6-24 12 10-24 12 12
Publikacja w innym recenzowanym czasopiśmie zagranicznym
lub w czasopiśmie polskim zamieszczonym na liście A 6 6
1-6
5 1-6 6
1-6
6 4, 6 2, 3,
4
6
0- 6 6 Publikacja w innym recenzowanym czasopiśmie polskim zamieszczonym
na liście B 3 3 · 2-4 3
Publikacja w recenzowanym czasopiśmie krajowym o zasięgu lokalnym 1 1 0 1 1 1 1 1 1 1 1
Publikacja konferencyjna w czasopiśmie wyróżnionym z listy filadelfijskiego
Instytutu Informacji Naukowej 6
6
3
4
Publikacja konferencyjna w innym recenzowanym czasopiśmie zagranicznym 1 3
Publikacje w innych czasopismach recenzowanych (zagranicznych lub
krajowych) publikujących w języku angielskim 3
Publikacje w innych czasopismach recenzowanych publikujących w języku
polskim oraz w innych językach (poza angielskim) 1
2. MONOGRAFIE NAUKOWE (KSIĄŻKI), PRACE ZBIOROWE I PODRĘCZNIKI AKADEMICKIE
Autorstwo monografii lub podręcznika akademickiego w języku angielskim 20 24 24 12, 18, 24 12-24 12-24 14 12-
18
12-
24
16,
24 24 18 12-18
Autorstwo rozdziału w monografii lub podręczniku akademickim w języku
angielskim
7 12 3, 6, 9 5-12 6-12 6 6-9 5-12 1-24 12 8 6-9
Autorstwo monografii lub podręcznika akademickiego w języku polskim
lub innym nie angielskim
15 16 6, 12, 18 6-18 6-18 14 8-13 6-18 12,
18 18 16 8-13
Autorstwo rozdziału w monografii lub podręczniku akademickim w języku
polskim lub innym nie angielskim
3 2 1, 2, 3 0-3 3 6 3 0-3 1-18 6 3 3
Redakcja monografii lub podręcznika akademickiego
5 5 5, 10 5-10 5 5 5-10 5, 10 3, 5,
10 10 5
Autorstwo monografii lub podręcznika akademickiego w dziedzinie, dla której
językiem opisu jest język etniczny, a przedmiotem badania teksty kultury w tym
języku tworzonej
6
Autorstwo monografii lub podręcznika akademickiego w innych językach
obcych 18 10
Autorstwo monografii lub podręcznika akademickiego w języku plskim 16 5
25
9
260
Kryteria Punkty
H01 H02 P03 P04 P05 P06 T07 T08 T09 T10 T11 T12 O13
Autorstwo rozdziału w monografii, pracy zbiorowej lub podręczniku
akademickim w dziedzinie dla której językiem opisu jest język etniczny,
a przedmiotem badania teksty kultury w tym języku tworzonej
4
Autorstwo rozdziału w monografii, pracy zbiorowej lub podręczniku
akademickim w innych językach obcych 3
Autorstwo rozdziału w monografii, pracy zbiorowej lub podręczniku
akademickim w języku polskim 2
Redakcja monografii, pracy zbiorowej lub podręcznika akademickiego w
językach obcych 10
Redakcja monografii, pracy zbiorowej lub podręcznika akademickiego w
języku polskim 5
3. STOPNIE NAUKOWE, TYTUŁY NAUKOWE
Doktorat uzyskany przez pracownika (doktoranta) jednostki 3 3 4 6 8 6 8 6 8 8 8 8 6
Doktorat uzyskany w jednostce przez osobę w niej niezatrudnioną 1 2 2 2 4 3 4 3 4 4 2 4 3
Habilitacja uzyskana przez pracownika jednostki 18 18 18 18 18 19 18 18 18 18 18 18 18
Habilitacja przeprowadzona przez jednostkę w stosunku do osoby w niej
niezatrudnionej 9 9 9 9 9 9 9 9 9 9 9 9 9
Tytuł profesorski uzyskany przez pracownika jednostki 30 30 30 30 30 30 30 30 30 30 30 30 30
Przeprowadzenie postępowania o nadanie tytułu dla osoby nie zatrudnionej w
jednostce 6 6 6 6 6 6 6 6 6 6 6 6 6
4. OPATENTOWANE WYNALAZKI, PRAWA OCHRONNE NA WZORY UŻYTKOWE
Uzyskany patent krajowy lub międzynarodowy, inny niż w p. 4. b 12 4 2 0-12 0-12 12 6 12 10 12 8 12 12
Uzyskany patent europejski, albo w co najmniej dwóch krajach Unii
Europejskiej, w USA, w Japonii lub w Kanadzie 24 8 10 0-24 0-24 24 10 24 20 24 16 24 24
Uzyskane prawo ochronne na wzór użytkowy 2 2 2 2 2 2 2 2 2 2 2 2 2
5. PRAKTYCZNE WYKORZYSTANIE POZA JEDNOSTKĄ WYNIKÓW BADAŃ NAUKOWYCH I PRAC ROZWOJOWYCH PROWADZONYCH
W JEDNOSTCE
Udokumentowany efekt praktyczny, gospodarczy lub społeczny, prowadzonych
w jednostce prac B+R
w języku obcym
10 0-30 0-30 0-30 0-30 0-30 0-30 0-30
6,
12,
24
0-30 0-30 0-30 0-30
w języku polskim 5 0-25
Premia za zrealizowanie bez udziału środków z budżetu nauki – umów
na wykonanie prac B+R prowadzonych w jednostce lub na sprzedaż
wyników takich prac
0-
120 0-60 0-120 0-120 0-120 0-120
0-
120
15-
100 120 0-120 0-120 0-120
26
0
261
Kryteria Punkty
H01 H02 P03 P04 P05 P06 T07 T08 T09 T10 T11 T12 O13
Adaptacja na grunt Polski nowoczesnych metod diagnostycznych i
terapeutycznych oraz technologii np. syntezy leków, preparatów chemicznych,
odczynników, surowic, przeciwciał 1-24
Opracowanie prototypu i wdrożenie produkcji nowoczesnej aparatury
medycznej, badawczej, klinicznej nawiązująca do czołowych osiągnięć
światowych 1-24
Opracowanie nowatorskich procedur badawczych, analitycznych,
diagnostycznych, leczniczych, norm prawnych 1-24
Opracowanie i uruchomienie unikalnego stanowiska badawczego 0-20 Opracowanie i wdrożenie dla potrzeb produkcji stanowiska (systemu) do
sterowania i/lub kontroli produkcji 0-20
Opracowanie nowego oryginalnego programu i wprowadzenie go do sprzedaży
(minimum 10 użytkownikom) 0-15
Opracowanie na zamówienie przemysłu lub innej instytucji elementu,
urządzenia, systemu itp. 0-20
Premia za zrealizowanie wybranych umów na wykonanie prac B+R 0-90
6. SYSTEMY JAKOŚCI, AKREDYTACJA LABORATORIÓW, UDZIAŁ W PROGRAMACH RAMOWYCH UNII EUROPEJSKIEJ
Wdrożenie międzynarodowego systemu jakości, przyjętego w Unii Europejskiej 24 10 15 2-36 2-36 2-36 2-36 18 2-20 9-36 2-36 36 30
Uzyskanie i utrzymanie akredytacji laboratorium za spełnienie wymagań normy
międzynarodowej lub europejskiej (z uwzględnieniem zakresu określonego
liczbą procedur)
24 10 15 2-36 2-36 2-36 2-36 18 2-20 2-36 2-20 36 10-20
Kontrakt w ramach projektu lub innej akcji Programu Ramowego Unii
Europejskiej z udziałem jednostki lub pracowników, dla których jest ona ich
podstawowym miejscem pracy
10 10 20 10 10 10 10 10 10 20 10 10 25
Kontrakt na koordynację przez jednostkę projektu w PR Unii Europejskiej 20 20 20 10 20 20 20 20 20 10 20 20 30
7. OCENA OGÓLNA JEDNOSTKI
Maksymalnie 20% sumy ocen wyników przedstawionych w punktach od 1 do 6
Legenda:
H01– Zespół Nauk Humanistycznych
H02 – Zespół Nauk Społecznych, Ekonomicznych i Prawnych
P03 – Zespół Nauk Matematycznych, Fizycznych i Astronomii
P04 – Zespół Nauk Biologicznych, Nauk o Ziemi i Ochrony Środowiska
P05 – Zespół Nauk Medycznych
P06 – Zespół Nauk Rolniczych i Leśnych
T07 – Zespół Mechaniki, Budownictwa i Architektury
T08 – Zespół Inżynierii Materiałowej i Technologii Materiałowej
T09 – Zespół Chemii, Technologii Chemicznej oraz Inżynierii Procesowej
i Ochrony Środowiska
T10 – Zespół Elektrotechniki, Energetyki i Metrologii
T11 – Zespół Elektroniki, Automatyki i Robotyki, Informatyki i Telekomunikacji
T12 – Zespół Górnictwa, Geodezji i Transportu
O13 – Zespół Badań na Rzecz Obronności i Bezpieczeństwa
Źródło: Opracowanie własne na podstawie Komitet Badań Naukowych, http://kbn.icm.edu.pl/finauki98/system/zasady_zespoly/index.html, [07.05.2013].
261
262
Załącznik 3. Kryteria oceny parametrycznej i grupy jednorodne w 2006 roku
3.A Kryteria oceny parametrycznej w 2006 roku
Kryteria Punkty
1. Aktywność jednostki naukowej
Stopień naukowy doktora uzyskany przez pracownika jednostki 8
Stopień doktora habilitowanego uzyskany przez pracownika jednostki 18
Tytuł profesora uzyskany przez pracownika jednostki 30
Uprawnienie do nadawania stopnia naukowego doktora 5
Uprawnienie do nadawania stopnia naukowego doktora habilitowanego 15
Wdrożenie procedury międzynarodowego systemu jakości 20
Posiadanie laboratorium z akredytacją Polskiego Centrum Akredytacji lub inną
równorzędną
20
Projekt badawczy własny 10
Projekt zamawiany 30
Projekt celowy o udziale wnioskodawcy powyżej 500 tys. zł 30
Projekt celowy o udziale wnioskodawcy od 200 tys. zł do 500 tys. zł 20
Projekt celowy o udziale wnioskodawcy poniżej 200 tys. zł 10
Zrealizowany kontrakt międzynarodowy finansowany ze środków zagranicznych 20
Nagroda lub wyróżnienie międzynarodowe 30-80
Nagroda krajowa za działalność naukową 50
Nagroda lub wyróżnienie za zastosowanie praktyczne wyników prac B+R 50
2. Wyniki działalności naukowej
Publikacja w czasopiśmie wyróżnionym z listy filadelfijskiego Instytutu Informacji Naukowej 10-24
Publikacja w czasopiśmie recenzowanym o zasięgu, co najmniej krajowym w dziedzinie,
dla której narzędziem opisu jest język etniczny, a przedmiotem badania są teksty kultury
w tym języku tworzonej
0-6
Publikacja w innym recenzowanym czasopiśmie zagranicznym lub czasopiśmie polskim
o zasięgu, co najmniej krajowym
0-6
Publikacja w recenzowanym czasopiśmie krajowym o zasięgu lokalnym 0-6
Autorstwo monografii lub podręcznika akademickiego w języku angielskim 12-24
Autorstwo rozdziału w monografii lub podręczniku akademickim w języku angielskim 0-12
Autorstwo monografii lub podręcznika akademickiego w języku polskim lub innym nie
angielskim
6-12
Autorstwo rozdziału w monografii lub podręczniku akademickim w języku polskim
lub innym nie angielskim
0-6
Redakcja monografii lub podręcznika akademickiego 5-10
1. Zastosowania praktyczne
Umowa zawarta z innym podmiotem na wykonanie prac B+R o wartości powyżej 50 tys.
zł, zakończona osiągnięciem celu
30
Umowa zawarta z innym podmiotem na stałe lub wieloletnie świadczenie usług badawczych 10
Uzyskany patent krajowy 50
Uzyskany patent międzynarodowy 70
Uzyskane prawo ochronne na wzór użytkowy 10
Za średnioroczne przychody z wdrożenia tych produktów lub technologii powyżej 10 mln zł 150
Za średnioroczne przychody z wdrożenia tych produktów lub technologii od 5 do10 mln zł 100
Za średnioroczne przychody z wdrożenia tych produktów lub technologii od 1 do 5 mln zł 80
Licencja o opłacie licencyjnej powyżej 1 mln zł 100
Licencja o opłacie licencyjnej od 500 tys. zł do 1 mln zł 80
Licencja o opłacie licencyjnej poniżej 500 tys. zł 60
Źródło: Opracowanie własne na podstawie Rozporządzenie Ministra Nauki i Informatyzacji z dnia 4 sierpnia 2005 r.
w sprawie kryteriów i trybu przyznawania i rozliczania środków finansowych na naukę, Dz. U. 05.161.1359.
263
3.B. Grupy jednorodne w 2006 roku
Kod
grupy
Grupa jednostek jednorodnych ze względu
na dziedzinę badań
Wagi dla grup cech k
Aktywność
naukowa
w1g
Wyniki
działalności
naukowej
w2g
Zastosowania
praktyczne
w3g
N1 Nauki humanistyczne 2 7 1
N2 Nauki o sztuce 2 5 3
N3 Nauki społeczne, ekonomiczne i prawne 2 6 2
N4a Fizyka, astronomia 2 6 2
N4b Matematyka, podstawy informatyki 2 6 2
N5 Nauki chemiczne 2 6 2
N6 Nauki biologiczne 2 6 2
N7 Nauki o Ziemi 2 5 3
N8 Nauki rolnicze i leśne 2 5 3
N9 Nauki medyczne 2 5 3
N10 Ochrona zdrowia 2 4 4
G1 Mechanika, materiały, inżynieria chemiczna i
procesowa 2 4 4
G2 Maszyny i urządzenia: projektowanie,
wytwarzanie i eksploatacja 2 3 5
G3 Technologie materiałowe, chemiczne i inne 2 3 5
G4 Budownictwo i architektura 2 3 5
G5 Elektrotechnika, automatyka, elektronika oraz
technologie informacyjne 2 4 4
G6 Górnictwo, geologia techniczna, geodezja 2 3 5
G7 Energetyka, transport i inżynieria środowiska 2 3 5
G8 Technologie rolnicze i leśne 2 3 5
G9 Inne dziedziny ogólnotechniczne 2 4 4
Źródło: Opracowanie własne na podstawie Rozporządzenie Ministra Nauki i Informatyzacji z dnia 4 sierpnia
2005 r. w sprawie kryteriów i trybu przyznawania i rozliczania środków finansowych na naukę, Dz.U.
05.161.1359.
264
Załącznik 4. Kryteria oceny parametrycznej i grupy jednorodne w 2010 roku
4.A. Kryteria oceny parametrycznej w 2010 roku
Kryteria Punkty
K1 K2 K3
1. WYNIKI DZIAŁALNOŚCI NAUKOWEJ
I UPRAWNIENIA DO NADAWANIA STOPNI
Publikacja w czasopiśmie wyróżnionym w Journal Citation Reports (JCR) 13-40 13-40 13-40
Publikacja w czasopiśmie wyróżnionym w ERIH 10, 15, 20
10, 15, 20
Publikacja w recenzowanym czasopiśmie krajowym lub zagranicznym
wymienionym w wykazie ministra 1-9 1-9 1-9
Redaktor naczelny czasopisma będący pracownikiem ocenianej jednostki 2-18 2-18 2-18
Autorstwo monografii lub podręcznika autorskiego w języku angielskim lub
podstawowym dla danej dyscypliny 24 24 24
Autorstwo monografii lub podręcznika autorskiego w języku innym niż
angielski lub podstawowy dla danej dyscypliny 12 12 12
Autorstwo rozdziału w monografii lub podręczniku autorskim w języku
angielskim lub podstawowym dla danej dyscypliny 7 7 7
Autorstwo rozdziału w monografii lub podręczniku autorskim w języku
innym niż angielski lub podstawowy dla danej dyscypliny 3 3 3
Redaktor naczelny wieloautorskiej monografii, podręcznika autorskiego lub
serii wydawniczej 3, 5 3, 5 3, 5
Zatrudnienie w jednostce laureata konkursów "Pomysły" Europejskiej Rady
Nauki 150 150 150
Uczestnictwo w projektach Programów Ramowych lub innych konkursach
Unii Europejskiej: - koordynacja 150 150 150
- uczestnictwo instytucjonalne 50 50 50
Uprawnienia do nadawania stopnia doktora 50 50 50
Uprawnienia do nadawania stopnia doktora habilitowanego 150 150 150
Autorstwo zrealizowanego dzieła sztuki o międzynarodowym zasięgu:
muzycznego – kompozytor, dyrygent koncertu symfonicznego / spektaklu
operowego; filmowego -reżyser, operator; teatralnego -reżyser, autor
indywidualnej wystawy plastycznej / pomnika
24
Publikacja utworu artystycznego o zasięgu międzynarodowym: partytury /
nagrania muzycznego utworu solowego, kameralnego, symfonicznego,
chóralnego; dzieła plastycznego, filmu, spektaklu teatralnego, baletowego,
muzycznego, dokumentacja konserwatorska
12
Autorstwo scenariusza, muzyki, scenografii do filmu / spektaklu
zagranicznego lub koprodukcji międzynarodowej; światowego prawykonania
utworu muzycznego i scenicznego 12
Rola pierwszoplanowa w spektaklu, filmie, recital muzyczny, solista w koncercie,
udział w zbiorowej wystawie plastycznej, dyrygent koncertu kameralnego 9
Współautorstwo scenariusza filmowego, autorstwo adaptacji filmowej /
teatralnej, drugi reżyser filmu, autor opracowania plastycznego / muzycznego,
rola drugoplanowa w filmie / spektaklu, udział w koncercie kameralnym 6
Autorstwo zrealizowanego 0) dzieła sztuki o ogólnopolskim znaczeniu:
muzycznego - kompozytor, dyrygent koncertu symfonicznego / spektaklu
operowego; filmowego - reżyser, operator; teatralnego - reżyser; autor
indywidualnej wystawy plastycznej / pomnika
12
Publikacja utworu artystycznego o zasięgu ogólnopolskim: partytury/
nagrania muzycznego utworu solowego, kameralnego, symfonicznego,
chóralnego; dzieła plastycznego; filmu, spektaklu11) teatralnego, baletowego,
muzycznego; dokumentacja konserwatorska
9
Autorstwo scenariusza, muzyki, scenografii do premierowego
spektaklu/filmu; polskie prawykonanie utworu muzycznego (solista /
kameralista); reżyseria światła / dźwięku 6
Realizacja imprezy artystycznej – reżyseria, muzyka, oprawa plastyczna,
reżyseria światła i dźwięku, choreografia – o charakterze masowym:
teatralnym, estradowym, multimedialnym 6
265
Kryteria Punkty
K1 K2 K3
Współautorstwo scenariusza filmowego, autorstwo adaptacji filmowej /
teatralnej, drugi reżyser filmu, opracowanie dźwięku, ruchu w filmie /
spektaklu; oprawa plastyczna / muzyczna koncertu; projekt wystawy
plastycznej, udział w koncercie kameralnym
3
Rola w spektaklu, filmie, małych formach teatralnych: scenariusz, reżyseria
filmu krótkometrażowego, udział w polskim prawykonaniu utworu
muzycznego (członek orkiestry kameralnej, symfonicznej, chóru); udział w
zbiorowej wystawie plastycznej
3
Rekonstrukcja i konserwacja instrumentu zabytkowego, rekonstrukcja i
konserwacja dzieła / obiektu muzealnego / plastycznego 7
Realizacja dźwięku, nagrania; rekonstrukcja filmu, nagrania dźwiękowego,
reżyseria programu edukacyjnego, publicystycznego, dokumentalnego,
informacyjnego 3
Rola w dubbingu, udział wykonawczy w ogólnopolskim koncercie lub
masowej imprezie w ensemblu 3
2. ZASTOSOWANIA PRAKTYCZNE
Umowa zawarta z innym podmiotem na wykonanie prac B+R, zakończona
osiągnięciem celu (potwierdzona fakturą) - każde 5 tys. zł wartości umowy 1 1 1
Posiadanie laboratorium akredytowanego przez Polskie Centrum Akredytacji 20-80 20-80 20-80
Posiadanie statusu Państwowego Instytutu Badawczego 100 100 100
Patent udzielony przez Urząd Patentowy Rzeczypospolitej Polskiej
na wynalazek, który został zastosowany 50
Patent udzielony przez Urząd Patentowy Rzeczypospolitej Polskiej 25 Zawarcie umowy o wspólności patentu ocenianej jednostki z podmiotem
gospodarczym 20
Zgłoszenie wynalazku w Urzędzie Patentowym Rzeczypospolitej Polskiej 10 Patent udzielony za granicą na wynalazek, który został zastosowany za granicą 75 Patent udzielony za granicą 35 Zgłoszenie wynalazku za granicą 15 Prawo ochronne na wzór użytkowy, który został zastosowany 15 Prawo ochronne na wzór użytkowy 10 Udzielone przez Urząd Patentowy Rzeczypospolitej Polskiej prawo
z rejestracji wzoru przemysłowego, który został zastosowany 30 30 30
Prawo z rejestracji wzoru przemysłowego udzielone przez Urząd Patentowy
Rzeczypospolitej Polskiej 10 10 10
Udzielone za granicą, inne niż prawa autorskie, prawo wyłączne do wzoru
przemysłowego, który zastał zastosowany 35 35 35
Inne niż prawa autorskie prawo wyłączne do wzoru przemysłowego udzielone
za granicą 10 10 10
Przysługujące prawo autorskie do utworu, będącego wynikiem działalności
twórczej o indywidualnym charakterze, z zakresu architektury, urbanistyki
i wzornictwa przemysłowego 0-10
Wzór przemysłowy wystawiony na krajowych lub międzynarodowych
wystawach lub targach 3
3
Przychody z tytułu wdrożenia prac B+R jednostki wdrażającej - za każde 200
tys. zł przychodu 3
Przychody jednostki naukowej (uzyskane wpływy) z tytułu wdrożenia - za
każde 100 tys. zł przychodu 10
Umowy licencyjne - za każde uzyskane 10 tys. zł opłaty licencyjnej 1 1 1
Źródło: Opracowanie własne na podstawie Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia
17 października 2007 roku w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na działalność statutową, Dz.U. 2007 nr 205 poz. 1489.
266
4.B. Grupy jednorodne w 2010 roku
Kod Nazwa grupy jednorodnej Zestaw zmiennych
N1 Nauki filologiczne i bibliologia Karta K1 ceny jednostki
naukowej dla nauk
humanistycznych
i społecznych
N2 Nauki historyczne
N3 Nauki o kulturze, filozofia oraz nauki teologiczne
N4 Nauki społeczne
N5 Nauki ekonomiczne
N6 Nauki prawne
N7a Jednostki naukowe kliniczne
Karta K2 oceny jednostki
naukowej dla nauk ścisłych,
technicznych i nauk o życiu
N7b Jednostki naukowe niekliniczne
N8 Ochrona zdrowia i kultura fizyczna
N9 Nauki biologiczne
N10 Nauki o Ziemi
N11 Nauki rolnicze i leśne
N13 Matematyka i podstawy informatyki
N15 Fizyka i astronomia
G1/N12 Nauki chemiczne oraz inżynieria materiałowa, chemiczna
i procesowa
G2 Mechanika, budowa i eksploatacja maszyn, inżynieria produkcji
G3 Technologie materiałowe, chemiczne i inne
G4 Budownictwo i architektura
G5 Elektrotechnika, automatyka elektronika oraz technologie
informacyjne
G6 Górnictwo, geologia techniczna, geodezja, energetyka i transport
G7 Inżynieria i ochrona środowiska, technologie środowiskowe,
rolnicze i leśne
G8 Bezpieczeństwo i inne dziedziny ogólnotechniczne
N14 Dziedziny sztuki
Karta K3 oceny jednostki
naukowej dla dziedzin sztuki
i wchodzących w ich skład
dyscyplin artystycznych
K1 dotyczy nauk prawnych, nauk humanistycznych, nauk teologicznych, nauk ekonomicznych i nauk
wojskowych.
K2 dotyczy nauk chemicznych, nauk fizycznych, nauk matematycznych, nauk technicznych, nauk wojskowych,
nauk biologicznych, nauk farmaceutycznych, nauk leśnych, nauk medycznych, nauk o kulturze fizycznej, nauk
o Ziemi, nauk o zdrowiu, nauk rolniczych i nauk weterynaryjnych.
K3 dotyczy to sztuki filmowej, sztuki muzycznej (dyrygentura, instrumentalistyka, kompozycja i teoria muzyki,
reżyseria dźwięku, rytmika i taniec, wokalistyka), sztuki plastycznej (sztuki piękne, sztuki projektowe,
konserwacja i restauracja dzieł sztuki), sztuki teatralnej.
Źródło: Opracowanie własne na podstawie Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia
17 października 2007 roku w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na działalność statutową, Dz. U. 2007 nr 205 poz. 1489.
267
Załącznik 5. Kryteria oceny parametrycznej i grupy wzajemnej oceny w 2013 roku
5.B. Kryteria oceny parametrycznej w 2013 roku
Kryteria Punkty
K1 K2 K3 K4
1. OCENA OSIĄGNIĘĆ NAUKOWYCH I TWÓRCZYCH JEDNOSTKI NAUKOWE
Publikacja w czasopiśmie naukowym posiadającym współczynnik wpływu Impact Factor (IF), znajdującym się w bazie
Journal Citation Reports (JCR), wymienionym w części A wykazu Ministra Nauki i Szkolnictwa Wyższego 15-50 15-50 15-50 15-50
Publikacja w czasopiśmie naukowym nieposiadającym współczynnika wpływu Impact Factor (IF), wymienionym
w części B wykazu Ministra Nauki i Szkolnictwa Wyższego 1-10 1-10 1-10 1-10
Publikacja w czasopiśmie znajdującym się w bazie European Reference Index for the Humanities (ERIH), wymienionym
w części C wykazu Ministra Nauki i Szkolnictwa Wyższego 10, 12, 14 10, 12, 14
Publikacja w innym zagranicznym czasopiśmie naukowym, w języku podstawowym w danej dyscyplinie naukowej
lub językach: angielskim, niemieckim, francuskim, hiszpańskim, rosyjskim lub włoskim 4 4
Publikacja w recenzowanych materiałach z konferencji międzynarodowej, uwzględnionej w Web o f Science 10 10
Autorstwo monografii naukowej w języku podstawowym w danej dyscyplinie naukowej lub we wskazanych językach 25 25 25 25
Autorstwo monografii naukowej w języku polskim (jeżeli język polski nie jest językiem podstawowym w danej
dyscyplinie naukowej) lub w języku innym niż języki: angielski, niemiecki, francuski, hiszpański, rosyjski lub włoski 20 20 20 20
Autorstwo rozdziału w monografii naukowej w języku podstawowym w danej dyscyplinie lub we wskazanych językach 5 5 5 5
Autorstwo rozdziału w monografii naukowej w języku polskim (jeżeli język polski nie jest językiem podstawowym w danej
dyscyplinie naukowej) lub w języku innym niż języki: angielski, niemiecki, francuski, hiszpański, rosyjski lub włoski 4 4 4 4
Redakcja naukowa monografii wieloautorskiej w języku podstawowym w danej dyscyplinie naukowej lub w językach:
angielskim, niemieckim, francuskim, hiszpańskim, rosyjskim lub włoskim 5 5 5 5
Redakcja naukowa monografii naukowej wieloautorskiej w języku polskim (jeżeli język polski nie jest językiem podstawowym
w danej dyscyplinie naukowej) lub w języku innym niż: angielski, niemiecki, francuski, hiszpański, rosyjski lub włoski 4 4 4 4
Patent na wynalazek udzielony przez Urząd Patentowy Rzeczypospolitej Polskiej lub udzielony za granicą na rzecz
ocenianej jednostki naukowej, której pracownikiem jest twórca wynalazku oraz jego wdrożenie 25, 50 25, 50 25, 50 25, 50
Patent na wynalazek udzielony za granicą lub udzielony przez Urząd Patentowy Rzeczypospolitej Polskiej na rzecz
podmiotu innego niż oceniana jednostka naukowa, której pracownikiem jest twórca wynalazku 15 15 15 15
Prawa ochronne na wzór użytkowy lub znak towarowy, prawa z rejestracji wzoru przemysłowego lub topografii układu
scalonego, udzielone przez Urząd Patentowy Rzeczypospolitej Polskiej lub udzielone za granicą na rzecz ocenianej
jednostki naukowej oraz zastosowanie wzoru
10, 20 10, 20 10, 20 10, 20
Zgłoszenie wynalazku w Urzędzie Patentowym Rzeczypospolitej Polskiej lub za granicą 2 2 2 2
Wykorzystane autorskie prawa majątkowe do utworu z zakresu architektury i urbanistyki lub sztuk projektowych 10 10
Wyłączne prawa do odmiany roślin udzielone jednostce naukowej przez Centralny Ośrodek Badania Odmian Roślin
Uprawnych lub udzielone za granicą 15
Autorska realizacja dzieła plastycznego upublicznionego i rozpowszechnianego za granicą 25
26
7
268
Kryteria Punkty
K1 K2 K3 K4
Autorska realizacja dzieła plastycznego upublicznionego i rozpowszechnianego w Polsce 12 Autorstwo mniejszych dzieł plastycznych rozpowszechnianych za granicą 12 Autorstwo mniejszych dzieł plastycznych rozpowszechnianych w Polsce 6 Indywidualna, premierowa wystawa plastyczna za granicą 20 Indywidualna, premierowa wystawa plastyczna w Polsce 10 Udział w zbiorowej wystawie plastycznej, udział w realizacji dzieła konserwatorskiego za granicą 4 Udział w zbiorowej wystawie plastycznej, udział w realizacji dzieła konserwatorskiego w Polsce 2 Autorstwo utworu muzycznego na dużą obsadę wykonawczą, autorska realizacja i upublicznienie dzieła plastycznego, dzieło
konserwatorskie wraz z dokumentacją, projekt konserwatorski, reżyseria lub zdjęcia do filmu pełnometrażowego, reżyseria
premierowego spektaklu teatralnego, autorstwo scenariusza, autorstwo scenografii 12, 25
Autorstwo utworu muzycznego na mniejszą obsadę wykonawczą, autorstwo mniejszych dzieł plastycznych i prac
konserwatorskich, konserwacja i rekonstrukcja zabytkowego instrumentu muzycznego, reżyseria lub zdjęcia do filmu
krótkometrażowego lub dokumentalnego 6, 12
Prawykonanie utworu muzycznego, pierwszoplanowa rola w filmie lub premierowym spektaklu, indywidualna,
premierowa wystawa plastyczna 10, 20
Prawykonanie utworu muzycznego, drugoplanowa rola w filmie lub premierowym przedstawieniu teatralnym 5, 10
Recital muzyczny, dyrygowanie koncertem symfonicznym, spektaklem operowym lub baletowym 5, 10
Udział w koncercie kameralnym (dyrygent, kameralista), udział w zbiorowej wystawie plastycznej, udział w realizacji
dzieła konserwatorskiego, realizacja nagrania, rekonstrukcja filmu lub nagrania dźwiękowego, realizacja imprezy
artystycznej (reżyseria, muzyka, oprawa plastyczna, reżyseria światła i dźwięku) 2, 4
2. POTENCJAŁ NAUKOWY
Uprawnienia do nadawania stopnia naukowego doktora habilitowanego lub stopnia doktora habilitowanego sztuki 70 70 70 70
Uprawnienia do nadawania stopnia naukowego doktora lub stopnia doktora sztuki 30 30 30 30
Stopień naukowy doktora lub stopień doktora sztuki uzyskany przez pracownika jednostki naukowej 2 2 2 2
Stopień naukowy doktora habilitowanego lub stopień doktora habilitowanego sztuki uzyskany przez pracownika jednostki 7, 9 7, 9 7, 9 7, 9
Tytuł naukowy profesora lub tytuł profesora sztuki uzyskany przez pracownika jednostki naukowej 10, 14 10, 14 10, 14 10, 14
Postępowanie o nadanie tytułu naukowego profesora lub tytułu profesora sztuki osobie niebędącej pracownikiem jednostki
naukowej, przeprowadzone w tej jednostce i zakończone nadaniem tytułu 5 5 5 5
Przewód habilitacyjny osoby niebędącej pracownikiem jednostki naukowej, przeprowadzony w jednostce i zakończony
uchwałą w sprawie nadania stopnia naukowego doktora habilitowanego lub stopnia doktora habilitowanego sztuki 3 3 3 3
Przewód doktorski osoby niebędącej pracownikiem jednostki naukowej, w tym będącej uczestnikiem studiów
doktoranckich prowadzonych przez jednostkę naukową, przeprowadzony w jednostce naukowej i zakończony uchwałą
w sprawie nadania stopnia naukowego doktora lub stopnia doktora sztuki
1 1 1 1
26
8
269
Kryteria Punkty
K1 K2 K3 K4
Pełnienie funkcji promotora przez pracownika jednostki naukowej w prowadzonym przez inną jednostkę naukową
przewodzie doktorskim osoby niebędącej pracownikiem jednostki naukowej zakończonym uchwałą w sprawie nadania
stopnia naukowego doktora lub stopnia doktora sztuki
1 1 1 1
Posiadanie laboratoriów o kompetencjach potwierdzonych przez uprawnione organizacje (akredytacja Polskiego Centrum
Akredytacji, akredytacja zagranicznej jednostki akredytacyjnej, notyfikacja lub certyfikacja) 10-50 10-50
Wdrożone międzynarodowe systemy jakości 10-30 10-30 Posiadanie statusu państwowego instytutu badawczego 10 10 Członkostwo pracowników jednostki naukowej we władzach zagranicznych lub międzynarodowych towarzystw,
organizacji i instytucji naukowych lub artystycznych, których członkowie pochodzą co najmniej z 10 państw 1, 2 1, 2 1, 2 1, 2
Pełnienie przez pracownika jednostki naukowej funkcji redaktora naczelnego czasopisma umieszczonego na listach
European Reference Index for the Humanities (ERIH) lub Journal Citation Reports (JCR) lub czasopisma naukowego
nieposiadającego współczynnika wpływu IF, za publikację w którym przyznaje się co najmniej 8 pkt, zgodnie z wykazem
Ministra Nauki i Szkolnictwa Wyższego
2 2 2 2
Członkostwo pracowników jednostki naukowej w komitetach redakcyjnych czasopism naukowych umieszczonych na
listach European Reference Index for the Humanities (ERIH) lub Journal Citation Reports (JCR) 1 1 1 1
Członkostwo pracowników jednostki naukowej w zespołach eksperckich powołanych przez organy i instytucje państwowe
oraz instytucje zagraniczne lub międzynarodowe 2 2 2 2
Wydawanie przez jednostkę naukową czasopisma naukowego wymienionego w części A lub C wykazu Ministra Nauki
i Szkolnictwa Wyższego 3 3 3 3
Pozyskane środki finansowe na realizację projektów obejmujących badania naukowe lub prace rozwojowe w ramach
krajowych lub zagranicznych postępowań konkursowych w stosunku do środków przyznanych na utrzymanie potencjału
badawczego (suma środków za okres podlegający ocenie) - za każdy procent powyżej 30% uzyskanych dotacji na
utrzymanie potencjału badawczego w okresie objętym ankietą
3-200
3. EFEKTY MATERIALNE DZIAŁALNOŚCI NAUKOWEJ
Ekspertyzy i opracowania naukowe lub działania artystyczne przygotowane na zlecenie przedsiębiorców, organizacji
gospodarczych, instytucji państwowych, samorządowych oraz zagranicznych lub międzynarodowych - za każde 50 tys. zł
przychodu jednostki naukowej z tego tytułu
1
Realizowane lub współrealizowane projekty obejmujące badania naukowe lub prace rozwojowe, na realizację których
środki finansowe zostały przyznane w ramach międzynarodowych lub zagranicznych postępowań konkursowych - za
każde 100 tys. zł pozyskane przez jednostkę naukową na realizację projektów ogółem
2 2
Realizowane lub współrealizowane projekty obejmujące badania naukowe lub prace rozwojowe, na realizację których
środki na badania zostały przyznane w ramach krajowych postępowań konkursowych - za każde 100 tys. zł pozyskane
przez jednostkę naukową na realizację projektów ogółem
1 1
Wynagrodzenia brutto (osobowe i bezosobowe) wypłacone pracownikom jednostki naukowej z tytułu prowadzenia badań
naukowych lub prac rozwojowych - za każde 50 tys. zł 2 2
269
270
Kryteria Punkty
K1 K2 K3 K4
Udokumentowane nakłady finansowe poniesione przez jednostkę naukową ze środków własnych lub ze środków
finansowych przyznanych na realizację projektów obejmujących badania naukowe lub prace rozwojowe na rozwój
infrastruktury badawczej: zakup, wytworzenie lub modernizację aparatury naukowo-badawczej i oprogramowania
służącego do celów badawczych, z wyłączeniem środków finansowych przyznanych na działalność dydaktyczną lub
pozyskanych z działalności dydaktycznej - za każde 50 tys. zł
2 2
Nowe technologie, materiały, produkty, metody i oprogramowanie opracowane na rzecz innych podmiotów na podstawie
umów zawartych przez jednostkę naukową - za każde 50 tys. zł przychodu jednostki naukowej z tego tytułu 1 1
Sprzedaż licencji i odpłatne przeniesienie praw do know-how - za każde 50 tys. zł przychodu jednostki naukowej z tego
tytułu 1 1
Ekspertyzy i opracowania naukowe lub działania artystyczne przygotowane na zlecenie przedsiębiorców, organizacji
gospodarczych, instytucji państwowych, samorządowych oraz zagranicznych lub międzynarodowych - za każde 50 tys. zł
przychodu jednostki naukowej z tego tytułu 1 1
Uzyskane i potwierdzone przez podmioty przychody ze sprzedaży produktów będących efektem wdrożenia wyników
badań naukowych lub prac rozwojowych zrealizowanych w jednostce naukowej – za każde 500 tys. przychodu podmiotu z
tego tytułu 1 5, 15, 30
4. POZOSTAŁE EFEKTY DZIAŁALNOŚCI NAUKOWEJ
Do 10 najważniejszych osiągnięć oznaczeniu ogólnospołecznym lub gospodarczym:
1) zastosowania wyników badań naukowych lub prac rozwojowych o dużym znaczeniu społecznym lub gospodarczym;
2) efektów wynikających z rozwoju infrastruktury badawczej oznaczeniu ogólnokrajowym lub międzynarodowym i jej
wykorzystania wykraczającego poza daną instytucję, w tym naukowych baz danych;
3) organizacji lub współorganizacji konferencji krajowych, w których wzięli udział przedstawiciele co najmniej 5 jedno-
stek naukowych, lub konferencji międzynarodowych, w których co najmniej 1/3 czynnych uczestników prezentujących
referaty reprezentowała zagraniczne ośrodki naukowe;
4) upowszechniania wiedzy oraz działalności popularnonaukowej;
5) publikacji lub monografii naukowych mających szczególne znaczenie dla dziedzictwa narodowego, rozwoju kultury lub
nauki.
0-100 0-100 0-100 0-100
Źródło: Opracowanie własne na podstawie Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 13 lipca 2012 roku w sprawie kryteriów i trybu przyznawania
oraz rozliczania środków finansowych na działalność statutową, Dz.U. 01.08.2012, poz. 877; Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 7 lutego 2013 roku
zmieniające rozporządzenie w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych na działalność statutową, Dz.U. 11.02.2013, poz. 191.
27
0
271
5.B. Grupy wzajemnej oceny w roku 2013
Lp. Kod
grupy Liczebność Lp.
Kod
grupy Liczebność Zestaw zmiennych Obszar wiedzy
1. HS1EK 93 2. HS3HS 4 K1
Nauki
humanistyczne i
społeczne
obszar nauk
humanistycznych
obszar nauk
społecznych
3. HS2EK 2 4. HS4HS 1
5. HS3EK 4 6. HS1PR 25
7. HS4EK 2 8. HS2PR 1
9. HS1FB 29 10. HS1SP 93
11. HS2FB 3 12. HS2SP 3
13. HS1FT 16 14. HS3SP 1
15. HS1HS 20 16. HS4SP 1
17. HS2HS 5
18. NZ1B 23 19. NZ1R 50 K2
Nauki o życiu
obszar nauk ścisłych
obszar nauk
technicznych
dyscyplina artystyczna
sztuki projektowe
20. NZ2B 17 21. NZ2R 13
22. NZ4B 1 23. NZ3R 16
24. NZ1M 78 25. NZ1Z 11
26. NZ3M 22 27. NZ3Z 1
28. NZ4M 1
29. SI1BA 32 30. SI2IM 2 K3
Nauki ścisłe
i inżynierskie
obszar nauk
przyrodniczych
obszar nauk rolniczych,
leśnych
i weterynaryjnych
obszar nauk
medycznych i nauk
o zdrowiu oraz nauk
o kulturze fizycznej
31. SI2BA 1 32. SI1MH 36
33. SI1CT 21 34. SI2MH 2
35. SI2CT 5 36. SI1MI 16
37. SI1EA 44 38. SI2MI 1
39. SI2EA 4 40. SI3EG 10
41. SI1FA 26 42. SI4EG 1
43. SI2FA 9 44. SI3EI 12
45. SI1GE 20 46. SI4EI 2
47. SI2GE 2 48. SI3IO 9
49. SI1IM 21 50. SI3MU 13
51. SI4MU 5 52. SI3TM 13
53. SI3TB 10 54. SI4TM 3
55. SI4TB 3
56. TA1MZ 35 57. TA4PR 1 K4
Nauki o sztuce
i twórczości
artystycznej
obszar sztuki
oraz dyscyplinę naukową
nauki o sztuce 58. TA1PK 39 59. TA1TF 14
60. TA1PR 14
Źródło: Opracowanie własne na podstawie Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia
13 lipca 2012 roku w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na działalność statutową, Dz. U. 01.08.2012, poz. 877; Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego
z dnia 7 lutego 2013 roku zmieniające rozporządzenie w sprawie kryteriów i trybu przyznawania
oraz rozliczania środków finansowych na działalność statutową, Dz. U. 11.02.2013, poz. 191.
272
Załącznik 6. Liczebność jednostek oraz rozpiętość przedziałów poszczególnych kategorii względem wskaźnika efektywności E
Kod
grupy
Liczba
jednostek
w grupie
Kategoria 1 Kategoria 2 Kategoria 3 Kategoria 4 Kategoria 5
N % max min N % max min N % max min N % max min N % max min
N1 34 14 41% 62,15 35,24 7 21% 33,69 31,16 10 29% 26,84 21,67 1 3% 17,31 10,25 0 0% - -
N2 17 6 35% 54,12 41,28 6 35% 39,4 35,22 3 18% 32,9 25,88 2 12% 22,35 18,32 0 0% - -
N3 20 9 45% 44,33 35,87 3 15% 34,89 34,35 7 35% 33,63 21,89 1 5% 19,07 19,07 0 0% - -
N4 64 18 28% 65,22 31,29 18 28% 30,23 22,41 17 27% 22,01 16,16 7 11% 15,07 8,27 1 2% 0 0
N5 86 30 35% 63,24 38,43 15 17% 37,87 32,14 23 27% 31,36 24,58 14 16% 21,71 4,25 0 0% - -
N6 21 9 43% 42,98 33,96 8 38% 31,89 22,65 2 10% 17,68 17,63 1 5% 11,78 11,78 1 5% 8,16 -
N7a 36 17 47% 97,33 56,07 6 17% 54,79 51,71 10 28% 47,85 39,36 1 3% 36,97 36,97 1 3% 25,52 -
N7b 21 10 48% 114,26 72,66 4 19% 65,13 59,86 5 24% 54,88 44,37 2 10% 32,63 31,68 0 0% - -
N8 35 12 34% 58,82 41,84 7 20% 39,68 31,03 8 23% 30,47 23,9 5 14% 22,94 20,41 2 6% 19,99 16,65
N9 40 17 43% 169,49 92,11 16 40% 90,37 51,88 4 10% 48,86 41,35 3 8% 36,68 36,12 0 0% - -
N10 14 6 43% 157,29 86,87 5 36% 79,6 53,76 3 21% 48,51 23,54 0 0% - - 0 0% - -
N11 55 25 45% 137,36 62,35 13 24% 61,9 48,77 15 27% 47,96 34,15 2 4% 32 29,82 0 0% - -
N13 20 11 55% 97,29 71,06 7 35% 69,32 50,48 2 10% 42,44 40,54 0 0% - - 0 0% - -
N14 56 19 34% 619,14 143 12 21% 141,45 103,85 16 29% 98,86 65 5 9% 61,82 46,81 3 5% 23,94 13,86
N15 28 21 75% 225,58 97,76 4 14% 91,46 85,61 3 11% 75,02 61,24 0 0% - - 0 0% - -
G1/N12 41 30 73% 240,96 102,66 6 15% 97,68 79,25 3 7% 77,68 69,82 2 5% 55,93 48,52 0 0% - -
M-N1-N6 51 18 35% 78,75 29,38 10 20% 28,08 20,63 7 14% 19,14 14,50 8 16% 12,62 6 8 16% 0 -
M-N9 5 2 40% 261,55 135,79 2 40% 86,82 86,02 1 20% 4,13 - - - - - - - - -
M-N7a 1 1 100% 59,06 - - - - - - - - - - - - - - - - -
M-N8 2 0 0% - - 0 0% - - 1 50% 26,64 - - - - - 1 50% 16,96 -
M-N14 28 10 36% 846,11 401,69 3 11% 309,73 239,00 6 21% 197,59 134,04 7 25% 115,59 65,50 2 7% 39,75 34,53
M-N15 5 4 80% 130,67 95,86 - - - - 1 20% 67,00 - - - - - - - - -
G2 43 16 37% 384,13 80,92 5 12% 77,39 71,8 17 40% 68,27 43,56 5 12% 36,75 7,27 0 0% - -
G3 28 9 32% 1169,96 196,67 4 14% 187,02 148,44 10 36% 126,48 53,6 5 18% 50,95 19,94 0 0% - -
G4 42 14 33% 119,05 46,22 17 40% 43,68 30,12 9 21% 29,38 20,33 1 2% 12,23 12,23 1 2% 1,12 -
G5 49 16 33% 516,38 87,15 8 16% 86,43 58,7 18 37% 57,6 31,18 6 12% 30,37 4,63 0 0% - -
G6 39 16 41% 185,74 123,05 11 28% 115,65 91,82 7 18% 77,53 45,8 5 13% 33,94 27,21 0 0% - -
G7 29 12 41% 394,55 116,5 3 10% 115,03 103,8 10 34% 86,69 49,36 3 10% 37,75 36,05 1 3% 0 0
G8 14 6 43% 374,23 198,78 3 21% 113,21 60,11 2 14% 54,23 39,5 3 21% 37,26 27,3 0 0% - -
M-G2-G8 21 7 33% 1353,25 103,22 4 19% 96,36 85,41 5 24% 80,66 47,47 5 24% 39,27 8,65 0 0% - -
Legenda: Nazwy grup według kodów znajdują się w aneksie, załącznik 4. Małe jednostki wydzielone z grup jednorodnych oznaczone są literą M.
Źródło: opracowanie własne.
27
2
273
Załącznik 7. Zestawienie publikacji na temat zastosowań metody DEA w Polsce
Publikacje, źródło Przedmiot analizy
M. Pawłowska, Konkurencja i efektywność na polskim rynku bankowym na tle zmian strukturalnych i technologicznych, „Materiały i Studia”
2005, nr 192.
efektywność banków
M. Pawłowska, S. Kozak, Określenie wpływu przystąpienia do strefy euro na efektywność, poziom konkurencji oraz na wyniki polskiego
sektora finansowego [w:] Raport na temat pełnego uczestnictwa Rzeczypospolitej Polskiej w trzecim etapie Unii Gospodarczej i Walutowej,
Część V. Projekty badawcze, NBP, s. 8-97.
efektywność banków
A. Feruś, Zastosowanie metody DEA do określania poziomu ryzyka kredytowego przedsiębiorstw, „Bank i Kredyt” 2006, nr 37 (7), s. 44-59. pomiar ryzyka
kredytowego
M. Pawłowska, T. Słaby, Analiza efektów skali w sektorze banków z zastosowaniem metod statystycznych, „Bank i Kredyt” 2004, nr 35 (7), s. 74-81. efektywność banków
A. Feruś, Szacowanie ryzyka kredytowego przedsiębiorstw z zastosowaniem metody DEA w ramach credit-scoringu [w:] Metody
matematyczne, ekonometryczne i komputerowe w finansach i ubezpieczeniach, P. Chrzan, T. Czernik (red.), Wydawnictwo Akademii
Ekonomicznej w Katowicach, Katowice 2008, s. 77-85.
pomiar ryzyka
kredytowego
T. Kopczewski, M. Pawłowska, Efektywność technologiczna i kosztowa banków komercyjnych w Polsce w latach 1997-2000, cz. II, „Materiały
i Studia” 2001, nr 135.
efektywność banków
M. Pawłowska, Wpływ procesów konsolidacyjnych na poziom konkurencji i efektywność systemów bankowych – wyniki badań ilościowych,
[w:] Konkurencyjność sektora bankowego po wejściu Polski do Unii Europejskiej, W. Kwaśniak, M. Pawłowska, A. Topiński, Zeszyty BRE
Bank – CASE , nr 76, 2005, s. 25-53.
efektywność banków
K. Chudy, M. Sobolewski, K. Stępień, Ocena produktywności banków w Polsce z zastosowaniem metod taksonomii, „Ekonomia i Nauki
Humanistyczne”, Zeszyty Naukowe Politechniki Rzeszowskiej, nr 286, Z. 19 (1), 2012, s. 35-47.
efektywność banków
A. Feruś, Zastosowanie metody DEA do określania poziomu ryzyka kredytowego przedsiębiorstw, „Bank i Kredyt”, nr 7, 2006, s. 44-59. poziom ryzyka
kredytowego
M. Guzowska, M. Kisielewska, J.G. Nellis, D. Zarzecki, Efficiency of the Polish banking sector – assessing the impact of transformation,
[w:] Data Envelopment Analysis and performance management, A. Emrouznejad, V. Podinovski (eds.), 4th
International Symposium of DEA,
Aston Business School Aston University, UK, 5-6 September 2004, pp. 163-170.
efektywność banków
A. Domagała, Przestrzenno-czasowa analiza efektywności jednostek decyzyjnych metodą Data Envelopment Analysis na przykładzie banków
polskich, „Badania Operacyjne i Decyzje” 2007, nr 3-4, s. 35-56.
efektywność banków
M. Gospodarowicz, Procedury analizy i oceny banków, „Materiały i Studia” 2000, nr 103. efektywność banków
M. Mielnik, M. Ławrynowicz., Badanie efektywności technicznej banków komercyjnych w Polsce metodą DEA, „Bank i Kredyt” 2002, nr 5. efektywność banków
M. Mielnik, M. Ławrynowicz, J. Szambelańczyk, Efektywność jako determinanta kapitalizacji banków spółdzielczych w Polsce w świetle
założeń nowej umowy kapitałowej komitetu bazylejskiego, „Ruch Prawniczy, Ekonomiczny i Socjologiczny” 2004, nr 1, 2004, s. 103-118.
efektywność banków
A. Kucharski, G. Szafrański, Ocena skuteczności inwestycji na rynku akcji metodą DEA, Zeszyty Naukowe Uniwersytetu Szczecińskiego 2004,
nr 389.
pomiar efektywności
inwestycji na rynku akcji
K. Stępień, Konsolidacja a efektywność banków w Polsce, Wydawnictwo CeDeWu, 2004. efektywność banków
M. Pawłowska, Analiza porównawcza efektywności technicznej polskiego sektora bankowego i sektorów bankowych krajów CEC5 i wybranych
krajów UE w latach 1997-2001, „Bank i Kredyt” 2004, nr 5.
efektywność banków
273
274
Publikacje, źródło Przedmiot analizy
D. Zarzecki, M. Guzowska, T. Wiśniewski, M. Kisielewska, K. Byrka-Kita, Ocena efektywności banków komercyjnych w Polsce za pomocą
metody DEA, [w:] Efektywność – rozważania nad istotą i pomiarem, T. Dudycz (red.), Prace Naukowe Akademii Ekonomicznej w Wrocławiu
2005, nr 1060, s. 463-479.
efektywność banków
G. Rogowski, Metody analizy i oceny działalności banku na potrzeby zarządzania strategicznego, Wydawnictwo Wyższej Szkoły Bankowej
w Poznaniu, Poznań 1998.
efektywność banków
M. Zychowicz, Ocena korzyści skali z zastosowaniem metody DEA, „Bank” 2001, nr 6, s. 46-51. efektywność banków
G. Rogowski, Analiza i ocena działalności banków z wykorzystaniem metody DEA, „Bank i Kredyt” 1996, nr 8. efektywność banków
G. Rogowski, Analiza efektywności banków na potrzeby zarządzania strategicznego bankiem. Cześć II. Zastosowanie metody DEA do analizy
polskich banków w 1994-1995 roku, „Badania Operacyjne i Decyzje” 1999, nr 3-4, s. 99-118.
efektywność banków
M. Zychowicz, Ocena korzyści skali w sektorze banków spółdzielczych w okresie 1995-2000 z zastosowaniem metody DEA, [w:] Inwestycje
finansowe i ubezpieczenia – tendencje światowe a polski rynek, K. Jajuga, W. Ronka-Chmielarz (red.), Prace Naukowe Akademii
Ekonomicznej we Wrocławiu 2002, nr 952, s. 524-530.
efektywność banków
J. Kudła, Efektywność i jakość w nieparametrycznych badaniach banków, [w:] Jakość a wzrost efektywności oddziałów bankowych, J. Kudła,
K. Opolski (red.), Wydawnictwo CeDeWu, Warszawa 2006, s. 71-88.
efektywność banków
J. Patla, Efektywność i produktywność inwestycji informatycznych banków, Zeszyty Naukowe Świętokrzyskie Centrum Edukacji na Odległość
SCENO 2007, nr 5a, s. 44-51.
efektywność banków
M. Pawłowska, Wpływ zmian w strukturze polskiego sektora bankowego na jego efektywność w latach 1997-2002 (podejście
nieparametryczne), „Bank i Kredyt” 2003, nr 11-12, s. 51-65.
efektywność banków
M. Pawłowska, Wpływ fuzji i przejęć na efektywność w sektorze banków komercyjnych w Polsce w latach 1997-2001, „Bank i Kredyt” 2003,
nr 2, s. 20-34.
efektywność banków
M. Pawłowska, Konkurencja i efektywność na polskim rynku bankowym na tle zmian strukturalnych i technologicznych, „Materiały i studia”
2005, nr 192, s. 20-25.
efektywność banków
A. Perek, Wykorzystanie metody DEA do oceny efektywności banków spółdzielczych w Polsce, „Economics and Management” 2014, t. 3, s. 222-235. efektywność banków
B. Guzik, Uwagi na temat zastosowania metody DEA do ustalania zdolności kredytowej, „Przegląd Statystyczny” 2009, r. LVI, z. 2, s. 3-24. efektywność banków
B. Guzik, Podstawowe możliwości analityczne modelu CCR, „Badania Operacyjne i Decyzje” 2009, nr 1, s. 55-75. efektywność banków
J. Nellis, D. Zarzecki, M. Guzowska, M. Kisielewska, Efektywność polskiego sektora bankowego w latach 1995-2002, Zeszyty Naukowe
Uniwersytetu Szczecińskiego. Prace Instytutu Ekonomiki i Organizacji Przedsiębiorstw 2005, nr 42, s. 101-114.
efektywność banków
B. Guzik, Główne analizy ekonomiczne na podstawie modelu nadefektywności CCR, „Badania Operacyjne i Decyzje” 2009, nr 3, s. 48-63. efektywność banków
B. Guzik, Model CCR-DP ze zdominowaną funkcją inflacyjną nakładów, „Badania Operacyjne i Decyzje” 2008, nr 4, s. 29-46. efektywność banków
Z. Korzeb, Pomiar efektywności działania banków komercyjnych, Prace Naukowe Akademii Ekonomicznej we Wrocławiu 2005, nr 1085, s. 252-260. efektywność banków
A. Radecka, Wpływ kapitału zagranicznego na efektywność sektora bankowego w Polsce w latach 1995-2007, „Debiuty Ekonomiczne , Rynek
finansowy i zarządzanie w skali mikro- i makroekonomicznej” 2011, nr 11, s. 276-298.
efektywność banków
G. Szafrański, Metoda DEA w analizie fundamentalnej polskiego rynku akcji, Acta Universitatis Lodziensis. Folia Oeconomica, Rynki
finansowe, prognozy a decyzje 2004, t. 177, s.347-360.
pomiar efektywności
inwestycji na rynku akcji
A. Matuszyk, A.K. Nowak, Wykorzystanie metody DEA do oceny efektywności banków komercyjnych, „Bezpieczny Bank” 2012, nr 1 (46), s. 57-80. efektywność banków
A. Deresz, G. Rogowski, Ocena działalności banków metodą DEA z użyciem specjalistycznego oprogramowania, Prace Naukowe Akademii
Ekonomicznej we Wrocławiu 1997, nr 766, s. 44-52.
efektywność banków
274
275
Publikacje, źródło Przedmiot analizy
M. Witkowski, Próba oceny efektywności fuzji Banku Zachodniego i Wielkopolskiego Banku Kredytowego za pomocą metody DEA, Zeszyty
Naukowe Uniwersytet Ekonomiczny w Poznaniu 2010, nr 133, s. 195-211.
efektywność banków
M. Kisielewska, Efektywność największych banków komercyjnych w Polsce - porównanie miar DEA z tradycyjnymi wskaźnikami efektywności,
Prace Naukowe Akademii Ekonomicznej we Wrocławiu 2007, nr 1183, s. 156-179.
efektywność banków
A. Żółtaszek, Zastosowanie indeksów Herfindahla-Hirschmana i Malmquista do weryfikacji wyników metody DEA, Studia i Prace
Uniwersytetu Ekonomicznego w Krakowie 2009, nr 2, s. 337-349.
efektywność banków
A. Zamojska, Zastosowanie metody DEA w klasyfikacji funduszy inwestycyjnych, „Przegląd Statystyczny” 2009, nr 56, z. 3-4, s. 51-66. efektywność zarządzania
portfelem inwestycyjnym
A. Bezat, Koncepcja pomiaru efektywności technicznej bazująca na zintegrowanym zastosowaniu metody SFA i metody DEA, Prace Naukowe
Uniwersytetu Ekonomicznego we Wrocławiu 2012, nr 261, s. 11-24.
przedsiębiorstwa handlu
zbożem
J. Kosmaczewska, Efektywność gospodarowania popytem turystycznym przez interesariuszy na przykładzie gmin nadmorskich, „Ekonomiczne
Problemy Usług” 2012, nr 83, s. 427-438.
efektywność działania
gmin w zakresie
turystyki
T. Kuszewski, A. Sielska, Efektywność sektora rolnego w województwach przed i po akcesji Polski do Unii Europejskiej, „Gospodarka
Narodowa” 2012, nr 3 (247), s. 19-42.
efektywność sektora
rolnego w województwach
J. Kosmaczewska, Analiza efektywności gospodarowania gmin wiejskich w kontekście rozwoju funkcji turystycznej z wykorzystaniem metody
DEA, „Ekonomika i Organizacja Gospodarki Żywnościowej” 2011, nr 90, s. 131-141.
efektywność turystyki
w gminach wiejskich
M. Gruda, M. Kwasek, Metoda DEA w badaniu konkurencyjności celów w polityce rolnej, Studia i Prace Uniwersytetu Ekonomicznego
w Krakowie 2010, nr 10, s. 225-239.
efektywność polityki
rolnej
K. Smędzik, Skala produkcji a efektywność różnych typów indywidualnych gospodarstw rolnych w Polsce z zastosowaniem modeli DEA,
„Roczniki Ekonomiczne Kujawsko-Pomorskiej Szkoły Wyższej” 2010, nr 1 (3), s. 261-273.
efektywność
gospodarstw rolnych
indywidualnych
M. Gospodarowicz, Parametryczna analiza efektywności technicznej gospodarstw wysokotowarowych w latach 1992-2005, [w:] Efektywność
– rozważania nad istotą i pomiarem, Dudycz T. Osbert-Pociecha G. (red.), Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu 2010,
s. 174-188.
efektywność
gospodarstw
wysokotowarowych
R. Rusielik, Zmiany efektywności działalności rolniczej w województwach Polski po akcesji do Unii Europejskiej, „Ekonomika i Organizacja
Gospodarki Żywnościowej”, Zeszyty Naukowe Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie 2010, nr 84, s. 13-21.
efektywność działalności
rolniczej w
województwach
M. Helta, Zastosowanie metody DEA do opracowania rankingu efektywności spółek agencji nieruchomości rolnych w 2006 roku, „Roczniki
Nauk Rolniczych” 2009, s. G, t. 96, z. 3, s. 107-110.
ranking spółek agencji
nieruchomości rolnych
E. Szymańska, Zastosowanie metody DEA do badania efektywności gospodarstw trzodowych, „Journal of Agribusiness and Rural
Development” 2009, nr 2(12), s. 249-255.
efektywność
gospodarstw trzodowych
Analiza efektywności ekonomicznej i finansowej przedsiębiorstw rolnych powstałych na bazie majątku WRSP, J. Kulawik (red.), Instytut
Ekonomiki Rolnictwa i Gospodarki Żywnościowej, Warszawa 2009.
efektywność
przedsiębiorstw rolnych
J. Baran, M. Pietrzak, Skala a efektywność spółdzielni mleczarskich w latach 2002-2006, „Roczniki Nauk Rolniczych” 2009, s. G, t. 9, z. 1, s. 101-108. efektywność
spółdzielni mleczarskich
27
5
276
Publikacje, źródło Przedmiot analizy
B. Karwat-Woźniak, Gospodarstwa wysokotowarowe w rolnictwie chłopskim. Synteza wyników badań, Instytut Ekonomiki Rolnictwa
i Gospodarki Żywnościowej, Warszawa 2009.
efektywność
gospodarstw
wysokotowarowych J. Ziółkowska, Determinanty efektywności technicznej obliczonej metodą DEA, „Zagadnienia Ekonomiki Rolnej” 2009, nr 3, s. 124-132.
P. Sulewski, Powierzchnia użytków rolnych a efektywność gospodarstw rodzinnych, „Roczniki Nauk Rolniczych” 2008, s. G, t. 94, z. 2, s. 130-135. efektywność
gospodarstw
rolnych indywidualnych
J. Bieńkowski, J. Jankowiak, A. Sadowski, Regionalne zróżnicowanie poziomu zrównoważenia rozwoju rolnictwa (na podstawie analizy
modelowej i indeksu syntetycznego), „Roczniki Naukowe” 2008, t. 10, z. 2, s. 22-27.
ocena rozwoju rolnictwa
w województwach
J. Baran, Efektywność techniczna a wyniki finansowe spółdzielni mleczarskich w latach 2003-2005, „Ekonomika i Organizacja Gospodarki
Żywnościowej” 2008, nr 64, s. 101-112.
efektywność spółdzielni
mleczarskich
T. Czekaj, Techniczna efektywność gospodarstw rolnych a skłonność do korzystania ze wsparcia inwestycji środkami publicznymi,
„Zagadnienia Ekonomiki Rolnej” 2008, nr 3, s. 31-44.
efektywność
gospodarstw rolnych
R. Rusielik, J. Prochorowicz, Porównanie efektywności skali produkcji mleka w wybranych gospodarstwach Europy w 2005 roku, „Roczniki
Nauk Rolniczych” 2007, s. G, t. 94, z. 1, s. 29-34.
efektywność produkcji
mleka
J. Baran, M. Pietrzak, Analiza efektywności wybranych branż polskiego agrobiznesu bazująca na metodzie DEA, „Roczniki Naukowe” 2007,
t. 9, z. 3, s. 15-23.
efektywność branż
przetwórstwa produktów
zwierzęcych
S. Gędek, Porównanie metod uwzględniania ryzyka w bilansach paszowych modelu programowania liniowego optymalizującego plany
produkcji gospodarstwa rolnego, „Roczniki Nauk Rolniczych” 2007, s. G, t. 94, z. 1, s. 7-22.
efektywność
gospodarstw
rolnych
J. Baran, Efektywność spółdzielni i pozostałych form prawnych działających w przemyśle mleczarskim z wykorzystaniem metody DEA,
„Roczniki Nauk Rolniczych” 2007, s. G, t. 94, z. 1, s. 103-110.
efektywność spółdzielni
przemysłu mleczarskiego
M. Helta, M. Świtłyk, Efektywność produkcji mleka w gospodarstwach należących do Europejskiego Stowarzyszenia Producentów Mleka
w 2005 roku, „Roczniki Nauk Rolniczych” 2007, s. G, t. 93, z. 2, s. 80-87.
efektywność
gospodarstw produkcji
mleka
J. Baran, M. Pietrzak, Analiza efektywności wybranych branż polskiego agrobiznesu bazująca na metodzie DEA, Stowarzyszenie Ekonomistów
Rolnictwa i Agrobiznesu, „Roczniki Naukowe” 2007, t. IX, z. 3, s. 15-19.
efektywność branży
przetwórstwa produktów
zwierzęcych
J. Bieńkowski, J. Jankowiak, Ocena zrównoważonego funkcjonowania gospodarstw rolnych Wielkopolski według kryteriów efektywności,
Zeszyty Naukowe Akademii Rolniczej We Wrocławiu, „Rolnictwo LXXXVII” 2006, nr 540, s. 57-64.
efektywność
gospodarstw rolnych
towarowych
Jurek A., Winnicki K., Zastosowanie metody DEA i indeksu produktywności Malmquista do oceny sytuacji ekonomicznej wybranych spółek
Agencji Nieruchomości Rolnych, Metody i zastosowania badań operacyjnych, Akademia Ekonomiczna, Katowice 2004, s. 163-175.
efektywność spółek
ANR
R. Rusielik, Pomiar efektywności skali produkcji w grupie przedsiębiorstw rolnych z wykorzystaniem metody DEA na przykładzie ośrodka
hodowli zarodowej, Prace Naukowe Akademii Ekonomicznej we Wrocławiu 2003, nr 980, s. 447-453.
efektywność ośrodków
hodowli zarodowej
M. Świłtyk, R. Rusielik, Efektywność techniczna nawożenia zbóż w Polsce w latach 1999-2001 – analiza przy zastosowaniu metody DEA,
„Folia Universitatis Agriculturae Stetinensis. Oeconomica” 2003, nr 42, s. 145-154.
ekonomika rolnictwa
276
277
Publikacje, źródło Przedmiot analizy
R. Rusielik, Pomiar efektywności gospodarowania w stadninach koni z wykorzystaniem metody DEA, „Folia Universitatis Agriculturae
Stetinensis. Oeconomica” 2000, t. 38, s. 85-98.
efektywność stadnin koni
M. Świłtyk, Zastosowanie metody DEA do analizy efektywności gospodarstw rolnych, „Zagadnienia Ekonomiki Rolnej” 1999, nr 6, s. 28-41. efektywność
gospodarstw rolnych
M. Świłtyk, R. Rusielik, Zastosowanie metody DEA do pomiaru efektywności rolnictwa w Polsce w latach 1990 i 1995, „Folia Universitatis
Agriculturae Stetinensis. Oeconomica” 1999, nr 36, s. 179-190.
ekonomika rolnictwa
J. Nazarko, J. Ńaparauskas, Application of DEA method in efficiency evaluation of public higher education institutions, “Technological
and Economic Development of Economy “ 2014, t. 20, nr 1, s. 25-44.
efektywność szkół
wyższych
J. Wolszczak-Derlacz, Efektywność naukowa, dydaktyczna i wdrożeniowa publicznych szkół wyższych w Polsce – analiza nieparametryczna,
Wydawnictwo Politechniki Gdańskiej, Gdańsk 2013.
efektywność szkół
wyższych
D. Kuchta, S. Ząbek, M. Urban, Proposed merger of DEA and ABC methods in accounting for the costing of higher education [w:] Information
systems architecture and technology. The use of it models for organization management, Politechnika Wrocławska, Wrocław 2012, s. 107-133.
efektywność szkół
wyższych
A. Wilczyński, M. Świtłyk, W. Pasewicz, Efektywność państwowych wyższych szkół zawodowych w latach 2004-2010, „Economy, Business
and Management” 2012, nr 245, 2012, s. 367-376.
efektywność
państwowych wyższych
szkół zawodowych
J. Nazarko, M. Jarocka, E. Chodakowska, Segmentacja szkół wyższych metodą analizy skupień versus konkurencja technologiczna ustalona
metodą DEA – studium komparatywne, „Economy, Business and Management” 2012, nr 242, s. 163-172.
klasyfikacja szkół
wyższych
E. Chodakowska, Wybrane metody klasyfikacji w konstrukcji ratingu szkół, „Economy, Business and Management” 2012, nr 242, s. 173-181. klasyfikacja szkół
gimnazjalnych
M. Świtłyk, Z. Mongiało, Zastosowanie metody DEA do pomiaru efektywności na uczelniach publicznych w latach 2004-2008, Zeszyty
Naukowe Uniwersytetu Ekonomicznego w Poznaniu 2011, nr 171, s. 375-384.
pomiar efektywności
uczelni publicznych
A. Staniewska-Garsztka, P. Garsztka, Badanie efektywności działalności szkół podstawowych w gminach województw lubuskiego,
wielkopolskiego i zachodniopomorskiego z zastosowaniem metody DEA, Zeszyty Naukowe Uniwersytet Ekonomiczny w Poznaniu 2011, nr
203, s. 86-103.
efektywność szkół
podstawowych
A. Ćwiąkała-Matys, Ustalenie efektywności procesu kształcenia publicznych uczelni akademickich przy wykorzystaniu nieparametrycznej
metody analizy nakładów i wyników DEA, „Zeszyty Teoretyczne Rachunkowości ” 2010, nr 111, s. 25-43.
efektywność szkół
wyższych
J. Polcyn, Data Envelopment Analysis (DEA) w szkole ponadgimnazjalnej, „Przedsiębiorstwa przyszłości” 2010, nr 3 (4), s. 80-88. efektywność szkół
ponadgimnazjalnych
P. Kieliński, Badanie efektywności studenckich kół naukowych Uniwersytetu Ekonomicznego w Poznaniu z wykorzystaniem nieparametrycznej analizy
danych (DEA), „Debiuty Ekonomiczne, Funkcjonowanie gospodarki i przedsiębiorstw: ujęcie teoretyczne i praktyczne” 2010 , nr 10, s. 40-53.
efektywność studenckich
kół naukowych
W. Gierulski, The method of Data Envelopment Analysis as a tool for compiling a rating list, “Operations Research and Decisions” 2010, nr 1,
s. 41-59.
efektywność kształcenia
w szkołach wyższych
Z. Mongiało, W. Pasewicz, M. Świtłyk, Efektywność kształcenia na publicznych uczelniach technicznych w latach 2001-2005, „Folia
Pomeranae Universitatis Technologiae Stetinensis „Oeconomica” 2010, nr 282 (60), s. 85-102.
efektywność kształcenia
w publicznych szkołach
wyższych
M. Świtłyk, Efektywność techniczna publicznych uczelni w latach 2001-2010, „Ekonometria” 2010, nr 4 (38), s. 320-342. efektywność szkół
wyższych
277
278
Publikacje, źródło Przedmiot analizy
W. Pasewicz, M. Świtłyk, Zastosowanie DEA do oceny efektywności technicznej działalności dydaktycznej uczelni publicznych w 2005 roku,
„Folia Pomeranae Universitatis Technologiae Stetinensis. Oeconomica” 2010, t. 59, s. 87-98.
efektywność szkół
wyższych
E. Chodakowska, Przykłady zastosowań metody Data Envelopment Analysis w badaniu efektywności podmiotów sektora edukacji, „Problemy
Zarządzania” 2009, t. 7, nr 4 (26), s. 91-112.
podmiotów sektora
edukacji
A. Ćwiąkała-Matys, Wykorzystanie Data Envelopment Analysis (DEA) do badania relacji nakłady-efekty w publicznym szkolnictwie
akademickim w Polsce, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu 2009, nr 56, s. 67-82.
efektywność szkół
wyższych
J. Nazarko, M. Komuda, K. Kuźmicz, E. Szubzda, J. Urban, Metoda DEA w badaniu efektywności instytucji sektora publicznego
na przykładzie szkół wyższych, „Badania Operacyjne i Decyzje” 2008, nr 4, s. 89-105.
efektywność szkół
wyższych
Szuwarzyński A., Pomiar efektywności działalności badawczej jednostek organizacyjnych wydziału, „Problemy Zarządzania” 2009, nr 4 (26),
s. 113-129.
efektywność szkół
wyższych
A. Szuwarzyński, Metoda DEA pomiaru efektywności działalności dydaktycznej szkół wyższych, „Nauka i Szkolnictwo Wyższe” 2006, nr 2/28,
s. 78-88.
efektywność szkół
wyższych
B. Kaczmarska, Badanie efektywności akademickich inkubatorów przedsiębiorczości z wykorzystaniem metody DEA [w:] Innowacyjno-
efektywnościowe problemy teorii i praktyki zarządzania, P. Łebkowski (red.), Uczelniane Wydawnictwa Naukowo-Dydaktyczne, Kraków
2009, s. 167-173.
efektywność
akademickich
inkubatorów
przedsiębiorczości
B. Kaczmarska, Modelowanie działalności akademickich inkubatorów przedsiębiorczości w procesie badania ich efektywności [w:] Kapitał
ludzki – innowacje – przedsiębiorczość, P. Niedzielski, K. Poznańska, K.B. Matusiak (red.), Ekonomiczne Problemy Usług 2009, nr 28, 141.
efektywność
akademickich
inkubatorów
przedsiębiorczości
B. Kaczmarska, Klasyfikacja i ocena efektywności ośrodków innowacji i przedsiębiorczości, Problemy Zarządzania, Wydawnictwo Naukowe
Wydziału Zarządzania Uniwersytetu Warszawskiego 2009, t. 7, nr 2(24), s. 71-86.
efektywność ośrodków
innowacji i
przedsiębiorczości
M. Nowak, A. Borowiec, Zastosowanie metody DEA w badaniu efektywności parków naukowo-technologicznych, „Organizacja i Zarządzanie”
2013, nr 61, s. 109-119.
efektywność parków
naukowo-
technologicznych
B. Kaczmarska, The data envelopment analysis method in benchmarking of technological incubators, “Operations Research and Decisions”
2010, t. 20, nr 1, s. 79-95.
efektywność
inkubatorów
technologicznych
M. Nowak, A. Borowiec, Zastosowanie metody DEA w badaniu efektywności parków naukowo-technologicznych, „Organizacja i Zarządzanie”
2013, nr 61, s. 109-119.
efektywność parków
naukowo-
technologicznych
J. Baran, P. Krawczyk, A. Janik, A. Ryszko, Problematyka oceny efektywności ekonomicznej wybranych technologii energetycznych w aspekcie
zrównoważonego rozwoju, „Górnictwo i Środowisko” 2011, nr 2, s. 5-15.
efektywność technologii
energetycznych
E. Mataczyńska, Data Envelopment Analysis as efficiency benchmarking method, “Studia Ekonomiczne” 2007, nr 1-2 (52-53), s. 97-112. efektywność spółek
dystrybucji energii
elektrycznej
27
8
279
Publikacje, źródło Przedmiot analizy
H. Piwowarska, Ocena efektywności technicznej krajowych elektrowni oraz elektrociepłowni zawodowych cieplnych z wykorzystaniem metody
DEA, „Energetyka” 2010, nr 4, s. 205-211.
efektywność elektrowni
i elektrociepłowni
J. Nazarko, J. Chrabołowska, Benchmarking w ocenie efektywności krajowych spółek dystrybucyjnych energii elektrycznej, Prace Naukowe
Akademii Ekonomicznej im. Oskara Langego we Wrocławiu, „Taksonomia” 2005, nr 12, s. 38-47.
efektywność spółek
dystrybucji energii
elektrycznej
A. Prędki, Wykorzystanie dualnych programów liniowych w badaniu efektywności jednostek produkcyjnych metodą DEA, „Przegląd
Statystyczny” 2005, t. 52, z. 2, s. 57-71.
efektywność elektrowni
i elektrociepłowni
A. Prędki, Podejście statystyczne w metodzie DEA na przykładzie jednoproduktowego modelu Bankera, „Folia Oeconomica Cracoviensia”
2012, t. 53, s. 41-58.
efektywność elektrowni
i elektrociepłowni
A. Prędki, Badanie poziomu efektywności technicznej i kosztowej jednostek gospodarczych metodą DEA, Zeszyty Naukowe Akademii
Ekonomicznej w Krakowie 2003, nr 628, s. 119-141.
efektywność elektrowni
i elektrociepłowni
A. Prędki, Liniowe programy dualne w analizie przychodu metodą DEA, „Przegląd Statystyczny” 2007, t. 54, z. 1, s. 94-108. efektywność spółek
dystrybucji energii
elektrycznej
J. Witkowska, Dobór zmiennych w modelach DEA do badań porównawczych produktywności na przykładzie krajowych spółek dystrybucji
energii elektrycznej, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu 2006, nr 13, s. 424-434.
efektywność spółek
dystrybucji energii
elektrycznej
J. Adamczyk, T. Nitkiewicz, DEA jako metoda oceny rozwoju równoważonego przedsiębiorstw energetycznych, „Problemy Ekologii” 2008,
t. 12, nr 1, s. 9-16.
efektywność
przedsiębiorstw
energetycznych
A. Prędki, Analiza efektywności za pomocą metody DEA: podstawy formalne i ilustracja ekonomiczna, „Przegląd Statystyczny” 2003, t. 50,
z. 1, s. 87-100.
efektywność
przedsiębiorstw
energetycznych
G. Kozuń-Cieślak, Wykorzystanie metody DEA do oceny efektywności w usługach sektora publicznego, „Wiadomości Statystyczne” 2011, nr 3,
s. 14-42.
ocena efektywności
wydatków publicznych
w UE
I. Laskowska, K. Lewandowska, Badanie efektywności ochrony zdrowia, „Wiadomości Statystyczne” 2009, nr 3, s. 33-42. efektywności służby
zdrowia
M. Jewczak, A. Żółtaczek, Ocena efektywności technicznej podmiotów sektora opieki zdrowotnej w Polsce w latach 1999-2009 w ujęciu
przestrzenno-czasowym na przykładzie szpitali ogólnych, „Problemy Zarządzania”, t. 9, nr 3 (33), s. 194-210.
efektywność szpitali
J. Rój, Ocena efektywności systemów ochrony zdrowia w wybranych krajach Unii Europejskiej z wykorzystaniem podejścia
nieparametrycznego, Acta Universitatis Lodziensis „Folia Oeconomica” 2011, nr 253, s. 143-153.
efektywność systemów
ochrony zdrowia
w krajach UE
B. Guzik, Propozycja metody szacowania efektywności instytucji non profit, Kujawsko-Pomorska Szkoła Wyższa w Bydgoszczy, „Roczniki
Ekonomiczne” 2009, nr 2, s. 75-92.
efektywność
województw w zakresie
ochrony zdrowia
J. Kujawska, Wykorzystanie metody DEA w zarządzaniu opieką zdrowotną, „Ekonomika i Organizacja Przedsiębiorstwa” 2010, nr 7, s. 67-76. efektywność szpitali
279
280
Publikacje, źródło Przedmiot analizy
P. Czarnecki, R. Szarota, D. Woźniak, Measuring the relative efficiency of economic sectors. Some advice for policy makers in Poland,
“Management, Business, Innovation” 2010, nr 6, s. 4-15.
efektywność sektora
budownictwa
w województwach
T. Strąk, M. Guzowska, An examination of the efficiency of Polish public sector enities based on public prosecutor offices, „Operations
Research and Decisions” 2010, t. 20, nr 2, s. 41-57.
efektywność biur
prokuratorskich
E. Szaruga, Zastosowanie programowania liniowego w ocenie efektywności zrównoważonego transportu, „Studia i Prace Wydziału Nauk
Ekonomicznych i Zarządzania”, nr 30, s. 283-298.
efektywność transportu
w wybranych krajach
A. Barczak, Zarys metodyki projektowania syntetycznych wskaźników zrównoważonego rozwoju transportu, „Logistyka” 2011, nr 3, s. 93-100.
A. Barczak, P. Barczak, Zastosowanie metody Data Envelopment Analysis (DEA) w procesie wyboru dostawców, Systemy Logistyczne, Teoria
i Praktyka, IV Międzynarodowa Konferencja Naukowo-Techniczna, „Logistyka” 2009, nr 2, CD.
efektywność sektora
transportu
A. Domagała, Metoda DEA jako narzędzie wsparcia w procesie kupna-sprzedaży samochodów osobowych, „Studia Oeconomica Posnaniensia”
2013, t. 1, nr 10, s. 5-25.
ocena transakcji kupna-
sprzedaży samochodów
osobowych
E. Chodakowska, K. Wardzińska, The attempt to create an internal credit risk rating of production companies with the use of operational
research method, “Quantitative Methods in Economics” 2013, t. XIV, nr 1, s. 74-83.
Pomiar ryzyka
kredytowego
przedsiębiorstw
produkcji okien
K. Wardzińska, Wykorzystanie metody obwiedni danych w procesie klasyfikacji przedsiębiorstw, „Taksonomia” 2013, nr 279, s. 217-225. efektywność
przedsiębiorstw
A. Masternak-Janus, Analiza efektywności gospodarowania przedsiębiorstw przemysłowych w Polsce, „Ekonomia i Zarządzanie” 2013, nr 4,
s. 111-126.
efektywność
przedsiębiorstw
E. Chodakowska, Indeks Malmquista w klasyfikacji podmiotów gospodarczych według zmian ich względnej produktywności działania,
„Taksonomia” 2013, nr 278, s. 300-310.
efektywność
przedsiębiorstw
E. Czyż-Gwiazda, Koncepcje pomiaru efektywności funkcjonowania organizacji – zastosowanie metody DEA w ocenie efektywności
organizacji, „Zarządzanie i Finanse” 2013, nr 1 (1), s. 103-116.
efektywność organizacji
K. Frodyma, Metoda DEA w analizie efektywności nakładów na gospodarkę odpadami, „Economy, Business and Management” 2013, nr 280,
s. 156-168.
efektywności nakładów
na gospodarkę odpadami
T. Kijek, Pomiar efektywności kapitału innowacyjnego przedsiębiorstwa przy zastosowaniu metody DEA, Prace Naukowe Uniwersytetu
Ekonomicznego we Wrocławiu 2012, nr 261, s. 132-140.
kapitał innowacyjny
przedsiębiorstw
P. Zbierowski, Orientacja pozytywna organizacji wysokiej efektywności, Oficyna Wolters Kluwer Business, Warszawa 2012. efektywność organizacji
Z. Łękawa, Możliwości wykorzystania metody DEA do oceny wiarygodności ekonomicznej jednostki samorządu terytorialnego - przegląd
badań i praktyczny aspekt zastosowania metody, Prace Naukowe Uniwersytetu Ekonomicznego we Wrocławiu, nr 247, 2012, s. 210-219.
jednostki samorządu
terytorialnego
S. Luściński, W. Gierulski, Identyfikacja stopnia rozwoju systemów informatycznych zarządzania, „Zarządzanie Przedsiębiorstwem” 2010,
nr 1, s. 46-54.
systemy informatyczne
28
0
281
Publikacje, źródło Przedmiot analizy
A. Becker, Analiza efektywności gospodarowania województw Polski [w:] Koniuktura gospodarcza a reakcje podmiotów gospodarujących, J.
Czech-Rogosz (red.), Wydawnictwo Akademii Ekonomicznej w Katowicach, Katowice 2009, s. 353-362.
efektywność
gospodarowania
województw
W. Gierulski, A. Okniński, B. Radziszewski, Częściowy porządek w wyważaniu wartości i rankingach – studium przypadku [w:] Innowacyjno-
efektywnościowe problemy teorii i praktyki zarządzania, W. Gierulski, A. Okniński, B. Radziszewski (red.), Uczelniane Wydawnictwa
Naukowo-Dydaktyczne AGH, Kraków 2009, s. 149-159.
przedsiębiorstwa
P. Zbierowski, Źródła sukcesu organizacji – wyniki badań, „Organizacja i Zarządzanie” 2009, nr 2(6), s. 139-157. selekcja przedsiębiorstw
wysokiej efektywności
A. Becker, J. Becker, Zastosowanie metody granicznej analizy danych do oceny gospodarowania województw Polski, „Studia i Materiały”
2009, nr 21, s. 5-12.
województwa Polski
B. Karbownik, G. Kula, Efektywność sektora publicznego na poziomie samorządu lokalnego, „Materiały i Studia” 2009, nr 242. efektywność wydatków
publicznych gmin
M. Parlińska, A. Bezat, Efficiency of the Polish wholesale markets. Validation based on the Data Envelopment Analysis, „Roczniki Naukowe”
2008, t. X, z. 5, s. 122-124.
rynki hurtowe
J. Barburski, Mierniki oceny efektywności ekonomicznej w oparciu o nieparametryczną funkcję produkcji, „Nierówności Społeczne a Wzrost
Gospodarczy” 2008, z. 13, s. 105-117.
pomiar poziomu
pracy
I. Jonek-Kowalska, Data Envelopment Analysis w ocenie efektywności technicznej wielozakładowego przedsiębiorstwa górniczego, „Przegląd
Organizacji” 2014, nr 3, s. 4-10.
górnictwo
P. Pachura, T. Nitkiewicz, Ocena efektywności wybranych komponentów kapitału intelektualnego regionów przy zastosowaniu metody Data
Envelopment Analysis, „Organizacja i Zarządzanie” 2008, nr 1, s. 22-37.
kapitał intelektualny
regionów (województw)
Źródło: Opracowanie własne.
281
282
Załącznik 8. Współczynniki korelacji cech wraz z poziomem ich istotności w poszczególnych grupach jednostek naukowych
8.A. Uczelnie
X3 X4 X5 X9 X10 X11 X12 X13 X14 X15 X16 X22 X24 X25 X26 X28 X29 X30 X31 X32 X33 X34 X35 X36 X37 X38 X47
X3 1,00 0,58 0,56 0,56 0,25 0,72 0,07 0,09 0,37 0,41 0,03 0,02 0,04 0,00 0,04 0,13 0,04 -0,01 0,04 -0,03 -0,01 0,05 0,12 0,12 0,02 0,04 0,53
X4 1,00 0,75 0,31 0,36 0,30 0,12 0,16 0,28 0,32 0,02 0,11 0,17 0,10 0,19 0,11 0,03 0,01 -0,02 0,08 -0,03 0,05 0,21 0,28 0,10 0,09 0,40
X5 1,00 0,34 0,36 0,33 0,11 0,17 0,27 0,24 -0,10 0,09 0,19 0,13 0,21 0,18 0,08 0,04 0,01 0,03 -0,06 0,12 0,27 0,32 0,13 0,10 0,51
X9 1,00 -0,17 0,21 -0,01 -0,09 -0,22 -0,20 -0,20 0,06 0,27 0,12 0,26 0,31 0,26 -0,03 -0,04 0,03 -0,07 0,15 0,20 0,12 -0,02 0,03 0,74
X10 1,00 -0,02 0,07 0,22 0,21 0,52 0,00 -0,02 -0,09 -0,06 -0,09 -0,07 -0,06 -0,04 -0,02 -0,08 -0,04 -0,05 -0,10 -0,03 -0,05 -0,05 -0,07
X11 1,00 0,06 0,03 0,36 0,12 -0,09 0,01 -0,05 -0,02 0,00 0,02 -0,05 0,06 0,05 0,01 -0,02 0,02 0,14 0,12 0,11 0,08 0,34
X12 1,00 0,08 0,05 0,01 -0,05 -0,01 -0,04 0,32 -0,03 0,07 -0,01 0,00 -0,01 0,11 -0,02 0,11 0,10 0,09 -0,01 0,00 0,06
X13 1,00 0,09 0,16 -0,05 0,00 -0,05 -0,01 -0,06 -0,03 -0,05 -0,03 0,00 0,00 0,00 -0,01 0,00 0,06 -0,02 0,00 -0,02
X14 1,00 0,31 0,12 -0,03 -0,15 -0,08 -0,15 -0,10 -0,13 -0,04 -0,01 -0,08 -0,02 -0,03 -0,01 -0,01 0,02 -0,02 -0,09
X15 1,00 0,03 -0,03 -0,13 -0,08 -0,14 -0,10 -0,10 -0,02 0,01 -0,04 -0,01 -0,02 -0,09 -0,01 0,00 0,01 -0,11
X16 1,00 -0,02 -0,06 -0,08 -0,10 -0,07 -0,07 -0,03 0,14 -0,05 0,34 -0,09 -0,10 -0,08 -0,06 -0,04 -0,18
X17 -0,02 -0,11 -0,04 -0,13 -0,09 -0,09 -0,07 -0,02 -0,08 -0,05 0,00 -0,05 -0,07 -0,06 -0,06 -0,07
X22 0,10 0,02 0,13 0,01 0,06 0,15 0,00 0,01 0,01 -0,01 0,05 0,10 0,01 0,01 0,13
X24 1,00 0,31 0,81 0,18 0,20 0,01 0,15 0,12 0,05 0,07 0,14 0,24 0,10 0,11 0,40
X25 1,00 0,32 0,13 0,14 0,04 -0,01 0,21 0,01 0,05 0,05 0,18 0,04 0,06 0,17
X26 1,00 0,25 0,20 0,08 -0,01 0,18 -0,02 0,11 0,18 0,32 0,14 0,21 0,41
X28 1,00 0,44 0,01 -0,01 0,03 -0,03 0,16 0,22 0,26 0,01 0,13 0,41
X29 1,00 0,01 -0,02 0,00 -0,02 0,06 0,09 0,12 0,00 0,08 0,29
X30 1,00 0,32 0,14 0,05 0,06 0,14 0,13 0,09 0,02 0,08
X31 1,00 -0,02 0,33 -0,02 0,01 0,01 -0,01 -0,01 0,03
X32 1,00 -0,02 0,04 0,17 0,18 0,29 0,17 0,15
X33 1,00 -0,04 0,04 0,00 -0,01 -0,02 -0,01
X34 1,00 0,34 0,22 0,04 0,26 0,31
X35 1,00 0,39 0,16 0,20 0,40
X36 1,00 0,24 0,30 0,45
X37 1,00 0,14 0,20
X38 1,00 0,19
X47
1,00
Źródło: Opracowanie własne.
28
2
283
8.B. Instytuty badawcze
X3 X4 X5 X9 X10 X11 X12 X13 X14 X15 X16 X22 X24 X25 X26 X28 X29 X30 X31 X32 X33 X34 X35 X36 X37 X38 X47
X3 1,00
X4 0,56 1,00
X5 0,51 0,75 1,00
X9 0,65 0,48 0,52 1,00
X10 -0,08 0,07 -0,05 -0,06 1,00
X11 0,73 0,44 0,43 0,19 -0,07 1,00
X12 0,34 0,30 0,34 0,21 0,05 0,37 1,00
X13 0,17 0,18 0,13 0,02 0,17 0,03 0,24 1,00
X14 0,27 0,23 0,24 -0,05 0,03 0,27 0,29 0,69 1,00
X15 0,34 0,12 0,13 0,07 -0,05 0,38 0,48 0,22 0,28 1,00
X16 0,66 0,29 0,17 0,38 -0,02 0,34 -0,05 0,08 0,06 0,06 1,00
X22 0,13 -0,07 -0,10 0,06 -0,03 0,16 0,06 -0,09 0,05 -0,03 -0,03 1,00
X24 0,17 -0,04 -0,09 0,11 -0,05 0,09 0,06 -0,10 -0,05 -0,02 -0,04 0,69 1,00
X25 0,00 0,01 -0,07 0,07 -0,04 0,01 0,02 -0,08 -0,03 -0,05 -0,06 0,52 0,54 1,00
X26 0,15 -0,07 -0,06 0,07 -0,05 0,20 0,06 -0,09 -0,11 0,07 -0,08 0,47 0,59 0,45 1,00
X28 0,06 -0,07 -0,03 0,05 -0,02 -0,02 -0,01 -0,07 -0,11 0,10 0,04 -0,05 0,25 -0,05 0,12 1,00
X29 0,06 -0,10 -0,04 0,03 -0,03 0,03 0,10 -0,01 -0,07 0,16 -0,04 0,01 0,17 0,01 0,43 0,42 1,00
X30 0,04 0,02 0,01 -0,09 -0,03 0,17 0,07 -0,07 -0,07 0,19 -0,03 0,02 0,05 -0,04 0,30 0,03 0,32 1,00
X31 0,14 0,12 0,03 -0,08 -0,02 0,09 -0,03 -0,04 -0,06 0,03 -0,04 0,01 0,23 0,03 0,24 0,00 0,02 0,19 1,00
X32 0,05 -0,17 -0,16 -0,06 -0,04 0,15 -0,04 -0,11 -0,09 0,04 -0,04 0,21 0,33 0,26 0,67 0,03 0,15 0,19 0,15 1,00
X33 0,07 0,06 -0,08 0,30 -0,01 -0,09 0,03 -0,06 -0,08 -0,06 -0,02 0,17 0,15 0,24 0,07 -0,04 -0,04 0,00 -0,03 0,03 1,00
X34 0,18 0,22 0,24 0,20 -0,04 0,10 0,24 0,15 0,12 0,13 0,01 0,07 0,06 0,12 0,05 -0,04 0,08 0,04 0,01 0,01 -0,03 1,00
X35 0,32 0,15 0,06 0,19 -0,08 0,25 0,13 0,19 0,17 0,38 0,15 0,00 0,09 0,09 0,17 0,00 0,03 0,23 0,03 0,13 0,11 0,35 1,00
X36 0,35 0,01 -0,01 -0,06 -0,07 0,39 0,30 0,21 0,32 0,43 0,06 0,21 0,12 0,16 0,28 -0,05 0,10 0,14 0,02 0,14 -0,04 0,15 0,35 1,00
X37 0,04 -0,14 -0,10 -0,01 -0,03 0,13 -0,05 -0,09 -0,10 0,02 -0,02 0,24 0,12 0,32 0,39 -0,04 0,15 0,18 0,03 0,41 -0,01 0,10 0,11 0,19 1,00
X38 0,01 -0,15 -0,11 0,01 -0,03 0,04 -0,09 -0,10 -0,09 0,02 -0,01 0,27 0,04 0,22 0,39 0,00 0,02 0,01 -0,02 0,36 -0,03 0,10 0,11 0,15 0,70 1,00
X47 0,68 0,54 0,60 0,67 -0,08 0,50 0,41 0,11 0,19 0,38 0,16 0,05 0,15 0,06 0,25 -0,03 0,09 0,12 0,09 0,14 0,13 0,37 0,37 0,33 0,12 0,05 1,00
Źródło: Opracowanie własne.
283
284
8.C. Jednostki naukowe PAN
X3 X4 X5 X9 X10 X11 X12 X13 X14 X15 X16 X22 X24 X25 X26 X28 X29 X30 X31 X32 X33 X34 X35 X36 X37 X38 X47
X3 1,00 0,48 0,56 0,82 0,11 0,11 0,32 -0,02 0,14 -0,09
0,15 0,24 0,08 0,37 0,04 0,09
-0,01 0,14 -0,02 0,28 0,42 0,52 -0,02 0,18 0,70
X4 1,00 0,90 0,30 0,08 0,19 0,24 0,15 0,22 -0,03
0,44 0,34 0,19 0,15 0,01 0,03
0,06 0,06 -0,02 0,04 0,10 0,16 -0,02 0,01 0,36
X5 1,00 0,36 0,14 0,18 0,33 0,14 0,22 -0,09
0,37 0,35 0,24 0,15 -0,05 -0,02
0,09 0,08 -0,10 0,13 0,18 0,17 -0,10 -0,04 0,44
X9 1,00 -0,30 -0,29 -0,02 -0,21 -0,31 -0,25
0,19 0,30 0,13 0,44 0,13 0,17
-0,02 0,13 0,04 0,43 0,45 0,60 0,04 0,15 0,69
X10 1,00 0,07 0,51 0,10 0,41 0,09
-0,08 -0,14 -0,10 -0,15 -0,08 -0,08
-0,06 -0,09 -0,04 -0,19 -0,22 -0,20 -0,04 -0,09 -0,03
X11 1,00 0,21 0,15 0,58 0,17
-0,04 -0,05 -0,09 -0,02 -0,10 -0,09
0,05 -0,02 -0,05 -0,20 -0,05 -0,13 -0,05 0,11 -0,12
X12 1,00 0,38 0,40 0,11
-0,11 -0,18 -0,19 -0,16 -0,16 -0,16
-0,07 0,10 -0,10 -0,08 -0,02 -0,15 -0,10 0,05 0,19
X13 1,00 0,30 0,06
-0,08 -0,10 0,01 -0,07 -0,14 -0,15
0,16 0,23 -0,08 -0,20 0,09 -0,06 -0,08 0,11 0,00
X14 1,00 0,33
-0,09 -0,14 0,09 -0,13 -0,10 -0,11
0,04 0,09 -0,05 -0,23 0,00 -0,08 -0,05 -0,01 -0,05
X15 1,00
-0,06 -0,13 -0,11 -0,15 -0,08 -0,09
-0,07 -0,06 -0,04 -0,19 0,01 -0,09 -0,04 -0,03 -0,15
X16 1,00
X22
1,00 0,45 0,26 0,24 0,54 0,55
-0,04 0,25 0,52 0,16 0,09 0,24 0,52 0,48 0,19
X24
1,00 0,30 0,78 0,05 0,18
0,13 0,10 -0,02 0,24 0,16 0,15 -0,02 0,05 0,24
X25
1,00 0,13 0,06 0,08
0,28 0,32 -0,04 0,35 0,15 0,40 -0,04 -0,08 0,09
X26
1,00 0,20 0,33
0,19 0,05 0,13 0,16 0,15 0,27 0,13 0,21 0,34
X28
1,00 0,94
-0,03 -0,04 0,95 0,05 -0,03 0,20 0,95 0,58 0,09
X29
1,00
0,05 -0,03 0,94 0,03 -0,04 0,15 0,94 0,60 0,12
X30
1,00
X31
1,00 -0,05 -0,02 0,24 0,20 -0,03 -0,02 0,30 0,01
X32
1,00 -0,03 0,06 0,18 0,26 -0,03 0,20 0,51
X33
1,00 -0,07 -0,07 0,13 1,00 0,64 0,02
X34
1,00 0,32 0,46 -0,07 0,04 0,33
X35
1,00 0,48 -0,07 0,21 0,27
X36
1,00 0,13 0,17 0,48
X37
1,00 0,64 0,02
X38
1,00 0,07
X47
1,00
Źródło: Opracowanie własne.
284
285
8.C. Inne jednostki naukowe
X3 X4 X5 X9 X10 X11 X12 X13 X14 X15 X16 X22 X24 X25 X26 X27 X28 X29 X30 X31 X32 X33 X34 X35 X36 X37 X38 X47
X3 1,00
X4
1,00
X5
1,00
X9 -0,19
1,00
X10
1,00
X11 0,57
0,15
1,00
X12 -0,34
0,53
0,18 1,00
X13 -0,37
-0,06
-0,56 -0,28 1,00
X14 -0,32
0,03
-0,03 -0,10 0,50 1,00
X15 0,72
-0,19
0,20 -0,16 -0,18 -0,11 1,00
X16 0,65
-0,16
0,15 -0,20 -0,14 -0,04 0,98 1,00
X22 0,90
0,02
0,69 -0,24 -0,29 -0,31 0,50 0,44 1,00
X24 -0,03
-0,32
0,02 0,18 -0,40 -0,19 -0,09 -0,11 -0,14 1,00
X25
1,00
X26 0,67
-0,01
0,63 -0,11 -0,41 -0,35 0,20 0,15 0,85 0,27
1,00
X27
1,00
X28 0,50
0,23
0,65 -0,16 -0,20 -0,25 -0,13 -0,16 0,79 -0,12
0,83
1,00
X29 0,50
0,23
0,65 -0,16 -0,20 -0,25 -0,13 -0,16 0,79 -0,12
0,83
1,00 1,00
X30 -0,12
0,71
0,31 0,84 -0,25 -0,18 -0,13 -0,20 0,03 -0,27
-0,02
0,14 0,14 1,00
X31 0,23
-0,22
0,17 0,37 -0,39 -0,15 0,49 0,47 0,11 0,71
0,31
-0,22 -0,22 -0,03 1,00
X32 0,38
-0,22
0,42 0,19 -0,36 -0,14 0,40 0,39 0,40 0,69
0,61
0,17 0,17 -0,15 0,88 1,00
X33 0,76
-0,25
0,25 -0,16 -0,21 -0,13 0,99 0,96 0,54 -0,07
0,25
-0,08 -0,08 -0,13 0,50 0,43 1,00
X34 0,50
0,23
0,65 -0,16 -0,20 -0,25 -0,13 -0,16 0,79 -0,12
0,83
1,00 1,00 0,14 -0,22 0,17 -0,08 1,00
X35 0,66
0,17
0,70 -0,19 -0,25 -0,27 0,10 0,05 0,91 -0,14
0,88
0,98 0,98 0,11 -0,11 0,27 0,14 0,98 1,00
X36 -0,09
-0,16
0,30 0,26 -0,22 0,14 -0,16 -0,15 0,00 0,82
0,39
0,11 0,11 -0,16 0,65 0,80 -0,14 0,11 0,08 1,00
X37 -0,02
-0,08
0,34 0,28 -0,28 -0,09 -0,18 -0,17 0,15 0,77
0,55
0,30 0,30 -0,08 0,63 0,83 -0,15 0,30 0,26 0,95 1,00
X38 0,21
-0,33
0,13 0,22 -0,31 -0,14 0,36 0,35 0,14 0,80
0,42
-0,10 -0,10 -0,22 0,96 0,93 0,38 -0,10 -0,02 0,78 0,77 1,00
X47 0,33
-0,16
-0,02 -0,13 0,05 -0,35 -0,15 -0,27 0,32 0,28
0,46
0,41 0,41 -0,02 -0,02 0,07 -0,09 0,41 0,39 0,07 0,14 0,10 1,00
Źródło: Opracowanie własne.
285
286
Załącznik 9. Lista jednostek naukowych w badaniach autorki i ich podział w grupy jednorodne
Kod
jednostki Jednostka naukowa Grupa
U7 Instytut Technologii Materiałów Elektronicznych 1
U10 Centrum Materiałów Polimerowych i Węglowych PAN 1
U15 Politechnika Warszawska Wydział Inżynierii Chemicznej i Procesowej 1
U19 Wojskowa Akademia Techniczna Wydział Nowych Technologii i Chemii 1
U27 Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy
Wydział Technologii i Inżynierii Chemicznej 1
U28 Politechnika Rzeszowska Wydział Chemiczny 1
U33 Instytut Inżynierii Chemicznej PAN 1
U34 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Odlewnictwa 1
U35 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Inżynierii i Technologii
Chemicznej 1
U38 Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach Wydział Nauk Ścisłych 1
U40 Akademia Techniczno Humanistyczna w Bielsku Białej Wydział Nauk o Materiałach
i Środowisku 1
U45 Branżowy Ośrodek Badawczo Rozwojowy Maszyn Elektrycznych KOMEL 1
U46 Instytut Mechanizacji Budownictwa i Górnictwa Skalnego 1
U47 Przemysłowy Instytut Maszyn Rolniczych 1
U48 Instytut Optyki Stosowanej 1
U58 Wojskowa Akademia Techniczna Wydział Mechatroniki 1
U59 Instytut Zaawansowanych Technologii Wytwarzania 1
U63 Politechnika Świętokrzyska w Kielcach Wydział Mechatroniki i Budowy Maszyn 1
U65 Politechnika Opolska Wydział Mechaniczny 1
U66 Akademia Marynarki Wojennej w Gdyni Wydział Mechaniczno Elektryczny 1
U71 Przemysłowy Instytut Maszyn Budowlanych 1
U72 Ośrodek Badawczo Rozwojowy Maszyn Przędzalnictwa Wełny BELMATEX 1
U76 Akademia Morska w Szczecinie Wydział Mechaniczny 1
U81 Ośrodek Badawczo Rozwojowy Dźwignic i Urządzeń Transportowych DETRANS 1
U82 Politechnika Lubelska Wydział Podstaw Techniki 1
U83 Instytut Technologii Elektronowej PREDOM OBR 1
U84 Akademia Morska w Gdyni Wydział Mechaniczny 1
U86 Centrum Badawczo Konstrukcyjne Obrabiarek 1
U88 Centralny Ośrodek Badawczo Rozwojowy Maszyn Włókienniczych POLMATEX CENARO 1
U89 Ośrodek Badawczo Rozwojowy Budowy Urządzeń Chemicznych CEBEA 1
U100 Centralne Laboratorium Ochrony Radiologicznej 1
U101 Instytut Obróbki Plastycznej 1
U102 COBRO Instytut Badawczy Opakowań 1
U104 Instytut Mechaniki Precyzyjnej 1
U107 Instytut Przemysłu Skórzanego 1
U108 Instytut Technologii Bezpieczeństwa MORATEX 1
U109 Instytut Włókien Naturalnych i Roślin Zielarskich 1
U110 Instytut Technologii Drewna 1
U111 Instytut Inżynierii Materiałów Polimerowych i Barwników 1
U112 Centralny Ośrodek Badawczo Rozwojowy Aparatury Badawczej i Dydaktycznej COBRABiD 1
U113 Centralny Ośrodek Chłodnictwa COCH 1
U114 Centralny Ośrodek Badawczo Rozwojowy Przemysłu Izolacji Budowlanej 1
U117 Instytut Budownictwa Wodnego PAN 1
U124 Politechnika Warszawska Wydział Budownictwa Mechaniki i Petrochemii w Płocku 1
U127 Politechnika Opolska Wydział Budownictwa 1
U129 Instytut Rozwoju Miast 1
U132 Instytut Wzornictwa Przemysłowego Sp. z o.o. 1
U133 Politechnika Lubelska Wydział Budownictwa i Architektury 1
U139 Politechnika Częstochowska Wydział Budownictwa 1
U144 Instytut Gospodarki Przestrzennej i Mieszkalnictwa 1
U145 Politechnika Koszalińska Instytut Wzornictwa 1
287
Kod
jednostki Jednostka naukowa Grupa
U154 Wojskowa Akademia Techniczna Instytut Optoelektroniki 1
U159 Instytut Maszyn Matematycznych 1
U161 Instytut Techniki i Aparatury Medycznej ITAM 1
U167 Politechnika Łódzka Wydział Fizyki Technicznej Informatyki i Matematyki Stosowanej 1
U168 Zachodniopomorski Uniwersytet Technologiczny Wydział Elektryczny 1
U170 Politechnika Koszalińska Wydział Elektroniki i Informatyki 1
U174 Akademia Morska w Gdyni Wydział Elektryczny 1
U176 Politechnika Częstochowska Wydział Elektryczny 1
U185 Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy
Wydział Telekomunikacji i Elektrotechniki 1
U188 Politechnika Świętokrzyska w Kielcach Wydział Elektrotechniki Automatyki i Informatyki 1
U189 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Inżynierii Elektrycznej
i Komputerowej 1
U190 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Fizyki Matematyki
i Informatyki Stosowanej 1
U191 Instytut Logistyki i Magazynowania 1
U203 Instytut Mechaniki Górotworu PAN 1
U206 Instytut Górnictwa Odkrywkowego POLTEGOR INSTYTUT 1
U208 Instytut Transportu Samochodowego 1
U209 Instytut Badań i Rozwoju Motoryzacji BOSMAL Sp. z o. o. 1
U210 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Paliw i Energii 1
U212 Instytut Geodezji i Kartografii 1
U215 Akademia Morska w Szczecinie Wydział Nawigacyjny 1
U216 Instytut Kolejnictwa 1
U218 Politechnika Gdańska Wydział Oceanotechniki i Okrętownictwa 1
U219 Przemysłowy Instytut Motoryzacji 1
U223 Politechnika Wrocławska Wydział Geoinżynierii Górnictwa i Geologii 1
U226 Zachodniopomorski Uniwersytet Technologiczny Wydział Techniki Morskiej 1
U227 Akademia Morska w Szczecinie Wydział Inżynieryjno Ekonomiczny Transportu 1
U229 Instytut Automatyki Systemów Energetycznych 1
U239 Instytut Warzywnictwa im. Emila Chroboczka 1
U240 Instytut Podstaw Inżynierii Środowiska PAN 1
U245 Politechnika Częstochowska Wydział Inżynierii i Ochrony Środowiska 1
U248 Politechnika Lubelska Wydział Inżynierii Środowiska 1
U250 Politechnika Wrocławska Wydział Inżynierii Środowiska 1
U255 Uniwersytet Przyrodniczy w Poznaniu Wydział Melioracji i Inżynierii Środowiska 1
U256 Wojskowy Instytut Techniki Pancernej i Samochodowej 1
U257 Wojskowy Instytut Techniki Inżynieryjnej 1
U262 Wojskowy Instytut Chemii i Radiometrii 1
U263 Centrum Naukowo Badawcze Ochrony Przeciwpożarowej im. Józefa Tuliszkowskiego 1
U264 Szkoła Główna Służby Pożarniczej Wydział Inżynierii Bezpieczeństwa Cywilnego 1
U265 Akademia Marynarki Wojennej w Gdyni Wydział Nawigacji i Uzbrojenia Okrętowego 1
U266 Wyższa Szkoła Policji w Szczytnie 1
U268 Akademia Marynarki Wojennej w Gdyni Wydział Zarządzania i Dowodzenia 1
U270 Szkoła Główna Służby Pożarniczej Wydział Inżynierii Bezpieczeństwa Pożarowego 1
U311 Instytut Dendrologii PAN 1
U313 Instytut Genetyki Roślin PAN 1
U314 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Bioinżynierii Zwierząt 1
U316 Instytut Fizjologii Roślin im. Franciszka Górskiego PAN 1
U317 Instytut Genetyki i Hodowli Zwierząt PAN 1
U319 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Ochrony Środowiska i Rybactwa 1
U320 Instytut Fizjologii i Żywienia Zwierząt im. J. Kielanowskiego PAN 1
U322 Ogród Botaniczny Centrum Zachowania Różnorodności Biologicznej PAN 1
U323 Zakład Ichtiobiologii i Gospodarki Rybackiej PAN 1
U325 Instytut Środowiska Rolniczego i Leśnego PAN 1
U327 Uniwersytet Przyrodniczy we Wrocławiu Wydział Biologii i Hodowli Zwierząt 1
288
Kod
jednostki Jednostka naukowa Grupa
U328 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Leśny 1
U330 Politechnika Łódzka Instytut Papiernictwa i Poligrafii 1
U331 Uniwersytet Przyrodniczy w Poznaniu Wydział Hodowli i Biologii Zwierząt 1
U332 Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Wydział Ogrodniczy 1
U335 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Technologii Żywności 1
U338 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Nauk o Zwierzętach 1
U340 Uniwersytet Przyrodniczy w Poznaniu Wydział Technologii Drewna 1
U341 Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Wydział Technologii Żywności 1
U344 Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Wydział Hodowli i Biologii Zwierząt 1
U345 Uniwersytet Przyrodniczy w Lublinie Wydział Nauk o Żywności i Biotechnologii 1
U346 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Rolnictwa i Biologii 1
U347 Uniwersytet Przyrodniczy w Poznaniu Wydział Leśny 1
U362 Uniwersytet Warszawski Interdyscyplinarne Centrum Modelowania Matematycznego
i Komputerowego 1
U368 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Matematyczno Przyrodniczy 1
U371 Politechnika Warszawska Wydział Matematyki i Nauk Informacyjnych 1
U372 Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie Wydział
Matematyczno Fizyczno Techniczny 1
U373 Uniwersytet Rzeszowski Wydział Matematyczno Przyrodniczy 1
U374 Instytut Informatyki Teoretycznej i Stosowanej PAN 1
U375 Uniwersytet Kazimierza Wielkiego Wydział Matematyki Fizyki i Techniki 1
U376 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Matematyki
Stosowanej 1
U378 Uniwersytet w Białymstoku Wydział Matematyki i Informatyki 1
U379 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Matematyki i Informatyki 1
U382 Uniwersytet Zielonogórski w Zielonej Górze Wydział Matematyki Informatyki i
Ekonometrii 1
U385 Centrum Badań Kosmicznych PAN 1
U392 Instytut Fizyki Molekularnej PAN 1
U394 Centrum Astronomiczne im. Mikołaja Kopernika PAN 1
U398 Uniwersytet w Białymstoku Wydział Fizyki 1
U402 Uniwersytet Warszawski Środowiskowe Laboratorium Ciężkich Jonów 1
U403 Politechnika Poznańska Wydział Fizyki Technicznej 1
U404 Instytut Energii Atomowej 1
U405 Politechnika Rzeszowska Wydział Matematyki i Fizyki Stosowanej 1
U406 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Fizyki Matematyki
i Informatyki Stosowanej 1
U407 Uniwersytet Szczeciński Wydział Matematyczno Fizyczny 1
U409 Uniwersytet Opolski Wydział Matematyki Fizyki i Informatyki 1
U410 Centrum Fizyki Teoretycznej PAN 1
U411 Uniwersytet Warszawski Środowiskowe Laboratorium Ciężkich Jonów 1
U412 Instytut Europy Środkowo Wschodniej w Lublinie 1
U419 Zakład Archeologii Śródziemnomorskiej PAN 1
U420 Instytut Zachodni Instytut Naukowo Badawczy im. Zygmunta Wojciechowskiego 1
U423 Państwowy Instytut Naukowy Instytut Śląski 1
U426 Zakład Krajów Pozaeuropejskich PAN 1
U431 Ośrodek Badań Naukowych im. Wojciecha Kętrzyńskiego 1
U444 Uniwersytet Śląski w Katowicach Wydział Teologiczny 1
U446 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Teologiczny 1
U447 Wyższa Szkoła Filozoficzno Pedagogiczna Ignatianum w Krakowie Wydział Filozoficzny 1
U449 Uniwersytet Szczeciński Wydział Teologiczny 1
U450 Uniwersytet Warszawski Instytut Studiów Społecznych 1
U451 Politechnika Opolska Wydział Edukacji Technicznej i Informatycznej 1
U452 Instytut Psychologii PAN 1
U456 Instytut Badań Edukacyjnych 1
U461 Uniwersytet Warszawski Centrum Europejskie 1
289
Kod
jednostki Jednostka naukowa Grupa
U472 Politechnika Radomska im. Kazimierza Pułaskiego Wydział Nauczycielski 1
U493 Uniwersytet Ekonomiczny we Wrocławiu Wydział Inżynieryjno Ekonomiczny 1
U494 Uniwersytet Ekonomiczny w Poznaniu Wydział Informatyki i Gospodarki Elektronicznej 1
U495 Uniwersytet Ekonomiczny w Poznaniu Wydział Towaroznawstwa 1
U500 Instytut Badań Rynku Konsumpcji i Koniunktur 1
U503 Instytut Nauk Ekonomicznych PAN 1
U513 Instytut Rozwoju Wsi i Rolnictwa PAN 1
U514 Uniwersytet Ekonomiczny w Krakowie Wydział Towaroznawstwa 1
U522 Politechnika Radomska Wydział Ekonomiczny 1
U524 Instytut Organizacji i Zarządzania w Przemyśle ORGMASZ 1
U542 Politechnika Świętokrzyska w Kielcach Wydział Zarządzania i Modelowania Komputerowego 1
U547 Uniwersytet Opolski Wydział Ekonomiczny 1
U548 Politechnika Warszawska Kolegium Nauk Społecznych i Administracji 1
U562 Uniwersytet Opolski Wydział Prawa i Administracji 1
U566 Uniwersytet Szczeciński Wydział Prawa i Administracji 1
U570 Uniwersytet Medyczny im. Piastów Śląskich we Wrocławiu Wydział Lekarsko-Stomatologiczny 1
U574 Instytut Centrum Zdrowia Matki Polki 1
U575 Instytut Fizjologii i Patologii Słuchu 1
U576 Instytut Gruźlicy i Chorób Płuc 1
U577 Instytut Hematologii i Transfuzjologii 1
U578 Instytut Kardiologii 1
U579 Instytut Matki i Dziecka 1
U581 Instytut Medycyny Wsi im. Witolda Chodźki 1
U584 Instytut Reumatologii im. prof. dr hab. med. Eleonory Reicher 1
U603 Instytut Genetyki Człowieka PAN 1
U607 Instytut Biologii Medycznej PAN 1
U608 Narodowy Instytut Leków 1
U617 Pomorski Uniwersytet Medyczny w Szczecinie Wydział Lekarsko Biotechnologiczny
i Medycyny Laboratoryjnej 1
U619 Instytut Medycyny Pracy i Zdrowia Środowiskowego 1
U620 Instytut Żywności i Żywienia im. prof. dra med. Aleksandra Szczygła 1
U622 Uniwersytet Medyczny w Białymstoku Wydział Nauk o Zdrowiu 1
U625 Pomorski Uniwersytet Medyczny w Szczecinie Wydział Nauk o Zdrowiu 1
U626 Śląski Uniwersytet Medyczny w Katowicach Wydział Zdrowia Publicznego 1
U629 Instytut Sportu 1
U638 Akademia Wychowania Fizycznego we Wrocławiu Wydział Fizjoterapii 1
U642 Akademia Wychowania Fizycznego i Sportu im. Jędrzeja Śniadeckiego w Gdańsku
Wydział Turystyki i Rekreacji 1
U643 Akademia Wychowania Fizycznego im. Eugeniusza Piaseckiego w Poznaniu Wydział
Turystyki i Rekreacji 1
U646 Akademia Wychowania Fizycznego w Warszawie Wydział Rehabilitacji 1
U648 Wojskowy Instytut Medycyny Lotniczej 1
U649 Międzynarodowy Instytut Biologii Molekularnej i Komórkowej 1
U650 Uniwersytet Gdański Międzyuczelniany Wydział Biotechnologii AMG i UG 1
U652 Instytut Ochrony Przyrody PAN 1
U655 Uniwersytet Wrocławski Wydział Biotechnologii 1
U656 Instytut Paleobiologii im. Romana Kozłowskiego PAN 1
U657 Instytut Botaniki im. W. Szafera PAN 1
U659 Muzeum i Instytut Zoologii PAN 1
U661 Instytut Systematyki i Ewolucji Zwierząt PAN 1
U662 Instytut Parazytologii im. Witolda Stefańskiego PAN 1
U666 Uniwersytet Gdański Wydział Biologii 1
U668 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Biologii 1
U669 Centrum Badań Ekologicznych PAN 1
U679 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Matematyczno Przyrodniczy 1
U680 Zakład Badania Ssaków PAN 1
290
Kod
jednostki Jednostka naukowa Grupa
U682 Zakład Antropologii PAN 1
U683 Zakład Biologii Antarktyki PAN 1
U41 Uniwersytet Technologiczno-Humanistyczny im. Kazimierza Pułaskiego w Radomiu im.
Kazimierza Pułaskiego Wydział Materiałoznawstwa Technologii i Wzornictwa 2
U67 Politechnika Gdańska Wydział Mechaniczny 2
U70 Politechnika Koszalińska Wydział Mechaniczny 2
U77 Politechnika Warszawska Wydział Samochodów i Maszyn Roboczych 2
U78 Uniwersytet Technologiczno-Humanistyczny im. Kazimierza Pułaskiego w Radomiu
Wydział Mechaniczny 2
U79 Akademia Techniczno Humanistyczna w Bielsku Białej Wydział Budowy Maszyn
i Informatyki 2
U80 Politechnika Warszawska Wydział Inżynierii Produkcji 2
U126 Politechnika Warszawska Wydział Inżynierii Lądowej 2
U130 Politechnika Rzeszowska Wydział Budownictwa i Inżynierii Środowiska 2
U135 Uniwersytet Zielonogórski w Zielonej Górze Wydział Inżynierii Lądowej i Środowiska 2
U173 Wojskowa Akademia Techniczna Wydział Cybernetyki 2
U177 Uniwersytet Zielonogórski w Zielonej Górze Wydział Elektrotechniki Informatyki
i Telekomunikacji 2
U178 Politechnika Wrocławska Wydział Informatyki i Zarządzania 2
U179 Politechnika Białostocka Wydział Informatyki 2
U183 Politechnika Białostocka Wydział Elektryczny 2
U186 Zachodniopomorski Uniwersytet Technologiczny Wydział Informatyki 2
U222 Akademia Morska w Gdyni Wydział Nawigacyjny 2
U225 Politechnika Warszawska Wydział Geodezji i Kartografii 2
U228 Uniwersytet Technologiczno-Humanistyczny im. Kazimierza Pułaskiego w Radomiu
Wydział Transportu 2
U254 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Inżynierii
i Kształtowania Środowiska 2
U267 Akademia Obrony Narodowej Wydział Bezpieczeństwa Narodowego 2
U269 Wyższa Szkoła Oficerska Wojsk Lądowych we Wrocławiu 2
U276 Uniwersytet Warszawski Wydział Orientalistyczny 2
U282 Uniwersytet Wrocławski Wydział Filologiczny 2
U283 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Nauk Humanistycznych 2
U284 Uniwersytet Jagielloński w Krakowie Wydział Filologiczny 2
U287 Uniwersytet Warszawski Wydział Neofilologii 2
U288 Uniwersytet Warszawski Wydział Lingwistyki Stosowanej 2
U289 Uniwersytet w Białymstoku Wydział Filologiczny 2
U290 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Humanistyczny 2
U291 Akademia Pomorska w Słupsku Wydział Filologiczno Historyczny 2
U292 Uniwersytet Jana Kochanowskiego w Kielcach Wydział Humanistyczny 2
U293 Uniwersytet Zielonogórski w Zielonej Górze Wydział Humanistyczny 2
U294 Akademia im. Jana Długosza w Częstochowie Wydział Filologiczno Historyczny 2
U295 Akademia Techniczno Humanistyczna w Bielsku Białej Wydział Humanistyczno-Społeczny 2
U296 Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie Wydział
Humanistyczny 2
U297 Uniwersytet Śląski w Katowicach Wydział Etnologii i Nauk o Edukacji w Cieszynie 2
U298 Uniwersytet Gdański Wydział Filologiczny 2
U305 Uniwersytet Śląski w Katowicach Wydział Nauk o Ziemi 2
U306 Uniwersytet Warszawski Wydział Geologii 2
U348 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Technologii Drewna 2
U349 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Inżynierii Produkcji 2
U353 Uniwersytet Przyrodniczy w Poznaniu Wydział Ogrodniczy 2
U358 Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy
Wydział Hodowli i Biologii Zwierząt 2
U421 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Historyczny 2
U422 Uniwersytet Jagielloński w Krakowie Wydział Historyczny 2
291
Kod
jednostki Jednostka naukowa Grupa
U425 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Nauk Historycznych 2
U427 Uniwersytet Papieski Jana Pawła II Wydział Historii i Dziedzictwa Kulturowego 2
U428 Uniwersytet w Białymstoku Wydział Historyczno Socjologiczny 2
U429 Uniwersytet Rzeszowski Wydział Socjologiczno Historyczny 2
U430 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Nauk Historycznych i Społecznych 2
U432 Uniwersytet Jagielloński w Krakowie Wydział Filozoficzny 2
U433 Katolicki Uniwersytet Lubelski Wydział Filozofii 2
U434 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Humanistyczny 2
U435 Uniwersytet Papieski Jana Pawła II Wydział Filozoficzny 2
U436 Uniwersytet Opolski Wydział Teologiczny 2
U437 Katolicki Uniwersytet Lubelski Wydział Teologii 2
U438 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Filozofii Chrześcijańskiej 2
U439 Uniwersytet Papieski Jana Pawła II Wydział Teologiczny 2
U440 Chrześcijańska Akademia Teologiczna 2
U441 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Teologiczny 2
U442 Uniwersytet Łódzki Wydział Filozoficzno Historyczny 2
U443 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Teologiczny 2
U445 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Teologii 2
U453 Instytut Filozofii i Socjologii PAN 2
U454 Instytut Studiów Politycznych PAN 2
U455 Uniwersytet Warszawski Wydział Psychologii 2
U457 Uniwersytet Warszawski Wydział Filozofii i Socjologii 2
U458 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Nauk Społecznych 2
U459 Katolicki Uniwersytet Lubelski Wydział Nauk Społecznych 2
U460 Uniwersytet Warszawski Instytut Ameryk i Europy 2
U462 Uniwersytet Warszawski Wydział Dziennikarstwa i Nauk Politycznych 2
U463 Uniwersytet Łódzki Wydział Studiów Międzynarodowych i Politologicznych 2
U464 Uniwersytet Śląski w Katowicach Wydział Pedagogiki i Psychologii 2
U465 Uniwersytet Jagielloński w Krakowie Wydział Studiów Międzynarodowych i Politycznych 2
U466 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Humanistyczny 2
U467 Uniwersytet Śląski w Katowicach Wydział Nauk Społecznych 2
U469 Uniwersytet Warszawski Wydział Stosowanych Nauk Społecznych i Resocjalizacji 2
U470 Uniwersytet Kazimierza Wielkiego Wydział Humanistyczny 2
U471 Uniwersytet Opolski Wydział Historyczno Pedagogiczny 2
U474 Uniwersytet Szczeciński Wydział Humanistyczny 2
U477 Uniwersytet Wrocławski Wydział Nauk Społecznych 2
U478 Akademia Obrony Narodowej Wydział Zarządzania i Dowodzenia 2
U479 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Nauk Społecznych 2
U480 Uniwersytet Zielonogórski w Zielonej Górze Wydział Pedagogiki, Socjologii i Nauk
o Zdrowiu 2
U481 Akademia im. Jana Długosza w Częstochowie Wydział Pedagogiczny 2
U482 Akademia Pomorska w Słupsku Wydział Edukacyjno Filozoficzny 2
U483 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Politologii 2
U487 Wyższa Szkoła Filozoficzno Pedagogiczna Ignatianum w Krakowie Wydział Pedagogiczny 2
U492 Szkoła Główna Handlowa w Warszawie Kolegium Analiz Ekonomicznych 2
U501 Uniwersytet Warszawski Wydział Nauk Ekonomicznych 2
U502 Uniwersytet Szczeciński Wydział Zarządzania i Ekonomiki Usług 2
U506 Szkoła Główna Handlowa w Warszawie Kolegium Ekonomiczno Społeczne 2
U507 Uniwersytet Jagielloński w Krakowie Wydział Zarządzania i Komunikacji Społecznej 2
U509 Uniwersytet Ekonomiczny w Katowicach Wydział Ekonomii 2
U511 Szkoła Główna Handlowa w Warszawie Kolegium Gospodarki Światowej 2
U512 Uniwersytet Ekonomiczny we Wrocławiu Wydział Gospodarki Regionalnej i Turystyki
w Jeleniej Górze 2
U517 Uniwersytet Ekonomiczny w Poznaniu Wydział Zarządzania 2
U518 Politechnika Gdańska Wydział Zarządzania i Ekonomii 2
U520 Akademia Morska w Gdyni Wydział Przedsiębiorczości i Towaroznawstwa 2
292
Kod
jednostki Jednostka naukowa Grupa
U521 Uniwersytet Łódzki Wydział Zarządzania 2
U523 Uniwersytet Ekonomiczny w Poznaniu Wydział Gospodarki Międzynarodowej 2
U525 Uniwersytet Gdański Wydział Ekonomiczny 2
U526 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Zarządzania 2
U527 Szkoła Główna Handlowa w Warszawie Kolegium Zarządzania i Finansów 2
U528 Uniwersytet Ekonomiczny w Krakowie Wydział Finansów 2
U529 Instytut Ekonomiki Rolnictwa i Gospodarki Żywnościowej Państwowy Instytut Badawczy 2
U531 Uniwersytet Warszawski Wydział Zarządzania 2
U532 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Nauk Ekonomicznych i Zarządzania 2
U533 Uniwersytet Gdański Wydział Zarządzania 2
U534 Politechnika Rzeszowska Wydział Zarządzania i Marketingu 2
U535 Politechnika Łódzka Wydział Organizacji i Zarządzania 2
U536 Politechnika Lubelska Wydział Zarządzania 2
U537 Uniwersytet Zielonogórski w Zielonej Górze Wydział Ekonomii i Zarządzania 2
U538 Uniwersytet w Białymstoku Wydział Ekonomii i Zarządzania 2
U539 Politechnika Śląska w Gliwicach Wydział Organizacji i Zarządzania 2
U540 Politechnika Koszalińska Wydział Ekonomii i Zarządzania 2
U541 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Ekonomiczny 2
U544 Politechnika Częstochowska Wydział Zarządzania 2
U546 Politechnika Białostocka Wydział Zarządzania 2
U549 Akademia Techniczno Humanistyczna w Bielsku Białej Wydział Zarządzania i Transportu 2
U552 Instytut Nauk Prawnych PAN 2
U553 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Prawa Kanonicznego 2
U554 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Prawa i Administracji 2
U555 Uniwersytet Jagielloński w Krakowie Wydział Prawa i Administracji 2
U556 Uniwersytet Warszawski Wydział Prawa i Administracji 2
U557 Katolicki Uniwersytet Lubelski Wydział Prawa Prawa Kanonicznego i Administracji 2
U558 Uniwersytet w Białymstoku Wydział Prawa 2
U559 Uniwersytet Wrocławski Wydział Prawa Administracji i Ekonomii 2
U560 Uniwersytet Łódzki Wydział Prawa i Administracji 2
U561 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Prawa i Administracji 2
U563 Uniwersytet Gdański Wydział Prawa i Administracji 2
U564 Uniwersytet Kardynała Stefana Wyszyńskiego Wydział Prawa i Administracji 2
U567 Uniwersytet Rzeszowski Wydział Prawa i Administracji 2
U621 Uniwersytet Medyczny w Lublinie Wydział Pielęgniarstwa i Nauk o Zdrowiu z Oddziałem
Zaocznym 2
U623 Uniwersytet Jagielloński Collegium Medicum Wydział Ochrony Zdrowia 2
U628 Uniwersytet Jana Kochanowskiego w Kielcach Wydział Nauk o Zdrowiu 2
U630 Uniwersytet Medyczny w Lublinie Wydział Pielęgniarstwa i Nauk o Zdrowiu z Oddziałem
Zaocznym 2
U631 Warszawski Uniwersytet Medyczny Wydział Nauki o Zdrowiu 2
U632 Akademia Wychowania Fizycznego im. Eugeniusza Piaseckiego w Poznaniu Wydział
Wychowania Fizycznego 2
U636 Uniwersytet Medyczny im. Piastów Śląskich we Wrocławiu Wydział Zdrowia
Publicznego 2
U639 Akademia Wychowania Fizycznego w Warszawie Wydział Wychowania Fizycznego 2
U641 Akademia Wychowania Fizycznego w Warszawie Zamiejscowy Wydział Wychowania
Fizycznego 2
U644 Politechnika Opolska Wydział Wychowania Fizycznego i Fizjoterapii 2
U673 Uniwersytet Opolski Wydział Przyrodniczo Techniczny 2
U674 Uniwersytet Szczeciński Wydział Nauk Przyrodniczych 2
U675 Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie Wydział
Geograficzno Biologiczny 2
U676 Uniwersytet Kazimierza Wielkiego Wydział Nauk Przyrodniczych 2
U42 Ośrodek Badawczo Rozwojowy Urządzeń Mechanicznych OBRUM 3
U43 Centrum Mechanizacji Górnictwa KOMAG 3
293
Kod
jednostki Jednostka naukowa Grupa
U44 Instytut Technologii Eksploatacji Państwowy Instytut Badawczy 3
U52 Politechnika Łódzka Wydział Mechaniczny 3
U73 Politechnika Poznańska Wydział Inżynierii Zarządzania 3
U75 Politechnika Częstochowska Wydział Inżynierii Mechanicznej i Informatyki 3
U90 Instytut Chemicznej Przeróbki Węgla 3
U91 Instytut Metali Nieżelaznych 3
U92 Instytut Metalurgii Żelaza im. Stanisława Staszica 3
U93 Instytut Nowych Syntez Chemicznych 3
U94 Instytut Ciężkiej Syntezy Organicznej BLACHOWNIA 3
U95 Instytut Spawalnictwa 3
U96 Instytut Odlewnictwa 3
U97 Instytut Ceramiki i Materiałów Budowlanych 3
U98 Instytut Chemii i Techniki Jądrowej 3
U115 Instytut Techniki Budowlanej 3
U116 Instytut Badawczy Dróg i Mostów 3
U118 Politechnika Gdańska Wydział Inżynierii Lądowej i Środowiska 3
U119 Politechnika Łódzka Wydział Budownictwa Architektury i Inżynierii Środowiska 3
U120 Politechnika Wrocławska Wydział Budownictwa Lądowego i Wodnego 3
U121 Politechnika Krakowska im. Tadeusza Kościuszki Wydział inżynierii Lądowej 3
U125 Politechnika Śląska w Gliwicach Wydział Budownictwa 3
U147 Przemysłowy Instytut Automatyki i Pomiarów PIAP 3
U148 Wojskowy Instytut Łączności im. prof. Janusza Groszkowskiego 3
U149 Instytut Tele i Radiotechniczny 3
U150 Instytut Elektrotechniki 3
U152 Instytut Łączności Państwowy Instytut Badawczy 3
U162 Politechnika Gdańska Wydział Elektrotechniki i Automatyki 3
U192 Instytut Lotnictwa 3
U193 Politechnika Warszawska Wydział Mechaniczny Energetyki i Lotnictwa 3
U194 Państwowy Instytut Geologiczny 3
U195 Główny Instytut Górnictwa 3
U196 Politechnika Poznańska Wydział Maszyn Roboczych i Transportu 3
U198 Politechnika Śląska w Gliwicach Wydział Inżynierii Środowiska i Energetyki 3
U199 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Górnictwa
i Geoinżynierii 3
U200 Instytut Pojazdów Szynowych TABOR 3
U201 Instytut Technik Innowacyjnych EMAG 3
U202 Politechnika Warszawska Wydział Transportu 3
U204 Instytut Gospodarki Surowcami Mineralnymi i Energią PAN 3
U207 Instytut Energetyki 3
U211 Instytut Nafty i Gazu 3
U213 Centrum Techniki Okrętowej Spółka Akcyjna Zakład Badawczo Rozwojowy 3
U214 Politechnika Śląska w Gliwicach Wydział Transportu 3
U217 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Geodezji
Górniczej i Inżynierii Środowiska 3
U221 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Geodezji i Gospodarki Przestrzennej 3
U230 Morski Instytut Rybacki 3
U231 Instytut Sadownictwa i Kwiaciarstwa 3
U232 Instytut Morski 3
U233 Instytut Rybactwa Śródlądowego im. Stanisława Sakowicza 3
U234 Instytut Zootechniki Państwowy Instytut Badawczy 3
U235 Instytut Ochrony Środowiska 3
U237 Instytut Ekologii Terenów Uprzemysłowionych 3
U238 Instytut Ochrony Roślin Państwowy Instytut Badawczy 3
U242 Instytut Meteorologii i Gospodarki Wodnej 3
U244 Instytut Badawczy Leśnictwa 3
U247 Instytut Hodowli i Aklimatyzacji Roślin 3
294
Kod
jednostki Jednostka naukowa Grupa
U249 Instytut Uprawy Nawożenia i Gleboznawstwa Państwowy Instytut Badawczy 3
U258 Centralny Instytut Ochrony Pracy Państwowy Instytut Badawczy 3
U259 Wojskowy Instytut Techniczny Uzbrojenia 3
U260 Instytut Techniczny Wojsk Lotniczych 3
U261 Instytut Przemysłu Organicznego 3
U286 Uniwersytet Łódzki Wydział Filologiczny 3
U299 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Geologii
Geofizyki i Ochrony Środowiska 3
U303 Instytut Geografii i Przestrzennego Zagospodarowania im. S. Leszczyckiego PAN 3
U307 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Nauk Geograficznych i Geologicznych 3
U326 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Ogrodnictwa
i Architektury Krajobrazu 3
U350 Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Wydział Hodowli i Biologii Zwierząt 3
U416 Uniwersytet Wrocławski Wydział Nauk Historycznych i Pedagogicznych 3
U499 Uniwersytet Ekonomiczny we Wrocławiu Wydział Zarządzania Informatyki i Finansów 3
U504 Uniwersytet Ekonomiczny w Poznaniu Wydział Ekonomii 3
U505 Uniwersytet Ekonomiczny w Krakowie Wydział Ekonomii i Stosunków Międzynarodowych 3
U510 Uniwersytet Ekonomiczny we Wrocławiu Wydział Nauk Ekonomicznych 3
U516 Uniwersytet Łódzki Wydział Ekonomiczno Socjologiczny 3
U37 Politechnika Śląska w Gliwicach Wydział Inżynierii Materiałowej i Metalurgii 4
U49 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Inżynierii
Mechanicznej i Robotyki 4
U56 Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy
Wydział Inżynierii Mechanicznej 4
U57 Politechnika Wrocławska Wydział Mechaniczny 4
U60 Politechnika Wrocławska Wydział Mechaniczno Energetyczny 4
U61 Politechnika Śląska w Gliwicach Wydział Mechaniczny Technologiczny 4
U68 Politechnika Rzeszowska Wydział Budowy Maszyn i Lotnictwa 4
U85 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Nauk Technicznych 4
U87 Uniwersytet Zielonogórski w Zielonej Górze Wydział Mechaniczny 4
U128 Politechnika Poznańska Wydział Budownictwa i Inżynierii Środowiska 4
U136 Politechnika Białostocka Wydział Budownictwa i Inżynierii Środowiska 4
U138 Politechnika Koszalińska Wydział Budownictwa i Inżynierii Środowiska 4
U142 Zachodniopomorski Uniwersytet Technologiczny Wydział Budownictwa i Architektury 4
U146 Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy
Wydział Budownictwa i Inżynierii Środowiska 4
U156 Wojskowa Akademia Techniczna Wydział Elektroniki 4
U164 Politechnika Wrocławska Wydział Elektryczny 4
U166 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział
Elektrotechniki Automatyki Informatyki i Elektroniki 4
U169 Politechnika Łódzka Wydział Elektrotechniki Elektroniki Informatyki i Automatyki 4
U175 Politechnika Lubelska Wydział Elektrotechniki i Informatyki 4
U180 Politechnika Poznańska Wydział Elektryczny 4
U182 Politechnika Warszawska Wydział Elektryczny 4
U184 Politechnika Rzeszowska Wydział Elektrotechniki i Informatyki 4
U205 Politechnika Śląska w Gliwicach Wydział Górnictwa i Geologii 4
U224 Ośrodek Badawczo Rozwojowy Centrum Techniki Morskiej S.A. 4
U246 Instytut Biotechnologii Przemysłu Rolno Spożywczego 4
U251 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Inżynierii Środowiska 4
U252 Politechnika Warszawska Wydział Inżynierii Środowiska 4
U253 Uniwersytet Przyrodniczy we Wrocławiu Wydział Inżynierii Kształtowania Środowiska
i Geodezji 4
U339 Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Wydział Rolniczo Ekonomiczny 4
U343 Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Wydział Leśny 4
U351 Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy
Wydział Rolniczy 4
295
Kod
jednostki Jednostka naukowa Grupa
U352 Uniwersytet Przyrodniczo-Humanistyczny w Siedlcach Wydział Przyrodniczy 4
U354 Uniwersytet Przyrodniczy w Lublinie Wydział Inżynierii Produkcji 4
U355 Uniwersytet Przyrodniczy we Wrocławiu Wydział Przyrodniczo Technologiczny 4
U356 Uniwersytet Przyrodniczy w Lublinie Wydział Biologii i Hodowli Zwierząt 4
U357 Uniwersytet Przyrodniczy w Poznaniu Wydział Rolnictwa i Bioinżynierii 4
U359 Uniwersytet Przyrodniczy w Lublinie Wydział Agrobioinżynierii 4
U360 Uniwersytet Przyrodniczy w Lublinie Wydział Ogrodniczy 4
U377 Uniwersytet Łódzki Wydział Matematyki i Informatyki 4
U475 Uniwersytet Łódzki Wydział Nauk o Wychowaniu 4
U484 Uniwersytet Kazimierza Wielkiego Wydział Pedagogiki i Psychologii 4
U488 Akademia Pedagogiki Specjalnej w Warszawie Wydział Stosowanych Nauk Społecznych 4
U489 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Pedagogiki i Psychologii 4
U508 Uniwersytet Szczeciński Wydział Nauk Ekonomicznych i Zarządzania 4
U515 Uniwersytet Ekonomiczny w Katowicach Wydział Zarządzania 4
U519 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Nauk Ekonomicznych 4
U530 Uniwersytet Ekonomiczny w Krakowie Wydział Zarządzania 4
U545 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Nauk Ekonomicznych 4
U565 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Prawa i Administracji 4
U568 Uniwersytet Medyczny im. Piastów Śląskich we Wrocławiu Wydział Lekarski 4
U569 Uniwersytet Medyczny im. Piastów Śląskich we Wrocławiu Wydział Lekarski Kształcenia
Podyplomowego 4
U571 Centrum Medyczne Kształcenia Podyplomowego 4
U573 Gdański Uniwersytet Medyczny Wydział Lekarski z Oddziałem Stomatologicznym 4
U586 Pomorski Uniwersytet Medyczny w Szczecinie Wydział Lekarsko Biotechnologiczny
i Medycyny Laboratoryjnej 4
U587 Śląski Uniwersytet Medyczny w Katowicach Wydział Lekarski w Katowicach 4
U588 Śląski Uniwersytet Medyczny w Katowicach Wydział Farmaceutyczny i Oddział
Medycyny Laboratoryjnej w Sosnowcu 4
U589 Uniwersytet Jagielloński Collegium Medicum Wydział Lekarski 4
U590 Uniwersytet Medyczny im. Karola Marcinkowskiego w Poznaniu Wydział Lekarski I 4
U591 Uniwersytet Medyczny im. Karola Marcinkowskiego w Poznaniu Wydział Lekarski II 4
U592 Uniwersytet Medyczny w Białymstoku Wydział Lekarski z Oddziałem Stomatologii
i Oddziałem Nauczania w Języku Angielskim 4
U593 Uniwersytet Medyczny w Lublinie l Wydział Lekarski z Oddziałem Stomatologicznym 4
U594 Uniwersytet Medyczny w Lublinie II Wydział Lekarski z Oddziałem Anglojęzycznym 4
U595 Uniwersytet Medyczny w Łodzi Wydział Lekarski 4
U596 Uniwersytet Medyczny w Łodzi Wydział Wojskowo Lekarski 4
U597 Uniwersytet Mikołaja Kopernika w Toruniu Collegium Medicum im. Ludwika Rydygiera
w Bydgoszczy Wydział Lekarski 4
U598 Warszawski Uniwersytet Medyczny Wydział Lekarski z Oddziałem Stomatologicznym 4
U599 Warszawski Uniwersytet Medyczny Wydział Lekarski z Oddziałem Nauczania w Języku
Angielskim oraz Oddziałem Fizjoterapii 4
U600 Wojskowy Instytut Medyczny 4
U615 Warszawski Uniwersytet Medyczny Wydział Farmaceutyczny 4
U616 Uniwersytet Mikołaja Kopernika w Toruniu w Toruniu Collegium Medicum im. Ludwika
Rydygiera w Bydgoszczy Wydział Farmaceutyczny 4
U618 Śląski Uniwersytet Medyczny w Katowicach Wydział Farmaceutyczny i Oddział
Medycyny Laboratoryjnej w Sosnowcu 4
U624 Uniwersytet Medyczny w Łodzi Wydział Nauk o Zdrowiu 4
U627 Narodowy Instytut Zdrowia Publicznego Państwowy Zakład Higieny 4
U633 Śląski Uniwersytet Medyczny w Katowicach Wydział Opieki Zdrowotnej 4
U634 Uniwersytet Medyczny im. Karola Marcinkowskiego w Poznaniu Wydział Nauk o Zdrowiu 4
U635 Uniwersytet Mikołaja Kopernika w Toruniu w Toruniu Collegium Medicum im. Ludwika
Rydygiera w Bydgoszczy Wydział Nauk o Zdrowiu 4
U637 Akademia Wychowania Fizycznego w Katowicach Wydział Wychowania Fizycznego 4
U640 Akademia Wychowania Fizycznego we Wrocławiu Wydział Wychowania Fizycznego 4
296
Kod
jednostki Jednostka naukowa Grupa
U672 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Biologii i Nauk o Ziemi 4
U677 Katolicki Uniwersytet Lubelski Wydział Matematyczno Przyrodniczy 4
U4 Politechnika Warszawska Wydział Chemiczny 5
U6 Politechnika Wrocławska Wydział Chemiczny 5
U8 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Chemii 5
U9 Politechnika Łódzka Wydział Chemiczny 5
U11 Zachodniopomorski Uniwersytet Technologiczny Wydział Technologii i Inżynierii Chemicznej 5
U12 Instytut Chemii Organicznej PAN 5
U16 Politechnika Poznańska Wydział Technologii Chemicznej 5
U18 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Inżynierii
Materiałowej i Ceramiki 5
U20 Politechnika Śląska w Gliwicach Wydział Chemiczny 5
U21 Uniwersytet Wrocławski Wydział Chemii 5
U22 Centrum Badań Molekularnych i Makromolekularnych PAN 5
U23 Uniwersytet Gdański Wydział Chemii 5
U25 Uniwersytet Jagielloński w Krakowie Wydział Chemii 5
U29 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Chemii 5
U30 Uniwersytet Łódzki Wydział Chemii 5
U32 Politechnika Łódzka Wydział Technologii Materiałowych i Wzornictwa Tekstyliów 5
U36 Akademia im. Jana Długosza w Częstochowie Wydział Matematyczno Przyrodniczy 5
U39 Politechnika Częstochowska Wydział Inżynierii Procesowej Materiałowej i Fizyki Stosowanej 5
U51 Instytut Podstawowych Problemów Techniki PAN 5
U64 Politechnika Lubelska Wydział Mechaniczny 5
U69 Politechnika Białostocka Wydział Mechaniczny 5
U99 Instytut Chemii Przemysłowej im. prof. Ignacego Mościckiego 5
U106 Instytut Farmaceutyczny 5
U151 Instytut Technologii Elektronowej 5
U153 Politechnika Wrocławska Wydział Elektroniki Mikrosystemów i Fotoniki 5
U155 Instytut Badań Systemowych PAN 5
U158 Politechnika Gdańska Wydział Elektroniki Telekomunikacji i Informatyki 5
U163 Politechnika Wrocławska Wydział Elektroniki 5
U165 Instytut Biocybernetyki i Inżynierii Biomedycznej PAN 5
U171 Politechnika Śląska w Gliwicach Wydział Automatyki Elektroniki i Informatyki 5
U172 Politechnika Opolska Wydział Elektrotechniki Automatyki i Informatyki 5
U181 Politechnika Śląska w Gliwicach Wydział Elektryczny 5
U197 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Wiertnictwa
Nafty i Gazu 5
U220 Wojskowa Akademia Techniczna Wydział Inżynierii Lądowej i Geodezji 5
U236 Politechnika Łódzka Wydział Inżynierii Procesowej i Ochrony Środowiska 5
U271 Instytut Slawistyki PAN 5
U272 Instytut Badań Literackich PAN 5
U273 Instytut Języka Polskiego PAN 5
U274 Uniwersytet Warszawski Wydział Polonistyki 5
U275 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Filologii Polskiej i Klasycznej 5
U277 Katolicki Uniwersytet Lubelski Wydział Nauk Humanistycznych 5
U278 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Filologiczny 5
U279 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Neofilologii 5
U280 Uniwersytet Śląski w Katowicach Wydział Filologiczny 5
U281 Uniwersytet Opolski Wydział Filologiczny 5
U285 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Humanistyczny 5
U304 Uniwersytet Jana Kochanowskiego w Kielcach Wydział Matematyczno Przyrodniczy 5
U312 Instytut Rozrodu Zwierząt i Badań Żywności PAN 5
U315 Uniwersytet Przyrodniczy we Wrocławiu Wydział Nauk o Żywności 5
U318 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Medycyny Weterynaryjnej 5
U321 Politechnika Łódzka Wydział Biotechnologii i Nauk o Żywności 5
U324 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Medycyny Weterynaryjnej 5
297
Kod
jednostki Jednostka naukowa Grupa
U329 Uniwersytet Przyrodniczy we Wrocławiu Wydział Medycyny Weterynaryjnej 5
U336 Uniwersytet Przyrodniczy w Poznaniu Wydział Nauk o Żywności i Żywieniu 5
U342 Uniwersytet Przyrodniczy w Lublinie Wydział Medycyny Weterynaryjnej 5
U364 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Matematyki Fizyki i Informatyki 5
U365 Uniwersytet Jagielloński w Krakowie Wydział Matematyki i Informatyki 5
U366 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Matematyki i Informatyki 5
U367 Instytut Podstaw Informatyki PAN 5
U369 Akademia im. Jana Długosza w Częstochowie Wydział Matematyczno Przyrodniczy 5
U370 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Matematyki i Informatyki 5
U381 Uniwersytet Wrocławski Wydział Matematyki i Informatyki 5
U383 Instytut Wysokich Ciśnień PAN 5
U386 Politechnika Warszawska Wydział Fizyki 5
U388 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Fizyki Astronomii i Informatyki
Stosowanej 5
U390 Instytut Niskich Temperatur i Badań Strukturalnych im. Włodzimierza Trzebiatowskiego PAN 5
U391 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Fizyki i
Informatyki Stosowanej 5
U395 Uniwersytet Jagielloński w Krakowie Wydział Fizyki Astronomii i Informatyki Stosowanej 5
U396 Uniwersytet Łódzki Wydział Fizyki i Informatyki Stosowanej 5
U397 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Fizyki 5
U399 Uniwersytet Gdański Wydział Matematyki Fizyki i Informatyki 5
U400 Politechnika Wrocławska Wydział Podstawowych Problemów Techniki 5
U401 Politechnika Gdańska Wydział Fizyki Technicznej i Matematyki Stosowanej 5
U408 Uniwersytet Śląski w Katowicach Wydział Informatyki i Nauki o Materiałach 5
U413 Uniwersytet Warszawski Wydział Historyczny 5
U414 Instytut Historii Nauki PAN 5
U415 Instytut Archeologii i Etnologii PAN 5
U417 Instytut Sztuki PAN 5
U418 Instytut Historii im. Tadeusza Manteuffla PAN 5
U424 Uniwersytet Gdański Wydział Historyczny 5
U468 Uniwersytet Warszawski Wydział Pedagogiczny 5
U497 Szkoła Główna Handlowa w Warszawie Kolegium Nauk o Przedsiębiorstwie 5
U498 Uniwersytet Ekonomiczny w Katowicach Wydział Finansów i Ubezpieczeń 5
U550 Uniwersytet Śląski w Katowicach Wydział Prawa i Administracji 5
U551 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Prawa i Administracji 5
U580 Instytut Medycyny Doświadczalnej i Klinicznej PAN 5
U582 Instytut Pomnik Centrum Zdrowia Dziecka 5
U583 Instytut Psychiatrii i Neurologii 5
U585 Pomorski Uniwersytet Medyczny w Szczecinie Wydział Lekarski 5
U601 Instytut Immunologii i Terapii Doświadczalnej PAN 5
U602 Instytut Farmakologii PAN 5
U605 Gdański Uniwersytet Medyczny Wydział Farmaceutyczny z Oddziałem Medycyny
Laboratoryjnej 5
U606 Uniwersytet Medyczny w Białymstoku Wydział Farmaceutyczny z Oddziałem Medycyny
Laboratoryjnej 5
U609 Uniwersytet Medyczny w Lublinie Wydział Farmaceutyczny z Oddziałem Analityki
Medycznej 5
U610 Uniwersytet Jagielloński Collegium Medicum Wydział Farmaceutyczny 5
U611 Uniwersytet Medyczny im. Piastów Śląskich we Wrocławiu Wydział Farmaceutyczny
z Oddziałem Analityki Medycznej 5
U612 Uniwersytet Medyczny w Łodzi Wydział Farmaceutyczny 5
U613 Instytut Biotechnologii i Antybiotyków 5
U614 Uniwersytet Medyczny im. Karola Marcinkowskiego w Poznaniu Wydział Farmaceutyczny 5
U658 Uniwersytet Jagielloński w Krakowie Wydział Biochemii Biofizyki i Biotechnologii 5
U663 Uniwersytet Jagielloński w Krakowie Wydział Biologii i Nauk o Ziemi 5
U664 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Biologii 5
298
Kod
jednostki Jednostka naukowa Grupa
U667 Uniwersytet w Białymstoku Wydział Biologiczno Chemiczny 5
U670 Uniwersytet Śląski w Katowicach Wydział Biologii i Ochrony Środowiska 5
U671 Uniwersytet Mikołaja Kopernika w Toruniu Wydział Biologii i Nauk o Ziemi 5
U681 Uniwersytet Wrocławski Wydział Nauk Biologicznych 5
U1 Politechnika Warszawska Wydział Inżynierii Materiałowej 6
U2 Instytut Katalizy i Fizykochemii Powierzchni PAN 6
U3 Instytut Chemii Fizycznej PAN 6
U5 Instytut Metalurgii i Inżynierii Materiałowej im. Aleksandra Krupkowskiego PAN 6
U13 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Chemii 6
U14 Politechnika Gdańska Wydział Chemiczny 6
U17 Uniwersytet Warszawski Wydział Chemii 6
U24 Uniwersytet Śląski w Katowicach Wydział Matematyki Fizyki i Chemii 6
U26 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Inżynierii
Metali i Informatyki Przemysłowej 6
U31 Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie Wydział Metali
Nieżelaznych 6
U50 Politechnika Warszawska Wydział Mechatroniki 6
U53 Instytut Maszyn Przepływowych im. Roberta Szewalskiego PAN 6
U54 Zachodniopomorski Uniwersytet Technologiczny Wydział Inżynierii Mechanicznej
i Mechatroniki 6
U55 Politechnika Poznańska Wydział Budowy Maszyn i Zarządzania 6
U62 Wojskowa Akademia Techniczna Wydział Mechaniczny 6
U74 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Mechaniczny 6
U103 Instytut Włókiennictwa 6
U105 Instytut Biopolimerów i Włókien Chemicznych 6
U122 Politechnika Warszawska Wydział Architektury 6
U123 Politechnika Krakowska im. Tadeusza Kościuszki Wydział Architektury 6
U131 Politechnika Poznańska Wydział Architektury 6
U134 Politechnika Świętokrzyska w Kielcach Wydział Budownictwa i Inżynierii Środowiska 6
U137 Politechnika Gdańska Wydział Architektury 6
U140 Politechnika Wrocławska Wydział Architektury 6
U141 Politechnika Śląska w Gliwicach Wydział Architektury 6
U143 Politechnika Białostocka Wydział Architektury 6
U157 Politechnika Warszawska Wydział Elektroniki i Technik Informacyjnych 6
U160 Politechnika Poznańska Wydział Informatyki 6
U187 Przemysłowy Instytut Telekomunikacji 6
U241 Państwowy Instytut Weterynaryjny Państwowy Instytut Badawczy 6
U243 Instytut Agrofizyki im. Bohdana Dobrzańskiego PAN 6
U300 Instytut Oceanologii PAN 6
U301 Instytut Geofizyki PAN 6
U302 Instytut Nauk Geologicznych PAN 6
U308 Uniwersytet Warszawski Wydział Geografii i Studiów Regionalnych 6
U309 Uniwersytet Łódzki Wydział Nauk Geograficznych 6
U310 Uniwersytet Gdański Wydział Oceanografii i Geografii 6
U333 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Kształtowania Środowiska
i Rolnictwa 6
U334 Uniwersytet Warmińsko Mazurski w Olsztynie Wydział Nauki o Żywności 6
U337 Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wydział Nauk o Żywieniu
Człowieka i Konsumpcji 6
U361 Zachodniopomorski Uniwersytet Technologiczny Wydział Nauk o Żywności i Rybactwa 6
U363 Instytut Matematyczny PAN 6
U384 Instytut Fizyki Plazmy i Laserowej Mikrosyntezy im. Sylwestra Kaliskiego 6
U387 Instytut Fizyki PAN 6
U389 Instytut Fizyki Jądrowej im. H. Niewodniczańskiego PAN 6
U393 Narodowe Centrum Badań Jądrowych im. Andrzeja Sołtana 6
U448 Uniwersytet Marii Curie Skłodowskiej w Lublinie Wydział Filozofii i Socjologii 6
299
Kod
jednostki Jednostka naukowa Grupa
U473 Uniwersytet Gdański Wydział Nauk Społecznych 6
U476 Uniwersytet im. A. Mickiewicza w Poznaniu Wydział Studiów Edukacyjnych 6
U485 Akademia Pedagogiki Specjalnej w Warszawie Wydział Nauk Pedagogicznych 6
U486 Uniwersytet w Białymstoku Wydział Pedagogiki i Psychologii 6
U490 Uniwersytet Pedagogiczny im. Komisji Edukacji Narodowej w Krakowie Wydział
Pedagogiczny 6
U491 Uniwersytet Jana Kochanowskiego w Kielcach Wydział Pedagogiczny i Artystyczny 6
U496 Instytut Pracy i Spraw Socjalnych 6
U543 Politechnika Opolska Wydział Zarządzania i Inżynierii Produkcji 6
U572 Centrum Onkologii Instytut im. Marii Skłodowskiej Curie 6
U604 Instytut Medycyny Pracy im. J. Nofera 6
U645 Akademia Wychowania Fizycznego im. Eugeniusza Piaseckiego w Poznaniu Zamiejscowy
Wydział Kultury Fizycznej 6
U647 Akademia Wychowania Fizycznego i Sportu im. Jędrzeja Śniadeckiego w Gdańsku
Wydział Wychowania Fizycznego 6
U651 Instytut Biochemii i Biofizyki PAN 6
U653 Instytut Biologii Doświadczalnej im. M. Nenckiego PAN 6
U654 Instytut Chemii Bioorganicznej PAN 6
U660 Uniwersytet Warszawski Wydział Biologii 6
U665 Uniwersytet Łódzki Wydział Biologii i Ochrony Środowiska 6
U678 Akademia Pomorska w Słupsku Wydział Matematyczno Przyrodniczy 6
Źródło: opracowanie własne.
300
Załącznik 10. Wyniki oceny jednostek naukowych metodą DEA
10.A. Grupa J1
DMU CRS-O VRS-O MPSS SE-VRS-O Ranking
SE-VRS-O SE-VRS-O*
Ranking
SE-VRS-O*
U542 89,78 100,00 0,90 1000,00 1 821,69 1
U625 86,35 92,79 0,93 561,39 5 821,31 2
U461 100,00 100,00 1,00 1000,00 1 820,60 3
U145 59,23 64,22 0,92 1000,00 1 814,16 4
U83 32,91 38,69 0,85 1000,00 1 808,88 5
U494 100,00 100,00 1,00 478,59 8 806,46 6
U89 100,00 100,00 1,00 583,36 3 803,76 7
U450 100,00 100,00 1,00 486,67 6 779,29 8
U263 100,00 100,00 1,00 716,40 2 759,10 9
U72 66,52 100,00 0,67 1000,00 1 755,98 10
U412 88,94 100,00 0,89 1000,00 1 748,75 11
U191 100,00 100,00 1,00 565,72 4 653,60 12
U101 100,00 100,00 1,00 483,58 7 482,14 13
U447 100,00 100,00 1,00 385,28 9 131,68 14
U548 79,26 80,80 0,98 147,42 53 131,65 15
U522 99,62 100,00 1,00 144,74 61 131,65 16
U446 89,45 100,00 0,89 245,13 14 131,61 17
U562 86,68 100,00 0,87 129,13 86 131,60 18
U449 76,27 100,00 0,76 124,31 91 131,60 19
U570 82,16 95,93 0,86 131,11 82 131,58 20
U472 78,28 100,00 0,78 111,15 117 131,57 21
U444 87,98 100,00 0,88 118,74 100 131,55 22
U405 86,68 88,00 0,99 124,21 92 131,55 23
U642 94,47 99,60 0,95 110,10 121 131,55 24
U547 88,64 100,00 0,89 119,37 98 131,49 25
U626 80,23 81,58 0,98 88,44 172 131,48 26
U379 62,20 71,26 0,87 94,55 159 131,47 27
U643 81,19 85,29 0,95 86,57 182 131,46 28
U82 90,72 100,00 0,91 180,37 29 131,43 29
U227 82,29 85,09 0,97 88,24 174 131,43 30
U382 84,20 89,03 0,95 181,59 28 131,42 31
U566 100,00 100,00 1,00 251,16 13 131,42 32
U190 56,15 61,23 0,92 73,61 193 131,40 33
U406 83,04 94,21 0,88 137,57 69 131,40 34
U268 82,78 100,00 0,83 130,50 84 131,39 35
U622 79,66 91,18 0,87 117,59 105 131,33 36
U113 60,51 60,59 1,00 90,68 169 131,32 37
U376 85,34 92,13 0,93 103,55 134 131,31 38
U368 83,59 89,26 0,94 132,31 80 131,30 39
U679 26,97 27,00 1,00 39,50 203 131,30 40
U139 100,00 100,00 1,00 169,02 35 131,26 41
U375 84,45 91,27 0,93 102,55 137 131,25 42
U451 100,00 100,00 1,00 156,57 43 131,24 43
U407 86,36 87,28 0,99 107,12 124 131,19 44
U514 97,50 100,00 0,98 154,22 48 131,19 45
U170 79,75 81,51 0,98 86,92 179 131,19 46
U638 77,82 94,41 0,82 99,90 146 131,19 47
U378 83,24 88,45 0,94 96,15 153 131,16 48
U398 87,33 88,20 0,99 139,45 62 131,16 49
U76 93,08 94,45 0,99 116,45 107 131,09 50
U107 96,07 98,17 0,98 167,05 36 131,04 51
301
DMU CRS-O VRS-O MPSS SE-VRS-O Ranking
SE-VRS-O SE-VRS-O*
Ranking
SE-VRS-O*
U84 97,02 100,00 0,97 105,46 128 131,02 52
U133 81,56 91,20 0,89 129,34 85 130,98 53
U646 82,24 100,00 0,82 134,81 75 130,97 54
U362 100,00 100,00 1,00 193,20 24 130,96 55
U215 100,00 100,00 1,00 242,62 16 130,93 56
U159 97,23 97,72 0,99 156,26 44 130,92 57
U248 100,00 100,00 1,00 146,85 57 130,90 58
U185 95,77 100,00 0,96 147,05 54 130,87 59
U255 82,57 97,51 0,85 118,09 103 130,83 60
U266 96,38 100,00 0,96 139,35 63 130,82 61
U88 34,51 34,89 0,99 44,42 202 130,81 62
U345 93,13 96,60 0,96 114,10 110 130,80 63
U264 100,00 100,00 1,00 211,71 22 130,79 64
U270 52,83 100,00 0,53 108,35 122 130,79 65
U65 82,38 100,00 0,82 172,70 32 130,79 66
U426 98,82 100,00 0,99 104,94 129 130,68 67
U226 98,82 100,00 0,99 133,43 79 130,64 68
U100 100,00 100,00 1,00 193,99 23 130,64 69
U132 100,00 100,00 1,00 122,35 94 130,59 70
U81 49,07 61,60 0,80 73,29 194 130,58 71
U330 100,00 100,00 1,00 137,77 67 130,58 72
U323 91,71 99,83 0,92 106,41 126 130,53 73
U40 94,15 100,00 0,94 137,44 70 130,52 74
U373 78,20 100,00 0,78 126,34 89 130,50 75
U245 81,84 100,00 0,82 145,89 60 130,48 76
U372 85,63 100,00 0,86 114,61 109 130,48 77
U45 100,00 100,00 1,00 222,23 18 130,43 78
U189 56,15 61,23 0,92 62,28 199 130,42 79
U668 81,57 100,00 0,82 133,60 78 130,42 80
U617 100,00 100,00 1,00 138,24 65 130,37 81
U27 94,62 100,00 0,95 147,04 55 130,37 82
U167 90,51 100,00 0,91 215,73 20 130,35 83
U38 77,77 100,00 0,78 119,73 97 130,33 84
U174 96,83 99,24 0,98 101,72 140 130,30 85
U188 73,38 87,36 0,84 90,76 168 130,30 86
U371 71,63 100,00 0,72 115,79 108 130,28 87
U210 97,97 100,00 0,98 157,01 42 130,28 88
U495 94,87 100,00 0,95 103,74 133 130,20 89
U402 95,84 98,45 0,97 98,45 150 130,19 90
U411 95,84 98,45 0,97 98,45 151 130,19 91
U114 41,57 52,11 0,80 52,11 201 130,14 92
U403 79,94 81,91 0,98 116,58 106 130,14 93
U28 89,87 96,03 0,94 124,78 90 130,14 94
U265 79,97 100,00 0,80 137,64 68 130,04 95
U683 90,73 95,68 0,95 95,89 154 130,01 96
U66 61,37 68,42 0,90 92,26 165 129,95 97
U218 100,00 100,00 1,00 238,23 17 129,93 98
U124 81,91 100,00 0,82 146,57 59 129,91 99
U209 58,46 75,69 0,77 78,60 190 129,89 100
U682 91,98 100,00 0,92 118,43 102 129,77 101
U144 79,07 80,65 0,98 80,90 188 129,76 102
U347 84,13 92,41 0,91 95,11 157 129,74 103
U112 92,74 98,98 0,94 100,35 145 129,74 104
U176 93,33 96,44 0,97 98,25 152 129,74 105
U431 100,00 100,00 1,00 151,66 50 129,69 106
U257 100,00 100,00 1,00 340,03 12 129,65 107
302
DMU CRS-O VRS-O MPSS SE-VRS-O Ranking
SE-VRS-O SE-VRS-O*
Ranking
SE-VRS-O*
U127 80,49 97,83 0,82 99,06 147 129,63 108
U335 93,03 99,34 0,94 103,13 136 129,63 109
U63 100,00 100,00 1,00 177,81 30 129,61 110
U250 90,64 100,00 0,91 139,06 64 129,60 111
U129 100,00 100,00 1,00 124,17 93 129,59 112
U206 100,00 100,00 1,00 148,13 51 129,57 113
U340 80,40 89,66 0,90 93,64 162 129,48 114
U34 87,32 100,00 0,87 104,29 132 129,42 115
U341 99,23 100,00 0,99 110,74 119 129,41 116
U423 90,37 96,42 0,94 102,16 139 129,36 117
U216 65,26 70,91 0,92 75,29 191 129,36 118
U456 100,00 100,00 1,00 118,63 101 129,34 119
U219 31,01 64,20 0,48 67,65 196 129,29 120
U409 80,62 82,98 0,97 86,66 181 129,29 121
U650 100,00 100,00 1,00 113,32 112 129,22 122
U493 91,05 100,00 0,91 112,81 113 129,18 123
U419 100,00 100,00 1,00 353,61 11 129,01 124
U108 100,00 100,00 1,00 380,73 10 128,98 125
U208 100,00 100,00 1,00 159,92 40 128,95 126
U319 91,20 100,00 0,91 155,87 46 128,89 127
U110 78,03 78,59 0,99 78,97 189 128,66 128
U168 89,81 100,00 0,90 130,57 83 128,65 129
U655 100,00 100,00 1,00 173,69 31 128,61 130
U328 96,15 100,00 0,96 111,95 114 128,56 131
U332 100,00 100,00 1,00 133,67 77 128,55 132
U35 100,00 100,00 1,00 187,11 26 128,53 133
U229 34,15 58,77 0,58 64,38 197 128,45 134
U327 77,77 100,00 0,78 113,46 111 128,44 135
U338 84,66 100,00 0,85 146,81 58 128,37 136
U15 92,14 94,75 0,97 107,13 123 128,29 137
U86 30,21 30,39 0,99 37,54 204 128,24 138
U223 100,00 100,00 1,00 137,31 71 128,20 139
U48 100,00 100,00 1,00 138,19 66 128,20 140
U256 55,17 55,97 0,99 55,97 200 128,13 141
U102 90,55 93,08 0,97 93,08 163 128,04 142
U71 47,91 62,64 0,76 62,64 198 128,03 143
U374 100,00 100,00 1,00 134,85 74 127,97 144
U410 99,55 100,00 1,00 100,44 143 127,92 145
U648 83,08 100,00 0,83 101,15 142 127,86 146
U322 77,75 100,00 0,78 103,26 135 127,72 147
U109 100,00 100,00 1,00 186,96 27 127,67 148
U58 100,00 100,00 1,00 131,14 81 127,59 149
U346 84,11 98,97 0,85 98,97 148 127,57 150
U344 84,03 94,58 0,89 94,76 158 127,52 151
U503 100,00 100,00 1,00 146,99 56 127,43 152
U452 97,36 100,00 0,97 104,68 130 127,37 153
U314 100,00 100,00 1,00 221,42 19 127,32 154
U331 77,66 99,04 0,78 102,37 138 127,30 155
U680 100,00 100,00 1,00 165,54 37 127,15 156
U500 100,00 100,00 1,00 172,38 33 126,69 157
U203 100,00 100,00 1,00 117,70 104 126,54 158
U240 84,50 100,00 0,85 100,42 144 126,51 159
U19 90,48 100,00 0,90 110,38 120 126,49 160
U161 71,28 72,90 0,98 72,90 195 126,19 161
U420 100,00 100,00 1,00 106,50 125 126,14 162
U513 100,00 100,00 1,00 104,30 131 126,00 163
303
DMU CRS-O VRS-O MPSS SE-VRS-O Ranking
SE-VRS-O SE-VRS-O*
Ranking
SE-VRS-O*
U666 73,33 100,00 0,73 160,57 39 125,97 164
U629 73,63 73,74 1,00 73,74 192 125,85 165
U47 100,00 100,00 1,00 156,16 45 125,84 166
U111 59,41 100,00 0,59 128,74 87 125,21 167
U104 100,00 100,00 1,00 155,73 47 125,09 168
U662 100,00 100,00 1,00 160,76 38 124,95 169
U325 100,00 100,00 1,00 119,31 99 124,87 170
U619 85,25 85,37 1,00 85,37 185 124,86 171
U212 87,03 88,48 0,98 88,48 171 124,82 172
U669 86,12 86,17 1,00 86,17 183 124,62 173
U581 89,00 89,27 1,00 91,01 167 124,61 174
U607 85,60 85,89 1,00 86,88 180 124,57 175
U316 86,10 86,16 1,00 86,16 184 124,16 176
U620 88,15 100,00 0,88 121,46 96 124,07 177
U262 52,78 90,42 0,58 90,42 170 123,84 178
U117 85,95 87,22 0,99 87,22 176 123,83 179
U656 100,00 100,00 1,00 191,76 25 123,59 180
U652 90,84 95,11 0,96 95,21 156 123,41 181
U661 100,00 100,00 1,00 243,77 15 123,07 182
U10 100,00 100,00 1,00 158,48 41 122,96 183
U649 100,00 100,00 1,00 111,51 115 122,87 184
U584 87,03 100,00 0,87 110,77 118 122,73 185
U659 99,17 100,00 0,99 135,44 73 122,31 186
U404 91,11 100,00 0,91 135,72 72 122,29 187
U608 85,32 90,60 0,94 94,19 160 121,97 188
U33 88,29 88,33 1,00 88,33 173 121,95 189
U575 81,55 85,02 0,96 85,02 186 121,60 190
U603 93,62 93,70 1,00 93,70 161 121,37 191
U311 98,53 98,61 1,00 98,61 149 121,24 192
U657 90,23 92,89 0,97 93,02 164 120,12 193
U239 100,00 100,00 1,00 147,69 52 119,45 194
U320 83,40 83,59 1,00 83,59 187 119,32 195
U394 100,00 100,00 1,00 101,60 141 119,06 196
U579 84,45 87,52 0,96 87,52 175 119,01 197
U385 100,00 100,00 1,00 128,49 88 119,00 198
U577 87,02 91,45 0,95 91,74 166 118,59 199
U574 83,73 86,96 0,96 87,07 178 118,57 200
U59 79,89 100,00 0,80 106,04 127 118,52 201
U46 100,00 100,00 1,00 212,27 21 118,30 202
U154 100,00 100,00 1,00 152,30 49 118,09 203
U313 82,75 95,25 0,87 95,25 155 114,31 204
U576 84,46 100,00 0,84 134,38 76 112,25 205
U317 84,97 87,09 0,98 87,09 177 110,18 206
U392 99,46 100,00 0,99 122,06 95 108,18 207
U7 92,69 100,00 0,93 170,06 34 103,75 208
U578 92,85 100,00 0,93 111,28 116 99,77 209
Źródło: Opracowanie własne z wykorzystaniem programu Frontier Analyst.
10.A. Grupa J2
DMU CRS-O VRS-O Efektywność
skali
SE-VRS-O bez
zmiennej
środowiskowej
Ranking
SE-VRS-O
skorygowany
SE-VRS-O
ze zmienną
środowiskową
Ranking
skorygowany
model
SE-VRS-O
U283 100 100 1,00 148,71 22 361,26 1
U440 100 100 1,00 144,68 24 360,26 2
U523 100 100 1,00 150,2 20 358,94 3
304
U553 100 100 1,00 1000 1 354,96 4
U435 100 100 1,00 933,24 3 354,74 5
U267 100 100 1,00 176,89 13 348,54 6
U467 100 100 1,00 146,79 23 339,79 7
U296 95,07 100 0,95 176,14 14 335,29 8
U502 100 100 1,00 318,79 7 333,02 9
U222 100 100 1,00 339,48 6 326,83 10
U676 100 100 1,00 149,45 21 324,28 11
U673 100 100 1,00 999,96 2 318,85 12
U79 100 100 1,00 152,7 19 316,73 13
U507 100 100 1,00 194,3 10 307,54 14
U348 100 100 1,00 178,87 12 304,49 15
U506 100 100 1,00 399,17 5 297,06 16
U425 100 100 1,00 199,66 9 287,25 17
U349 100 100 1,00 175,02 15 287,06 18
U282 100 100 1,00 141,64 26 276,63 19
U512 100 100 1,00 155,35 18 262,76 20
U67 100 100 1,00 180,16 11 233,57 21
U432 100 100 1,00 142,78 25 221,46 22
U353 100 100 1,00 516,88 4 202,33 23
U305 100 100 1,00 165,99 17 201,13 24
U492 100 100 1,00 213,27 8 199,95 25
U254 100 100 1,00 174,59 16 159,99 26
U453 100 100 1,00 140,46 27 128,88 27
U454 100 100 1,00 111,17 59 124,65 28
U529 95,19 100 0,95 100 108 122,07 29
U552 100 100 1,00 113,18 54 121,36 30
U173 100 100 1,00 129,43 36 113,12 31
U421 100 100 1,00 127,77 37 112,54 32
U126 100 100 1,00 117,64 49 112,28 33
U458 100 100 1,00 122,2 41 111,92 34
U284 94,71 100 0,95 100 110 111,65 35
U306 100 100 1,00 123,45 39 111,44 36
U77 100 100 1,00 110,59 60 111,43 37
U422 100 100 1,00 111,63 58 110,42 38
U178 85,15 100 0,85 110,13 61 109,64 39
U80 100 100 1,00 118,2 48 109,49 40
U501 100 100 1,00 100,72 88 109,41 41
U527 100 100 1,00 136,93 32 109,41 42
U511 98,46 100 0,98 113,61 52 109,16 43
U183 100 100 1,00 103,89 76 109,10 44
U555 100 100 1,00 103,75 78 109,07 45
U225 100 100 1,00 120,58 44 109,05 46
U455 98,6 100 0,99 100 97 109,03 47
U177 100 100 1,00 115,61 51 108,91 48
U509 100 100 1,00 100,48 90 108,64 49
U457 100 100 1,00 122,86 40 108,52 50
U517 100 100 1,00 139,39 28 108,36 51
U70 100 100 1,00 107,42 68 108,28 52
U469 99,38 100 0,99 100,9 87 108,22 53
U674 89,35 100 0,89 108,2 64 108,15 54
U135 93,27 100 0,93 100 117 108,15 55
U632 95,01 100 0,95 100 109 108,06 56
U437 92,43 100 0,92 100 118 108,00 57
U525 100 100 1,00 107,05 69 107,91 58
U462 93,81 100 0,94 103,19 80 107,86 59
U639 100 100 1,00 112,35 55 107,86 60
U531 80,37 100 0,80 100 140 107,61 61
305
U521 100 100 1,00 118,47 47 107,49 62
U186 88,22 100 0,88 100 131 107,45 63
U358 86,75 100 0,87 100 133 107,41 64
U287 100 100 1,00 104,67 74 107,38 65
U554 99,92 100 1,00 106,92 70 107,36 66
U130 100 100 1,00 109,62 62 107,34 67
U298 100 100 1,00 122 42 107,21 68
U477 74,46 100 0,74 100 145 107,13 69
U533 99,47 100 0,99 100 94 107,07 70
U441 85,35 100 0,85 100 134 107,06 71
U483 100 100 1,00 102,28 83 107,06 72
U434 100 100 1,00 118,68 46 106,99 73
U532 98,17 100 0,98 100 98 106,98 74
U290 95,71 100 0,96 138,16 29 106,87 75
U269 100 100 1,00 100,55 89 106,75 76
U459 88,95 100 0,89 100 128 106,71 77
U560 93,32 100 0,93 100 116 106,67 78
U478 65,97 100 0,66 100 147 106,66 79
U288 93,69 100 0,94 100 114 106,63 80
U465 84,28 100 0,84 100 136 106,58 81
U78 100 100 1,00 138,04 30 106,57 82
U471 93,73 100 0,94 101,36 86 106,48 83
U675 94,66 100 0,95 100 111 106,47 84
U433 100 100 1,00 105,67 72 106,46 85
U228 97,67 100 0,98 100 99 106,45 86
U561 90,39 100 0,90 100 125 106,44 87
U293 91,17 100 0,91 100 123 106,40 88
U563 88,85 100 0,89 100 129 106,34 89
U539 88,86 100 0,89 100,42 91 106,31 90
U179 100 100 1,00 117,41 50 106,27 91
U559 86,54 100 0,87 132,86 35 106,26 92
U528 100 100 1,00 101,48 84 106,25 93
U439 91,15 100 0,91 100 124 106,25 94
U474 77,46 100 0,77 133,7 34 106,22 95
U556 91,6 100 0,92 107,69 66 106,20 96
U438 100 100 1,00 119,67 45 106,15 97
U428 99,07 100 0,99 100 95 106,13 98
U630 100 100 1,00 105,59 73 106,12 100
U621 96,58 100 0,97 100 101 106,12 99
U442 93,6 100 0,94 100 115 106,09 101
U623 100 100 1,00 109,32 63 106,09 102
U464 95,95 100 0,96 100 103 106,09 103
U436 100 100 1,00 113,3 53 106,08 104
U644 100 100 1,00 101,46 85 106,07 105
U276 96,18 100 0,96 100 102 106,06 106
U557 100 100 1,00 104,51 75 106,04 107
U544 100 100 1,00 125,53 38 105,98 108
U479 100 100 1,00 121,4 43 105,98 109
U470 100 100 1,00 137,7 31 105,97 110
U443 83,68 100 0,84 100 137 105,96 111
U558 88,06 100 0,88 100 132 105,90 112
U518 92,35 100 0,92 100 119 105,90 113
U289 76,86 100 0,77 100 142 105,89 114
U427 89,7 100 0,90 100 127 105,88 115
U520 100 100 1,00 111,82 56 105,88 116
U538 82,25 100 0,82 100 138 105,86 117
U297 95,5 100 0,96 100 105 105,85 118
U445 91,63 100 0,92 100 121 105,84 119
306
U41 100 100 1,00 136,17 33 105,83 120
U292 76,65 100 0,77 100 143 105,83 121
U480 88,33 100 0,88 100 130 105,80 122
U463 96,68 100 0,97 100 100 105,77 123
U546 100 100 1,00 103,82 77 105,75 124
U536 100 100 1,00 106,51 71 105,74 125
U429 100 100 1,00 102,43 82 105,74 126
U460 100 100 1,00 107,99 65 105,73 127
U526 91,65 100 0,92 100 120 105,71 128
U534 95,22 100 0,95 100 107 105,69 129
U541 94,53 100 0,95 100 112 105,65 130
U540 95,53 100 0,96 100 104 105,64 131
U641 85,03 100 0,85 100 135 105,62 132
U535 91,38 100 0,91 100 122 105,59 133
U564 100 100 1,00 107,68 67 105,59 134
U430 100 100 1,00 111,74 57 105,58 135
U631 90,3 100 0,90 100 126 105,57 136
U537 100 100 1,00 103,6 79 105,56 137
U487 81,86 100 0,82 100 139 105,54 138
U481 72,66 100 0,73 100 146 105,54 139
U549 100 100 1,00 100,33 92 105,54 140
U567 98,95 100 0,99 100 96 105,48 141
U628 100 100 1,00 103,07 81 105,47 142
U466 95,31 100 0,95 100 106 105,47 143
U294 78,71 100 0,79 100 141 105,46 144
U482 93,75 100 0,94 100 113 105,46 145
U636 99,6 100 1,00 100 93 105,44 146
U291 75,9 100 0,76 100 144 105,43 147
U295 60,1 100 0,60 100 148 105,40 148
Źródło: Opracowanie własne z wykorzystaniem programu Frontier Analyst.
10.C. Grupa J3
DMU CRS-O VRS-O Efektywność
skali
SE-VRS-O bez
zmiennej
środowiskowej
Ranking
SE-VRS-O
skorygowany
SE-VRS-O
ze zmienną
środowiskową
Ranking
skorygowany
model
SE-VRS-O
U286 100 100 1,00 229,46 8 296,57 1
U42 100 100 1,00 1000 1 294,06 2
U416 100 100 1,00 211,17 11 292,28 3
U213 100 100 1,00 294,92 5 289,09 4
U499 100 100 1,00 208,55 12 287,33 5
U73 100 100 1,00 166,04 21 285,93 6
U93 100 100 1,00 204,54 16 283,61 7
U232 100 100 1,00 302,02 4 281,78 8
U516 100 100 1,00 205,63 15 280,87 9
U193 100 100 1,00 165,84 22 275,48 10
U204 100 100 1,00 238,78 7 275,03 11
U90 100 100 1,00 200,15 17 274,28 12
U52 100 100 1,00 206,61 14 270,09 13
U242 77,68 100 0,78 365,68 2 265,54 14
U211 100 100 1,00 213,46 9 261,58 15
U230 100 100 1,00 178,42 20 255,75 16
U43 100 100 1,00 286,46 6 255,24 17
U303 100 100 1,00 183,03 19 246,05 18
U91 100 100 1,00 327,14 3 232,88 19
U98 100 100 1,00 211,22 10 228,50 20
U231 100 100 1,00 158,79 23 208,98 21
U195 100 100 1,00 194,01 18 173,71 22
307
U194 97,65 100 0,98 206,7 13 143,98 23
U214 100 100 1,00 110,95 48 115,18 24
U221 98,76 100 0,99 103,3 58 115,10 25
U505 100 100 1,00 136,32 27 115,02 26
U125 100 100 1,00 138,14 26 114,81 27
U504 100 100 1,00 105,12 52 114,64 28
U119 87,19 94,97 0,92 94,88 65 114,50 29
U202 100 100 1,00 124,66 36 114,39 30
U510 100 100 1,00 129,62 32 114,31 31
U118 98,44 100 0,98 111,09 46 114,30 32
U217 100 100 1,00 130,54 29 114,16 33
U75 94,94 100 0,95 102,61 60 114,13 34
U148 63,57 100 0,64 130,47 30 114,06 35
U307 100 100 1,00 138,77 25 114,06 36
U350 94,24 100 0,94 104,76 53 113,94 37
U237 100 100 1,00 139,06 24 113,73 38
U196 100 100 1,00 118,36 38 113,71 39
U121 93,73 100 0,94 113,08 44 113,49 40
U162 100 100 1,00 105,74 51 113,34 41
U120 78,5 85,77 0,92 85,77 71 113,20 42
U200 100 100 1,00 104,56 54 113,19 43
U116 63,8 67,23 0,95 67,23 73 113,12 44
U326 100 100 1,00 118,05 39 112,55 45
U199 93,98 100 0,94 103,18 59 112,23 46
U259 74,41 100 0,74 103,41 57 112,19 47
U235 99,83 100 1,00 112,96 45 112,19 48
U299 95,72 100 0,96 103,48 56 111,72 49
U96 100 100 1,00 135,21 28 111,61 50
U95 100 100 1,00 111,01 47 111,54 51
U244 100 100 1,00 105,77 50 111,47 52
U261 64,65 78,69 0,82 77,38 72 111,32 53
U97 88,92 96,91 0,92 96,91 63 111,13 54
U201 81,11 94,42 0,86 94,42 67 110,54 55
U198 96,93 100 0,97 128,6 34 110,43 56
U94 100 100 1,00 130,1 31 110,29 57
U147 92,51 100 0,93 108,65 49 109,24 58
U92 100 100 1,00 118,48 37 108,96 59
U260 100 100 1,00 128,71 33 108,62 60
U258 86,5 100 0,87 117,65 40 108,44 61
U233 100 100 1,00 117,23 41 108,17 62
U238 89,15 94,64 0,94 94,64 66 107,67 63
U207 37,01 94,3 0,39 94,3 68 107,57 64
U44 100 100 1,00 125,32 35 106,53 65
U152 95,81 100 0,96 96,27 64 106,35 66
U149 100 100 1,00 115,17 42 105,69 67
U115 88,47 97,21 0,91 97,21 62 103,70 68
U249 87,25 89,28 0,98 88,49 70 102,89 69
U192 100 100 1,00 113,97 43 101,93 70
U150 91,47 100 0,91 101,5 61 101,13 71
U234 100 100 1,00 103,89 55 100,39 72
U247 91,25 96,26 0,95 93,38 69 97,49 73
Źródło: Opracowanie własne z wykorzystaniem programu Frontier Analyst.
308
10.D. Grupa J4
DMU CRS-O VRS-O Efektywność
skali
SE-VRS-O bez
zmiennej
środowiskowej
Ranking
SE-VRS-O
skorygowany
SE-VRS-O
ze zmienną
środowiskową
Ranking
skorygowany
model
SE-VRS-O
U488 100 100 1,00 1000 1 484,16 1
U475 100 100 1,00 220,17 8 480,03 2
U56 100 100 1,00 669,53 2 473,74 3
U224 100 100 1,00 218,88 9 446,08 4
U205 100 100 1,00 197,86 11 415,78 5
U60 100 100 1,00 260,31 5 386,01 6
U182 100 100 1,00 192,48 12 297,37 7
U49 100 100 1,00 310,71 4 281,81 8
U246 100 100 1,00 378,17 3 279,28 9
U57 100 100 1,00 246,48 7 227,94 10
U595 100 100 1,00 201,8 10 201,39 11
U166 100 100 1,00 256,41 6 179,20 12
U589 100 100 1,00 167,3 15 133,27 13
U598 98,42 100 0,98 134,69 28 131,89 14
U627 100 100 1,00 115,72 44 127,63 15
U592 100 100 1,00 123,57 34 125,87 16
U573 100 100 1,00 105,91 53 124,35 17
U587 100 100 1,00 100,84 60 123,65 18
U590 100 100 1,00 122,9 36 123,41 19
U169 100 100 1,00 152,26 22 122,60 20
U569 97,58 97,65 1,00 97,65 65 122,42 21
U591 100 100 1,00 111,11 50 121,62 22
U600 99,89 100 1,00 102,69 57 121,21 23
U164 100 100 1,00 129,57 31 121,12 24
U61 100 100 1,00 160,58 19 120,88 25
U180 100 100 1,00 116,71 42 120,38 26
U37 100 100 1,00 139,44 25 120,38 27
U568 96,6 96,85 1,00 96,85 66 120,20 28
U355 99,74 100 1,00 100,46 63 120,14 29
U594 100 100 1,00 157,22 21 119,86 30
U672 100 100 1,00 100,58 62 119,79 31
U593 98,89 100 0,99 101,89 58 119,15 32
U339 100 100 1,00 115,54 45 119,11 33
U357 100 100 1,00 104,85 55 118,71 34
U571 89,44 89,53 1,00 89,53 77 118,62 35
U156 100 100 1,00 178,59 13 118,36 36
U252 94,66 95,44 0,99 95,44 69 118,00 37
U597 95,93 96,07 1,00 96,07 68 117,96 38
U515 100 100 1,00 134,5 29 117,31 39
U128 100 100 1,00 140,9 24 117,27 40
U175 100 100 1,00 142,71 23 117,07 41
U618 100 100 1,00 116,15 43 117,06 43
U588 93,02 94,87 0,98 94,87 70 117,06 42
U356 90,64 92,43 0,98 92,43 71 117,05 44
U599 91,29 91,45 1,00 91,45 74 116,87 45
U530 100 100 1,00 120,22 37 116,79 46
U359 90,71 91,38 0,99 91,38 75 116,79 47
U615 100 100 1,00 109,4 51 116,67 48
U68 100 100 1,00 100,89 59 116,67 49
U253 100 100 1,00 130,03 30 116,62 50
U251 100 100 1,00 158,19 20 116,61 51
U351 88,7 88,91 1,00 88,91 78 116,27 52
U508 100 100 1,00 166,5 16 116,13 53
309
U352 89,82 90,12 1,00 90,12 76 116,11 54
U354 100 100 1,00 113,43 47 116,08 55
U343 96,31 100 0,96 104,48 56 115,97 56
U596 100 100 1,00 111,18 49 115,92 57
U360 100 100 1,00 125,57 33 115,92 58
U142 77,79 77,84 1,00 77,84 80 115,62 59
U640 95,86 100 0,96 113,57 46 115,52 60
U136 100 100 1,00 120,13 38 115,40 61
U184 100 100 1,00 178,52 14 115,39 62
U586 85,15 85,58 0,99 85,58 79 115,31 63
U616 100 100 1,00 119,85 39 115,28 64
U138 93,79 100 0,94 104,94 54 115,24 65
U624 98,05 98,18 1,00 98,18 64 115,17 66
U377 100 100 1,00 137,97 26 114,96 67
U519 100 100 1,00 108,76 52 114,71 68
U85 100 100 1,00 123,17 35 114,68 69
U87 100 100 1,00 164,89 17 114,67 70
U146 91,77 91,86 1,00 91,86 73 114,57 71
U489 100 100 1,00 117,85 41 114,44 72
U637 100 100 1,00 161,12 18 114,44 73
U545 98,63 100 0,99 100,69 61 114,40 74
U677 100 100 1,00 136,11 27 114,40 75
U634 95,83 96,4 0,99 96,4 67 114,38 76
U484 100 100 1,00 126,44 32 114,35 77
U635 100 100 1,00 112,44 48 114,25 78
U565 100 100 1,00 118,4 40 114,24 79
U633 91,76 92,43 0,99 92,43 72 114,22 80
Źródło: Opracowanie własne z wykorzystaniem programu Frontier Analyst.
10.E. Grupa J5
DMU CRS-O VRS-O Efektywność
skali
SE-VRS-O bez
zmiennej
środowiskowej
Ranking
SE-VRS-O
skorygowany
SE-VRS-O
ze zmienną
środowiskową
Ranking
skorygowany
model
SE-VRS-O
U498 100 100 1,000 160,97 17 289,80 1
U277 100 100 1,000 151,56 23 288,30 2
U613 100 100 1,000 1000 1 288,19 3
U551 100 100 1,000 152,33 21 288,16 4
U197 100 100 1,000 280,35 6 287,25 5
U280 95,09 100 0,951 151,55 24 285,86 6
U497 100 100 1,000 148,32 26 285,76 7
U64 100 100 1,000 183,49 13 284,84 8
U315 100 100 1,000 149,9 25 284,22 9
U220 100 100 1,000 371,5 4 283,53 10
U321 100 100 1,000 156,31 18 279,46 11
U386 100 100 1,000 209,06 8 278,69 12
U414 100 100 1,000 1000 2 277,06 13
U236 100 100 1,000 153,49 20 274,29 14
U413 100 100 1,000 301,6 5 274,02 15
U153 100 100 1,000 143,14 27 272,49 16
U181 100 100 1,000 168,16 16 266,05 17
U318 100 100 1,000 153,97 19 265,55 18
U158 100 100 1,000 202,41 9 257,80 19
U171 100 100 1,000 189,69 11 253,21 20
U99 100 100 1,000 258,22 7 238,20 21
U6 99,27 100 0,993 194,71 10 238,04 22
U383 100 100 1,000 523,34 3 233,95 23
U418 100 100 1,000 170,09 15 233,30 24
310
U415 100 100 1,000 171,01 14 228,52 25
U151 100 100 1,000 184,34 12 177,98 26
U51 100 100 1,000 151,86 22 166,85 27
U580 93,3 94,82 0,984 94,82 80 106,72 28
U583 93,67 97,87 0,957 97,87 68 105,29 29
U390 99,14 99,47 0,997 99,47 63 104,86 30
U602 97,81 98,42 0,994 98,42 66 104,34 31
U582 82,61 83,23 0,993 83,23 100 104,10 32
U22 100 100 1,000 101,02 58 104,09 33
U12 100 100 1,000 112,53 44 104,00 34
U312 100 100 1,000 111,42 45 103,57 35
U601 93,94 94,13 0,998 94,13 81 103,42 36
U165 100 100 1,000 100,15 59 103,05 37
U272 85,74 86,01 0,997 86,01 96 102,72 38
U417 100 100 1,000 128,39 31 102,23 39
U21 100 100 1,000 117,36 39 102,17 40
U29 93,23 100 0,932 100,05 60 101,81 41
U155 100 100 1,000 134,4 28 101,61 42
U663 84,08 100 0,841 132,25 29 101,60 43
U4 100 100 1,000 127,66 33 101,58 44
U9 97,9 100 0,979 117,04 40 101,55 45
U273 81,72 81,92 0,998 81,92 101 101,38 46
U395 100 100 1,000 123,42 35 101,33 47
U271 86,7 92,04 0,942 92,04 87 101,24 48
U367 100 100 1,000 108,23 49 101,16 49
U20 93,51 95,52 0,979 95,52 75 101,09 50
U585 84,16 100 0,842 106,73 50 101,02 51
U106 97,95 98,16 0,998 98,16 67 100,90 52
U664 92,79 100 0,928 131,85 30 100,87 53
U18 86,4 100 0,864 101,63 55 100,87 54
U163 87,87 100 0,879 114,38 42 100,77 55
U25 98,43 99,51 0,989 99,51 62 100,74 56
U397 97,55 99,96 0,976 99,96 61 100,67 57
U391 96,49 99,16 0,973 99,16 64 100,62 58
U11 91,48 92,33 0,991 92,33 86 100,62 59
U658 100 100 1,000 106,42 51 100,58 60
U39 91,51 95,33 0,960 95,33 77 100,50 61
U23 95,22 96,11 0,991 96,11 74 100,43 62
U388 100 100 1,000 118,8 37 100,39 63
U400 94,73 100 0,947 111,11 46 100,37 64
U8 100 100 1,000 104,22 53 100,31 65
U16 94,17 95 0,991 95 79 100,30 66
U342 95,22 97,74 0,974 97,74 69 100,28 67
U30 92,78 93,52 0,992 93,52 83 100,06 68
U324 77,65 78,66 0,987 78,66 105 100,02 69
U336 95,01 100 0,950 101,6 56 100,02 70
U381 78,53 79,93 0,982 79,93 103 99,95 71
U399 93,2 94,11 0,990 94,11 82 99,93 72
U681 79,81 81,71 0,977 81,71 102 99,92 73
U364 94,8 96,44 0,983 96,44 73 99,92 74
U329 91,62 92,49 0,991 92,49 85 99,90 75
U408 86,67 87,4 0,992 87,4 93 99,87 76
U365 86,83 87,96 0,987 87,96 92 99,85 77
U396 95,21 95,35 0,999 95,35 76 99,85 78
U32 90,75 96,7 0,938 96,7 71 99,80 79
U671 99,8 100 0,998 102,19 54 99,77 80
U366 84,04 100 0,840 101,51 57 99,76 81
U279 100 100 1,000 119,43 36 99,75 82
311
U614 88,35 89,77 0,984 89,77 90 99,74 83
U611 97,6 99,11 0,985 99,11 65 99,73 84
U610 88,11 89,67 0,983 89,67 91 99,72 85
U172 100 100 1,000 118,16 38 99,72 86
U606 79,1 79,9 0,990 79,9 104 99,72 87
U612 91 91,73 0,992 91,73 88 99,69 88
U605 84,83 85,5 0,992 85,5 97 99,69 89
U667 83,21 84,06 0,990 84,06 98 99,69 90
U670 100 100 1,000 114,12 43 99,67 91
U304 91,11 100 0,911 114,76 41 99,61 92
U609 74,47 74,97 0,993 74,97 106 99,60 93
U370 82,84 83,3 0,994 83,3 99 99,59 94
U275 85,26 93,49 0,912 93,49 84 99,54 95
U401 94,31 95,01 0,993 95,01 78 99,48 96
U274 78,97 100 0,790 109,88 47 99,45 97
U281 96,07 97,71 0,983 97,71 70 99,43 98
U424 86,23 89,83 0,960 89,83 89 99,42 99
U69 96,48 96,67 0,998 96,67 72 99,41 100
U36 85,18 86,17 0,989 86,17 94 99,41 101
U369 85,18 86,17 0,989 86,17 95 99,41 102
U468 100 100 1,000 127,01 34 99,41 103
U285 100 100 1,000 108,59 48 99,32 104
U550 100 100 1,000 127,67 32 99,28 105
U278 100 100 1,000 104,49 52 99,26 106
Źródło: Opracowanie własne z wykorzystaniem programu Frontier Analyst.
10.F. Grupa J6
DMU CRS-O VRS-O efektywność
skali
SE-VRS-O
bez zmiennej
środowiskowej
Ranking
SE-VRC-
O
skorygowany
SE-VRS-O ze
zmienną
środowiskową
Skorygowany
ranking
U651 100 100 1,000 9 295,91 1 U651
U572 98,84 100 0,988 10 293,44 2 U572
U243 100 100 1,000 21 287,52 3 U243
U302 97,08 100 0,971 1 286,53 4 U302
U157 87,35 100 0,874 7 286,38 5 U157
U13 100 100 1,000 18 286,31 6 U13
U5 100 100 1,000 14 285,17 7 U5
U1 100 100 1,000 13 284,15 8 U1
U31 100 100 1,000 15 283,76 9 U31
U55 100 100 1,000 16 283,44 10 U55
U103 100 100 1,000 19 283,35 11 U103
U333 100 100 1,000 20 283,34 12 U333
U384 100 100 1,000 5 283,23 13 U384
U54 100 100 1,000 3 283,09 14 U54
U62 100 100 1,000 8 283,02 15 U62
U105 100 100 1,000 2 282,97 16 U105
U123 100 100 1,000 4 282,94 17 U123
U308 100 100 1,000 12 282,26 18 U308
U476 100 100 1,000 6 282,25 19 U476
U473 100 100 1,000 11 282,06 20 U473
U131 100 100 1,000 17 281,98 21 U131
U301 100 100 1,000 26 127,15 22 U301
U653 95,75 95,86 0,999 59 122,78 23 U653
U387 99,95 100 1,000 51 122,06 24 U387
U389 99,93 100 0,999 44 121,24 25 U389
U3 100 100 1,000 24 120,20 26 U3
U241 98,52 100 0,985 23 120,01 27 U241
312
U393 98,7 99,03 0,997 56 118,96 28 U393
U604 100 100 1,000 35 118,18 29 U604
U363 92,25 92,44 0,998 61 117,54 30 U363
U2 100 100 1,000 27 117,35 31 U2
U300 100 100 1,000 48 117,32 32 U300
U654 99,48 99,63 0,998 55 117,26 33 U654
U17 100 100 1,000 37 117,21 34 U17
U53 95,37 95,38 1,000 60 117,14 35 U53
U187 79,26 88,19 0,899 64 116,43 36 U187
U660 87,28 87,44 0,998 65 116,42 37 U660
U14 99,81 99,91 0,999 54 116,22 38 U14
U74 100 100 1,000 22 116,02 39 U74
U24 99,39 100 0,994 39 116,02 40 U24
U26 89,9 98,38 0,914 57 115,69 41 U26
U665 82,66 100 0,827 43 115,66 42 U665
U310 100 100 1,000 41 115,63 43 U310
U496 100 100 1,000 28 115,61 44 U496
U50 100 100 1,000 29 115,59 45 U50
U160 81,98 100 0,820 46 115,47 46 U160
U334 100 100 1,000 53 115,44 47 U334
U140 100 100 1,000 36 115,32 48 U140
U122 100 100 1,000 31 115,26 49 U122
U361 100 100 1,000 38 115,26 50 U361
U337 100 100 1,000 30 115,25 51 U337
U143 100 100 1,000 45 115,10 52 U143
U309 100 100 1,000 42 114,97 53 U309
U137 100 100 1,000 25 114,94 54 U137
U141 100 100 1,000 52 114,94 55 U141
U134 100 100 1,000 34 114,93 56 U134
U678 90,5 96,41 0,939 58 114,88 57 U678
U485 91,56 100 0,916 47 114,87 58 U485
U448 100 100 1,000 40 114,87 59 U448
U490 86,22 100 0,862 50 114,87 60 U490
U647 100 100 1,000 32 114,87 61 U647
U486 89,97 90,53 0,994 62 114,86 62 U486
U491 80,58 89,37 0,902 63 114,86 63 U491
U645 100 100 1,000 33 114,85 64 U645
U543 100 100 1,000 49 114,85 65 U543
Źródło: Opracowanie własne z wykorzystaniem programu Frontier Analyst.
313
BIBLIOGRAFIA
Wydawnictwa zwarte
1. Aczel A.D., Statystyka w zarządzaniu, Państwowe Wydawnictwo Naukowe, Warszawa 2006.
2. Anh T., Seiford L.M., Sensitivity of DEA to models and variable sets in a hypothesis test
setting: the efficiency of university operations, [w:] Creative and innovative approaches
to the science of management, Y. Ijiri (red.), Quorum Books, New York 1993, s. 191-208.
3. Antonelli C., Franzoni C., Geuna A., The contributions of economics to a science
of science policy, [w:] Science and innovation policy for the new knowledge economy,
M.G. Colombo, L. Grilli, L. Piscitello, C. Rossi-Lamastra (red.), Edward Elgar,
Cheltenham, Northampton 2011, s. 19-36.
4. Arnold E., Guy K., Technology diffusion programmes and the challenge for evaluation,
[w:] Policy evaluation in innovation and technology: towards best practices, OECD,
Paris 1997, s. 74, http://www.oecd.org/dataoecd/34/40/1907926.pdf [08.04.2013].
5. Betz F., Managing science: Methodology and organization of research, Springer,
New York 2011.
6. Bonaccorsi A., Daraio C., Econometric approaches to the analysis of productivity
of R&D systems [w:] Handbook of quantitative science and technology research,
H.F. Moed i in. (red.), Kluwer Academic Publishers, Netherlands 2004, s. 51-74.
7. Cambell D.F.J., The evaluation of university research in the United Kingdom and the
Netherlands, Germany and Austria [w:] Learning from science and technology policy
evaluation. experiences from the United States and Europe, P. Shapira, S. Kuhlmann,
Edward Elgar Publishers, Northampton, Cheltenham, 2003, s. 106-107.
8. Camus D., The ONS productivity handbook. A statistical overview and guide, Office
for National Statistics, Pelgrave Macmillan, New York 2007.
9. Caraça J., Toward and S&T policy for the knowledge-based society, [w:] Science,
technology and innovation policy. Opportunities and challenges for the knowledge
economy, P. Conceição, D. Gibson, M. Heitor, S. Shariq (red.), International Series
on Technology Policy and Innovation, nr 1, Quorum 2000, s. 27-33.
10. Cave M., The use of performance indicators in higher education: the challenge of the
quality movement, Jessica Kingsley Publishers, Philadephia 1991.
11. Chaskielewicz S., Tuszko A., Polityka naukowa drugiej generacji, Wiedza Powszechna,
Warszawa 1975, s. 120.
12. Coelli T., Rao D.S.S, Battese G.E., An introduction to efficiency and productivity
analysis, Kluwer Academic Publishers, Boston, Dordrecht, London 2002.
13. Colombo M.G., Grilli L., Piscitello L., Rossi-Lamastra C., Science and innovation
policy for the new knowledge economy, PRIME Series on Research and Innovation
Policy in Europe, Edward Elgar, Cheltenham,Northampton 2011.
14. Cooper W.W., Seiford L.M., Tone K., Data Envelopment Analysis. a comprehensive
text with models, applications, references and DEA-solver software, Kluwer Academic
Publishers, Boston, Dordrecht, London 2007.
15. Cooper W.W., Seiford L.M., Tone K., Introduction to Data Envelopment Analysis
and its uses. With DEA-Solver Software and References, Springer, New York 2006.
314
16. Cooper W.W., Seiford L.M., Zhu J., Handbook on Data Envelopment Analysis, Kluwer
Academic Publishers, Boston, Dordrecht, London 2004.
17. Czerniak J., Polityka innowacyjna w Polsce. Analiza i proponowane kierunki zmian,
Difin, Warszawa 2013.
18. Ćwiąkała-Matys A., Wykorzystanie Data Envelopment Analysis (DEA) do badania
relacji nakłady-efekty w publicznym szkolnictwie akademickim w Polsce, Prace
Naukowe Uniwersytetu Ekonomicznego we Wrocławiu, nr 56, 2009, s. 67-82.
19. Daraio C., Simar L., Advanced robust and nonparametric methods in efficiency.
Methodology and applications, Springer, New York 2007.
20. Daszkiewicz M., Jednostki badawczo-rozwojowe jako źródło innowacyjności
w gospodarce i pomoc dla małych i średnich przedsiębiorstw, Polska Agencja Rozwoju
Przedsiębiorczości, Warszawa 2008.
21. Dąbkowski J., O problemie redukcji wymiarów, Polskie Towarzystwo Inżynierii Rolniczej,
Kraków 2000.
22. Drucker S.F., Zarządzanie w XXI wieku, Wydawnictwo Muza SA, Warszawa 2000.
23. Etzkovitz H., Ranga M., “Spaces”: A triple helix governance strategy for regional
innovation, [w:] Innovation governance in an open economy, A. Rickne, S. Laestadius,
H. Etzkovitz (red.), Routledge, Abington, New York 2012, s. 51-68.
24. Ewaluacja w służbach społecznych, Szatur-Jaworska B. (red.), Mazowieckie Centrum
Polityki Społecznej, Warszawa 2010, s. 45.
25. Feller I., A policy-shaped research agenda, [w:] The new economics of technology
policy, D. Foray (ed.), Edward Elgar, Cheltenham, Northampton 2009, s. 99-112.
26. Grabiński T., Wydymus S., Zeliaś A., Metody taksonomii numerycznej w modelowaniu
zjawisk społeczno-gospodarczych, Państwowe Wydawnictwo Naukowe, Warszawa 1989.
27. Griffin R.W., Podstawy zarządzania organizacjami, Państwowe Wydawnictwo
Naukowe, Warszawa 2007.
28. Gryzik A., Płoszaj A., Ewaluacja w sektorze badań i rozwoju oraz w szkolnictwie
wyższym, [w:] Jak ewaluować i monitorować efekty projektów sektora B+R
i szkolnictwa wyższego?, P. Kościelecki, B. Warzybok (red.), Ośrodek Przetwarzania
Informacji – Instytut Badawczy, Warszawa 2011, s. 47-66.
29. Guzik B., Podstawowe modele DEA w badaniu efektywności gospodarczej i społecznej,
Wydawnictwo Uniwersytetu Ekonomicznego, Poznań 2009.
30. Hamrol A., Mantura W., Zarządzanie jakością: teoria i praktyka, Państwowe
Wydawnictwo Naukowe, Warszawa 2011.
31. Hamrol A., Zarządzanie jakością z przykładami, Państwowe Wydawnictwo Naukowe, 2011.
32. Improving measurement of productivity in higher education Sullivan T., Mackie C.,
Massy W.F., Sinha E. (red.), The National Academies Press, Washington 2012.
33. Jędrzejczyk Z., Kukuła K., Skrzypek J., Walkosz A., Badania operacyjne w przykładach
i zadaniach, Państwowe Wydawnictwo Naukowe, Warszawa 2004.
34. Juzwiszyn J., Rybicki W., Smoluk A., O definicji efektywności. Rozważania
nad celowością w naturze i rozwojem, [w:] Efektywność – rozważania nad istotą
i pomiarem, T. Dudycz (red.), „Prace Naukowe Akademii Ekonomicznej
we Wrocławiu” 2005, nr 1060, s. 191-203.
35. Keller A.C., Science in environmental policy. The politics of objective advise,
Massachusetts Institute of Technology, Cambridge, Massachusetts, London 2009.
315
36. Knox Lovell C.A. , Production frontiers and productive efficiency, [w:] The measurement
of productive efficiency: techniques and applications, H.O. Fried, S.S. Schmidt,
C.A. Knox Lovell (red.), Oxford University Press, New York 1993.
37. Kobal E., Elements of national science and technology policy, [w:] Modernisation
of science policy and management approaches in Central and South East Europe,
E. Kobal, S. Radosevic (red.), Series V. Science and Technology Policy, IOS Press,
Amsterdam, Berlin, Oxford, Tokyo, Washington 2005.
38. Kolonko J., Analiza dyskryminacyjna i jej zastosowanie w ekonomii, Państwowe
Wydawnictwo Naukowe, Warszawa 1980.
39. Koopmans T.C., An analysis of production as an efficient combination of activities,
[w:] Activity analysis of production and allocation, cowles commission for research
in economics, T.C. Koopmans (red.), Wiley, New York 1951, s. 33-97.
40. Korenik S., Szostak E., Polityka naukowa i innowacyjna, [w:] Polityka gospodarcza, B
Winiarski (red.), Państwowe Wydawnictwo Naukowe, Warszawa 2006, s. 325-348.
41. Kosieradzka A., Lis S., Programowanie poprawy produktywności, Instytut Organizacji
i Zarządzania w Przemyśle „ORGMASZ”, Warszawa 1998.
42. Kosieradzka A., Zarządzanie produktywnością w przedsiębiorstwie, Wydawnictwo
C.H. Beck, Warszawa 2012.
43. Kosieradzka A., Zarządzanie produktywnością w przedsiębiorstwie, Wydawnictwo
C.H. Beck, Warszawa 2012.
44. Kotarbiński T., Traktat o dobrej robocie, Zakład Narodowy Imienia Ossolińskich,
Wrocław, Warszawa, Kraków 1969.
45. Krishna V.V., Turpin T., Transition and change: innovation systems in Asia-Pacific
economies, [w:] Science, technology policy and the diffusion of knowledge, T. Turpin, V.V.
Krishna (red.), Edward Elgar Publishing, Inc., Cheltenham, Massachusetts 2007, s. 1-33.
46. Kumbhakar S.C., Knox Lovell C.A., Stochastic frontier analysis, Cambridge University
Press, Cambridge, New York, Melbourne, Madrid, 2000.
47. Leszek W., Wojciechowicz B., Analiza pewnych możliwości podniesienia efektywności
badań naukowych, Politechnika Poznańska, Poznań 1975.
48. Leszek W., Wojciechowicz B., Analiza pewnych możliwości podniesienia efektywności
badań naukowych, Politechnika Poznańska, Poznań 1975.
49. Luszniewicz A., Słaby T., Statystyka z pakietem komputerowym STATISTICA PL.
Teoria i zastosowania, Wydawnictwo C.H. Beck, Warszawa 2008.
50. M. Herbst, Financing public universities: the case of performance funding, Higher
Education Dynamics, t. 18, Springer, Zurich 2007.
51. Mailhot C., Schaeffer V., Universities specificities and the emergence of a global
model, [w:] Innovation policy in a knowledge-based economy. Theory and practice,
P. Llerena, M. Matt (red.), Springer, Berlin, Heidelberg, New York 2005, s. 339-360.
52. Maksymowicz-Ajchel A., Wstęp do statystyki, Wydawnictwo Uniwersytetu Warszawskiego,
Warszawa 2007.
53. Makulska D., Kluczowe czynniki rozwoju w gospodarcze opartej na wiedzy, [w:] Pomiędzy
polityką stabilizacyjną i polityką rozwoju, J. Stacewicz (red.), Prace i Materiały Instytutu
Rozwoju Gospodarczego SGH, IRG SGH, Warszawa 2012, s. 169-194.
54. Mały słownik techniczny angielsko-polski i polsko-angielski, Wydawnictwa Naukowo-
Techniczne, Warszawa 1990.
316
55. Marburger J., The science of science and innovation technology, [w:] Science,
technology and innovation indicators in a changing world. Responding to policy needs,
OECD Publishing, 2007, s. 27-32.
56. Miedziński M., Wybrane zagadnienia ewaluacji polityki innowacyjnej, [w:] Teoria
i praktyka ewaluacji interwencji publicznych, K. Olejniczak, M. Kozak, B. Ledzion
(red.), Wydawnictwa Akademickie i Profesjonalne, Warszawa 2008, s. 480-498.
57. Miles I., Rigby J., Demand-led innovation, [w:] Innovation policy challenges
for the 21st century, D. Cox, J. Rigby (red.), Routledge Studies in Innovation,
organization and technology, Taylor & Francis, New York, London 2013, s. 6-33.
58. Nazarko J., Kuźmicz K.A., Szubzda E., Urban J. (Jakuszewicz), Analiza oceny
parametrycznej z perspektywy benchmarkingu, [w:] Benchmarking wsystemie
szkolnictwa wyższego, J. Woźnicki (red.), Oficyna Wydawnicza Politechniki
Warszawskiej, Warszawa 2008, s. 49-64.
59. Nazarko J., Regionalny foresight gospodarczy. Metodologia i instrumentarium
badawcze, Mazowieckie Centrum Informacji Gospodarczej, Warszawa 2013.
60. OECD Manual, Measuring productivity. Measurement of aggregate and industry-level
productivity growth, OECD Publishing, France 2001.
61. OECD, Przegląd narodowej polityki naukowej i technicznej: Polska, Fundacja Rozwój
Szkoły Głównej Gospodarstwa Wiejskiego, Warszawa 1996.
62. OECD, Public research institutions: mapping sector trends, OECD Publishing, 2011.
63. Olechnicka A., Potencjał nauki a innowacyjność regionów, Centrum Europejskich Studiów
Regionalnych i Lokalnych UW, Wydawnictwo Naukowe Scholar, Warszawa 2012.
64. Olejniczak K. , Ferry M., Ewaluacja w praktyce sektora publicznego, [w:] Ewaluacja
jako standard zarządzania w sektorze publicznym, B. Pietras-Goc (red.), Wyższa Szkoła
Europejska im. ks. Józefa Tischnera, Kraków 2008, s. 9-47.
65. Olejniczak K., Wprowadzenie do zagadnień ewaluacji, [w:] Teoria i praktyka ewaluacji
interwencji publicznych, K. Olejniczak, M. Kozak, B. Ledzion (red.), Wydawnictwa
Akademickie i Profesjonalne, Warszawa 2008, s. 17-44.
66. Osiewalski J., Ekonometria bayesowska w zastosowaniach, Wydawnictwo Akademii
Ekonomicznej, Kraków 2001.
67. Pacholski L., Malinowski B., Niedźwiedź S., Procesowe, strukturalne i kooperacyjne
aspekty innowacyjności organizacyjnej przedsiębiorstw, Wydawnictwo Politechniki
Poznańskiej, Poznań 2011.
68. Panek T., Statystyczne metody wielowymiarowej analizy porównawczej, Szkoła Główna
Handlowa, Warszawa 2009.
69. Pawlak W.S., Produktywność. Podstawy, Seria: Zarządzanie przez jakość,
Wydawnictwo Bellona, Warszawa, 1995.
70. Pawłowski J., Metodyka oceny efektywności finansowej przedsięwzięć gospodarczych,
Wydawnictwo Uniwersytetu Łódzkiego, Łódź 2004.
71. Penc J., Sztuka skutecznego zarządzania, Oficyna Ekonomiczna, Kraków 2006.
72. Postuła M., Rola ewaluacji w budżetowaniu zadaniowym, [w:] Ewaluacja wobec
wyzwań stojących przed sektorem finansów publicznych, A. Haber, M. Szałaj (red.),
Polska Agencja Rozwoju Przedsiębiorczości, Warszawa 2009, s. 41-60.
73. Programowanie matematyczne. Zbiór zadań, Krawczyk S. (red.), Polskie Wydawnictwo
Ekonomiczne, Warszawa 1978.
317
74. Prokopenko J., Productivity management. A practical handbook, International Labour
Office, Geneva 1987.
75. Pszczołowski T., Mała encyklopedia prakseologii i teorii organizacji, Wydawnictwo
Ossolineum, Wrocław, Warszawa, Kraków, Gdańsk 1978.
76. Ramanathan R., An introduction to data envelopment analysis. a tool for performance
measurement, Sage Publications, New Delhi, Thousand Oaks, London 2003.
77. Ray S.C., Data Envelopment Analysis. Theory and techniques for economics
and operations research, Cambridge University Press, New York 2004.
78. Rigby J., Nugroho Y., Morrison K., Miles I., Who drives innovation? [w:] Innovation
Policy Challenges for the 21st century, D. Cox, J. Rigby (red.), Routledge Studies
in Innovation, Organization and Technology Series, Taylor & Francis, New York,
London 2013.
79. Rocznik statystyczny 2013, GUS, Warszawa 2013.
80. Rogers E.M., Diffusion of innovation, Collier Macmillan Publishers, New York,
London 2003.
81. Romer D., Makroekonomia dla zaawansowanych, Państwowe Wydawnictwo Naukowe,
Warszawa 2000.
82. Roskal Z.E., Zwrotne punkty w rozwoju nauki i techniki (technologii), [w:] Zarządzanie
badaniami naukowymi i pracami rozwojowymi w jednostkach naukowych, P. Kawalec,
S. Majdański (red.), Wydawnictwo Lubelskiej Szkoły Biznesu, Lublin 2008, s. 21-40.
83. Rybaczuk M., Graficzna prezentacja struktury danych wielowymiarowych, Prace Naukowe
Akademii Ekonomicznej we Wrocławiu, nr 942, Akademia Ekonomiczna, Wrocław, 2002,
s. 146-153.
84. Rybicki W., O wielostronności, relatywizmie i złożoności kategorii efektywności,
[w:] Efektywność – rozważania nad istotą i pomiarem, T. Dudycz (red.), „Prace
Naukowe Akademii Ekonomicznej we Wrocławiu” 2005, nr 1060, s. 358-379.
85. Shaping science and technology policy: the next generation of research, D. Guston,
D. Sarewitz (red.), The University of Wisconsin Press, Madison 2006.
86. Siemienska R., Research productivity in polish universities and its determinants at the
beginning of the 21st century, [w:] Universities as centres of research and knowledge
creation: an endangered species, H. Vessuri, U. Teichler (red.), Sense Publishers,
Rotterdam/Taipei, 2008, s. 161-178.
87. Sink D.S., Tuttle T.C., Planning and measurement in your organization of the future,
Industrial Engineering and Management Press, Norcross 1989.
88. Smoleński S., Zarządzanie produktywnością w przedsiębiorstwie, Oficyna Wydawnicza
Ośrodka Postępu Organizacji, Bydgoszcz 2000.
89. Smólski B., Kasprzyk-Młynarczyk I., Benchmarking w zastosowaniu do działalności
naukowej, [w:] Benchmarking w systemie szkolnictwa wyższego, J. Woźnicki (red.),
Fundacja Rektorów Polskich, Warszawa 2008, s. 42-48.
90. Starzyńska W., Statystyka praktyczna, Państwowe Wydawnictwo Naukowe, Warszawa 2000.
91. Thanassoulis E., Introduction to the theory and application of Data Envelopment
Analysis, Kluwer Academic Publishers, Norwell 2003.
92. The science of science policy. A handbook, Fealing K.H., Lane J.I., Marburger III J.H.,
Shipp S.S. (red.), Stanford University Press, Stanford 2011.
318
93. Tone K., Malmquist productivity index: efficiency change over time, [w:] Handbook
on Data Envelopment Analysis, W.W. Cooper, L.M. Seiford, J. Zhu (red.), Kluwer
Academic Publishers, Boston, Dordrecht, London 2004, s. 203-227.
94. Trajtenberg M., Innovation policy for development: an overview, [w:] The new
economics of technology policy, D. Foray (red.), Edward Elgar, Cheltenham,
Northampton 2009, s. 367-395.
95. Vademecum produktywności, Agencja Wydawnicza Placet, Warszawa 1999.
96. van den Besselaar S., Börner K., Scharnhorst A., Science policy and the challenges
for modeling science, [w:] Models of science dynamics, A. Scharnhorst, K. Börner,
S. van den Besselaar (red.), Springer 2012, s. 261-266.
97. Viale R., Etzkovitz H., The capitalization of knowledge: a triple helix of university-
industry-government, Edward Elgar Publishing Ltd., Northampton, USA 2010.
98. Welfe W., Przesłanki modelowania gospodarki opartej na wiedzy, [w:] Gospodarka oparta
na wiedzy, W. Welfe (red.), Polskie Wydawnictwo Ekonomiczne, Warszawa 2007, s. 9-20.
99. Wolszczak-Derlacz J., Efektywność naukowa, dydaktyczna i wdrożeniowa publicznych
szkół wyższych w Polsce – analiza nieparametryczna, Wydawnictwo Politechniki
Gdańskiej, Gdańsk 2013.
100. Wolszczak-Derłacz J., Parteka A., Produktywność naukowa wyższych szkół publicznych
w Polsce. Bibliometryczna analiza porównawcza, Ernst&Young, Warszawa 2010.
101. Zeliaś A., Metody statystyczne, Polskie Wydawnictwo Ekonomiczne, Warszawa 2000.
102. Zhu J., Quantitative models for performance evaluation and benchmarking: Data
Envelopment Analysis with spreadsheets and DEA Excel solver, Kluwer Academic
Publishers, Boston 2003.
103. Zieleniewski J., Prakseologiczne problemy wydajności i produktywności pracy,
[w:] Dynamika wydajności pracy w świetle prakseologii, Państwowe Wydawnictwo
Naukowe, Warszawa 1972.
104. Zieliński J., O organizacji badań naukowych, Polskie Wydawnictwo Ekonomiczne,
Warszawa 1975.
Wydawnictwa ciągłe
1. Abbott M., Doucouliagos C., The efficiency of Australian universities: a data
envelopment analysis, “Economics of Education Review” 2003, t. 22, s. 89-97.
2. Abramo G., Cicero T., D’Angelo C.A., A field-standardized application of DEA to national-
scale research assessment of universities, “Journal of Informetrics” 2011, t. 5, s. 618-628.
3. Abramo G., D’Angelo C.A., Di Costa F., Research collaboration and productivity:
is there correlation?, “Higher Education” 2009, t. 57, s. 155-171.
4. Abramo G., D’Angelo C.A., Di Costa F., Variability of research performance across
disciplines within universities in non-competitive higher education systems,
“Scientometrics” 2014, t. 98, s. 777-795.
5. Abramo G., D’Angelo C.A., Pugini F., The measurement of Italian universities‟
research productivity by a non parametric-bibliometric methodology,”Scientometrics”
2008, t. 76, nr 2, s. 225-244.
319
6. Adler N., Friedman L., Sinuany-Stern Z., Review of ranking methods in the data
envelopment analysis context, ”European Journal of Operational Research” 2002, t. 140,
s. 249-265.
7. Ahlqvist T., Valovirta V., Loikkanen T., Innovation policy roadmapping as a systemic
instrument for looking-foreward policy design, “Science and public policy” 2012, t. 39,
s. 178-190.
8. Aigner J.D., Lovell C.A.K., Schmidt S., Formulation and estimation of stochastic frontier
production function models, „Journal of Econometrics”, 1977, t. 6, nr 1, s. 21-37.
9. Al-Darrab I.A., Relationships between productivity, efficiency, utilization, and quality,
“Work Study” 2000, t. 49, nr 3, s. 97-104.
10. Alsyouf I., The role of maintenance in improving companies‟ productivity
and profitability, “International Journal of Production Economics” 2007, t. 105, s. 70-78.
11. Antonowicz D. , Jackowski S., Pilc A., Skoczeń B., Zabel M., Kategoryzacja nauki,
„Forum Akademickie” 2013, nr 10, s. 26-29.
12. Antonowicz D., Brzeziński J.M., Doświadczenia parametryzacji jednostek naukowych
z obszaru nauk humanistycznych i społecznych 2013 – z myślą o parametryzacji 2017,
„Nauka” 2013, nr 4, s. 51-85.
13. Aoki S., Inoue K., Gejima R., Data envelopment analysis for evaluating Japanese
universities, “Artif Life Robotics” 2010, t. 15, s. 165-170.
14. Auranen O., Nieminen M., University research funding and publication performance –
an international comparison, “Research Policy” 2010, t. 39, s. 822-834.
15. Avkiran N.C., Rowlands T., How to better identify the true managerial performance:
state of the art using DEA, “Omega” 2008, t. 36, s. 317-324.
16. Avkiran N.K., Investigating technical and scale efficiencies of Australian universities through
data envelopment analysis, “Socio-Economic Planning Sciences” 2001, t. 35, s. 57-80.
17. Aziz N.A.A., Janor R.M., Mahadi R., Comparative departmental efficiency analysis
within a university: A DEA approach, “Procedia – Social and Behavioral Sciences”
2013, t. 90, s. 540-548.
18. Babu A.R., Singh Y.S., Determinants of research productivity, “Scientometrics” 1998,
t. 43, nr 3, s. 318-327.
19. Banker R.D., Cooper W.W., Validation and generalization of DEA and its uses, “Top”
1994, t. 2, nr. 2, s. 249-314.
20. Bauer S.W., Berger A.N., Ferrier G.D., Humphrey D.B., Consistency conditions
for regulatory analysis of financial institutions: a comparison of frontier efficiency
methods, ”Journal of Economics and Business” 1998, t. 50, s. 85-114.
21. Berbegal-Mirabent J., Lafuente E., Solé F., The pursuit of knowledge transfer activities:
An efficiency analysis of Spanish universities, ”Journal of Business Research” 2013,
t. 66, s. 2051-2059.
22. Bernardin H.J., Academic research under siege: toward better operational definitions
of scholarship to increase effectiveness, efficiencies and productivity, “Human Resource
Management Review” 1996, t. 6, nr 3, s. 207-229.
23. Bernolak I., Effective measurement and successful elements of company productivity:
The basis of competitiveness and world prosperity, “International Journal of Production
Economics” 1998, t. 52, s. 203-213.
320
24. Bleischwitz R., Rethinking productivity: why has productivity focused on labour instead
of natural resources, “Environmental and Resource Economics” 2001, t. 19, s. 22-36.
25. Boljunčić V., Sensitivity analysis of an efficient DMU in DEA model with variable
returns to scale (VRS), “Journal of Productivity Analysis” 2006, t. 25, s. 173-192.
26. Bolli T., Somogyi F., Do competitively acquired funds induce universities to increase
productivity?, “Research Policy” 2011, t. 40, s. 136-147.
27. Bonaccorsi A., Daraio C., Simar L., Advanced indicators of productivity of universities.
An application of robust nonparametric methods to Italian data, “Scientometrics” 2006,
t. 66, nr 2, s. 389-410.
28. Bonaccorsi A., Secondi L., Setteducati E., Ancaiani A., Participation and commitment
in third-party research funding: evidence from Italian universities, “Journal
of Technology Transfer” 2014, t. 39, nr 2, s. 169-198.
29. Bornmann L., Mutz R., Neuhaus C., Daniel H.D., Citation counts for research evaluation:
standards of good practice for analyzing bibliometric data and presenting and interpreting
results, “Ethics in Science and Environmental Politics” 2008, t. 8, s. 93-102.
30. Borrás S., Edquist C., The choice of innovation policy instruments, “Technological
Forecasting and Social Change” 2013, t. 80, s. 1513-1522.
31. Bratnicki M., Frączkiewicz-Wronka A., Efektywność organizacyjna i zarządzanie
publiczne – wyłaniające się koncepcje, kluczowe wyzwania i kierunki dalszych badań w
obszarze pomiaru efektywności, „Organizacja i Kierowanie” 2006, nr 3 (125), s. 17-31.
32. Brennan J., Shah T., Quality assessment and institutional change: experience from 14
countries, ”Higher Education” 2000, t. 40, nr 3, s. 331-349.
33. Brzeziński J.M., Kontrowersje wokół oceny jednostek naukowych z obszaru nauk
społecznych, „Kultura i Edukacja” 2011, nr 2, s. 177-192.
34. Brzeziński J.M., Ocena parametryczna – co dobre, co zmienić, „Forum Akademickie”
2013, nr 11, s. 30-33.
35. Brzeziński J.M., Reguły parametryzacji, „Forum Akademickie”, nr 2, 2007, s. 21-24.
36. Butler L., Using a balanced approach to bibliometrics: quantitative performance
measures in the Australian Research Quality Framework, “Ethics in Science
and Environmental Politics” 2008, t. 8, s. 83-92.
37. Caniëls M.C.J., van den Bosh H., The role of higher education institution in building
regional innovation systems, “Papers in Regional Science” 2011, t. 90, nr 2, s. 271-286.
38. Carayol N., Matt M., Individual and collective determinants of academic scientists
productivity, “Information Economics and Policy” 2006, t. 18, s. 55-72.
39. Caves D.W., Christensen L.R., Diewert E.R., The economic theory of index numbers
and the measurement of input, output, and productivity, “Econometrica” 1982, t. 50,
nr 6, s. 1393-1414.
40. Charnes A. , Cooper W.W. , Golany B., Seiford L.M., Stutz J., Foundations of Data
Envelopment Analysis for Pareto-Koopmans efficient empirical production functions,
”Journal of Econometrics” 1985, t. 30, s. 91-107.
41. Charnes A., Cooper W.W., Lewin A.Y., Morey R.C., Rousseau J., Sensitivity
and stability analysis in DEA, “Annals of Operation s Research” 1985, t. 2, s. 139-156.
42. Charnes A., Cooper W.W., Rhodes E., Measuring the efficiency of decision making
units, “European Journal of Operational Research” 1978, t. 2, s. 429-444.
321
43. Charnes A., Haag S., Jaska P., Semple J., Sensitivity of efficiency classifications
in the additive model of data envelopment analysis, “International Journal of Systems
Science” 1992, t. 23, s. 789-798.
44. Charnes A., Cooper W.W., Lewin A.Y., Seiford L.M., Data Envelopment Analysis:
theory, methodology, and application, Kluwer Academic Publishers, Boston, Dordrecht,
London 1996, s. 3-4.
45. Charnes A., Rousseau J., Semple J., Sensitivity and stability of efficiency classifications
in data envelopment analysis, “Journal of Productivity Analysis” 1996, t. 7, s. 5-18.
46. Chen C., Hicks D., Tracing knowledge diffusion, “Scientometrics” 2004, t. 59, nr 2,
s. 199-211.
47. Chew B., No-nonsense guide to measuring productivity, “Harvard Business Review”
1988, January-February, s. 3-9.
48. Cohen J.G., Sherman A.E., Kiet T.K., Kapp D.S., Osann K., Chen L., O’Sullivan S.S.,
Chan J.K., Characteristics of success in mentoring and research productivity – A case
-control study of academic centers, “Gynecologic Oncology” 2012, t. 125, s. 8-13.
49. Cook W.D., Seiford L.M., Data envelopment analysis (DEA) – Thirty years on,
”European Journal of Operational Research” 2009, t. 192, s. 1-17.
50. Cooper W.W., Li S., Seiford L.M., Tone K., Thrall R.M., Zhu J. , Sensitivity
and stability analysis in DEA: some recent developments, “Journal of Productivity
Analysis” 2001, t. 15, s. 217-246.
51. Cooper W.W., Seiford L.M., Thanassoulis E., Zanakis S.H., DEA and its uses in different
countries, „European Journal of Operational Research” 2004, t. 154, s. 337-344.
52. Debreu G., The coefficient of resource utilization, “Econometrica” 1951, t. 19, s. 273-292.
53. Drozdowicz Z., Kategoryzacja nauki, „Forum Akademickie” 2006, nr 9, s. 21-23.
54. Drucker P., The coming of the new organization, ”Harvard Business Review” 1988,
January-February, s. 3-11.
55. Dundar H., Lewis D.R., Determinants of research productivity in higher education,
”Research in Higher Education” 1998, t. 39, nr 6, s. 607-631.
56. Dyson R.G., Thanassoulis E., Reducing weight flexibility in Data Envelopment
Analysis, “Journal of the Operational Research Society” 1988, t. 39, nr 6, s. 563-576.
57. Emrouznejad A., Parker B.R., Tavares G., Evaluation of research in efficiency
and productivity: A survey and analysis of the first 30 years of scholarly literature
in DEA, “Socio-Economic Planning Sciences” 2008, t. 42, s. 151-157.
58. Emrouznejad A., Parker B.R., Tavares G., Evaluation of research in efficiency
and productivity: A survey and analysis of the first 30 years of scholarly literature
in DEA, “Socio-Economic Planning Sciences” 2008, t. 42, s. 151-157.
59. Etzkowitz H., Leydesdorff L., The dynamics of innovation: from National Systems
and „Mode 2‟ to a Triple Helix of university-industry-government relations, “Research
Policy” 2000, t. 29, s. 109-123.
60. Färe R., Grosskopf S., Malmquist productivity indexes and Fisher ideal indexes,
“Economic Journal” 1992, t. 102, s. 158-160.
61. Farrell M.J., The measurement of the productive efficiency, “Journal of the Royal
Statistical Society” 1957, seria A, nr 3, s. 253-290.
62. Gattoufi S., Oral M., Reisman A., A taxonomy for data envelopment analysis, “Socio-
Economic Planning Sciences“ 2004, t. 38, s. 141-158.
322
63. Gattoufi S., Oral M., Reisman A., Data envelopment analysis literature: a bibliography
update (1951-2001), “Socio-Economic Planning Sciences” 2004, t. 38, s. 159-229.
64. Glass J.C., McCallion G., McKillop D.G., Rasaratnam S., Stringer K.S., Implications
of variant efficiency measures for policy evaluations in UK higher education, “Socio
-Economic Planning Sciences” 2006, t. 40, s. 119-142.
65. Godin B., The value of science: changing conceptions of scientific productivity, 1869
to circa 1970, “Social Science Information” 2009, t. 48 (4), s. 547-586.
66. Gospodarowicz M., Procedury analizy i oceny banków, „Materiały i Studia” 2000,
Narodowy Bank Polski, nr 103, s. 1-60.
67. Grimp C., Extramural research grants and scientists‟ funding strategies: beggars
cannot be choosers?, “Research Policy” 2012, t. 41, s. 1448-1460.
68. Groot T., Garcìa-Valderrama T., Research quality and efficiency. An analysis
of assessments and management issues in Dutch economics and business research
programs, “Research Policy” 2006, t. 35, s. 1362-1376.
69. Grӧnroos C., Ojsalo K., Service productivity. Towards a conceptualization of the
transformation of inputs into economic results in services, “Journal of Business
Research” 2004, t. 57, s. 414- 423.
70. Guena A., Martin B.R., University research evaluation and funding: and international
comparison, “Minerva” 2003, t. 41, nr 4, s. 277-304.
71. Guzik B., Efektywność w standardowym modelu CCR-DEA przy zmianach rozmiaru
zadania, „Wiadomości Statystyczne” 2009, nr 11(582), s. 17-34.
72. Haas D.A., Murphy F.H., Compensating for non-homogeneity in decision-making units
in data envelopment analysis, “European Journal of Operational Research” 2003, t. 144,
s. 530-544.
73. Halkos G.E., Tzeremes N.G., Kourtzidis S.A., Measuring public owned university
departments‟ efficiency: a bootstrapped DEA approach, ”Journal of Economics
and Econometrics” 2012, t. 55, nr 2, s. 1-24.
74. Helms M.M., Perspective on quality and productivity for competitive advantage, ”The
TQM Magazine” 1996, t. 8, nr 3, s. 5-10.
75. Henriques L., Larédo P., Policy-making in science policy: The „OECD model‟ unveiled,
“Research Policy” 2013, t. 42, s. 801-816.
76. Hicks D., Performance-based university research funding systems, “Research Policy”
2012, t. 41, s. 251-261.
77. Hogan R.M., Productivity in research and development, “Science” 1950, t. 112, nr 2917,
s. 613-616.
78. Hong W., Xuezhu C., Ke Z., On the relationship between research productivity
and teaching effectiveness at research universities, “Frontiers of Education in China”
2007, t. 2 (2), s. 298-306.
79. Hosseinzadeh Lotfi F. i in., A review of ranking models in Data Envelopment Analysis,
”Journal of Applied Mathematics” 2013, t. 2013, s. 1-20.
80. Jääskeläinen A., Uusi-Rauva E., Bottom-up approach for productivity measurement
in large public organizations, “International Journal of Productivity and Performance
Management” 2011, t. 60, nr 3, s. 252-267.
81. Jabłecka J., Innowacje w sposobie finansowania uniwersytetów. Analiza na przykładzie
wybranych krajów OECD, „Problemy Zarządzania” 2004, t. 1, s. 62-81.
323
82. Jahanshahloo G.R. i in., Sensitivity of efficiency classifications in the inverse DEA
models, “Applied Mathematics and Computation” 2005, t. 169, s. 905-916.
83. Jahanshahloo G.R. i in., Sensitivity and stability analysis in DEA, “Applied
Mathematics and Computation” 2005, t. 169, s. 897-904.
84. Jiménez-Sáez F., Zabala-Iturriagagoitia J.M., Zofίo J.L., Who leads research productivity
growth? Guidelines for R&D policy-makers, ”Scientometrics” 2013, t. 94, s. 273-303.
85. Johnes G., Johnes J., Measuring the research performance of UK economics
departments: an application of Data Envelopment Analysis, “Oxford Economics
Papers” 1993, t. 45, s. 332-347.
86. Johnes J., Johnes J., Research funding and performance in U.K. university departments
of economics: a frontier analysis, “Economics of Education Review” 1995, t. 14, nr 3,
s. 301-314.
87. Johnes J., Yu L., Measuring the research performance of Chinese higher education
institutions using data envelopment analysis, “China Economic Review” 2008, t. 19,
s. 679-696.
88. José M., López G., Towards decentralized and goal-oriented models of institutional
resource allocation: The Spanish case, “Higher Education”2006, t. 51, s. 589-617.
89. Kao C., Chen L., Wang T., Kuo S., Horng S., Productivity improvement: efficiency
approach vs effectiveness approach, “Omega International Journal of Management
Science” 1995, t. 23, nr 2, s. 197-204.
90. Katharaki M., Katharakis G., A comparative assessment of Greek universities‟
efficiency using quantitative analysis, “International Journal of Educational Research”
2010, t. 49, s. 115-128.
91. Kieraciński P., Premia za jakość, „Forum Akademickie” 2003, nr 2, s. 28-29.
92. King D.A., The scientific impact of nations, ”Nature” 2004, t. 430, s. 311-316.
93. Kisielewska M. , Charakterystyka wybranych metod pomiaru efektywności bazujących
na krzywych efektywności, „Zeszyty Naukowe Akademii Ekonomicznej we Wrocławiu”
2005, nr 4.
94. Klotkou A., Gulbrandsen M., The relationship between academic patenting and scientific
publishing in Norway, “Scientometrics” 2010, t. 82, 2010, s. 93-108.
95. Kocher M.G., Luptacik M., Sutter M., Measuring productivity of research
in economics: A cross-country study using DEA, “Socio-Economic Planning Sciences”
2006, t. 40, s. 314-332.
96. Könnölä T., Scapolo F., Desruelle P., Mu R., Foresight tackling societal challenges:
Impacts and implications on policy-making, “Futures” 2011, t. 43, s. 252-264.
97. Kosmulski M., Quo vadis, KEJN?, „Forum Akademickie” 2011, nr 10, s. 34.
98. Kovács O., Orosz Á., Science and technology policy in the European Union – innovation
leaders with different outcomes, “Analele Universităţii Din Oradea” 2011, t. III, 2011,
s. 94-114.
99. Kozioł L., Istota i ocena produktywności, „Zeszyty Naukowe Małopolskiej Wyższej
Szkoły Ekonomicznej w Tarnowie. Zarządzanie zasobami ludzkimi” 2004, nr 5, s. 63-73.
100. Kozłowski J., Foresight jako narzędzie polityki naukowej, „Nauka i Szkolnictwo
Wyższe” 2008, t. 2, nr 32, s. 12-27.
101. Kozłowski J., OECD doradza, jak robić dobrą politykę, “Forum Akademickie” 2013, nr 4
102. Kozłowski J., Uwagi o polityce naukowej, „Forum Akademickie”, nr 6, 2005.
324
103. Kwon K.-S., Martin B.R., Synergy or separation mode: the relationship between
the academic research and the knowledge transfer activities of Korean academics,
“Scientometrics” 2012, t. 90, s. 177-200.
104. Lampe H.W., Hilgers D., Trajectories of efficiency measurement: A bibliometric analysis
of DEA and SFA, “European Journal of Operational Research” 2015, t. 240, p. 2.
105. Lampe H.W., Hilgers D., Trajectories of efficiency measurement: A bibliometric analysis
of DEA and SFA, “European Journal of Operational Research” 2015, t. 240, nr 1, s. 1-21.
106. Lee K., Choi K., Cross redundancy and sensitivity in DEA models, “Journal of Productivity
Analysis” 2010, t. 34, nr 2, s. 151-165.
107. Leitner K.H., Schaffhauser-Linzatti M., Stowasser R., Wagner K., Data envelopment
analysis as method for evaluating intellectual capital, ”Journal of Intellectual Capital”
2005, t. 6, nr 4, s. 528-543.
108. Liu J.S., Lu L.Y.Y., Lu W.-M., Lin B.J.Y., A survey of DEA applications, “Omega”
2013, t. 41, s. 893-902.
109. Liu J.S., Lu L.Y.Y., Lu W.-M., Lin B.J.Y., Data envelopment analysis 1978-2010:
A citation-based literature survey, “Omega” 2013, t. 41, s. 3-15.
110. Long R., Crawford A., White M., Davis K., Determinants of faculty research
productivity in information systems: an empirical analysis of the impact of academic
origin and academic affiliation, “Scientometrics” 2009, t. 78, nr 2, s. 231-360.
111. Lu W.-M., Intellectual capital and university performance in Taiwan, “Economic
Modelling” 2012, t. 29, s. 1081-1089.
112. Mader M. i in., Monitoring networking between higher education institutions
and regional actors, “Journal of Cleaner Production” 2013, t. 49, s. 105-113.
113. Manjarrés-Henrìquez L., Gutiérrez-Gracia A., Carrión-Garcìa A., Vega-Jurado J., The Effects
of university–industry relationships and academic research on scientific performance:
synergy or substitution?, ”Research in Higher Education” 2009, t. 50, s. 795-811.
114. Manjón J.V.G., Merino E.R., Innovation systems and policy design: the European
experience, “Innovation: Management, Policy & Practise” 2012, t. 14 (1), s. 33-42.
115. Markusova V.A., Tsygankova A.I., Krylova T.A., The indices of scientific productivity
and ratings of domestic universities, “Scientific and Technical Information Processing”
2009, t. 36, nr 4, s. 229-233.
116. Martin B.R., The evolution of science policy and innovation studies, “Research Policy”
2012, t. 41, s. 1219-1239.
117. Meeusen W., van den Broeck J., Efficiency estimation from Cobb-Douglas production
functions with composed error, ”International Economic Review” 1977, t. 18, nr 2,
s. 435-444.
118. Meng W., Zhang D., Qi L., Liu W., Two-level DEA approaches in research evaluation,
“Omega” 2008, t. 36, s. 950-957.
119. Mohanty R.S., Productivity growth: some imperatives, ”Work Study” 1995, t. 44, nr 1,
s. 16-17.
120. Morlacchi P., Martin B.R., Emerging challenges for science, technology and innovation
policy research: a reflexive overview, “Research Policy” 2009, t. 38, s. 571-582.
121. Mostafaee A., Soleimani-damaneh M., Identifying the anchor points in DEA using
sensitivity analysis in linear programming, “European Journal of Operational Research”
2014, t. 237, s. 383-388.
325
122. Munnell A.H., Why has productivity growth declines? Productivity and public
investment, “New England Economic Review” 1990, January/February, s. 1-22.
123. Muscio A., Quaglione D., Vallanti G., Does government funding complement or substitute
private research funding to universities?, “Research Policy” 2013, t. 42, s. 63-75.
124. Nazarko J., Chrabołowska J., Benchmarking w ocenie efektywności krajowych spółek
dystrybucyjnych energii elektrycznej, Prace Naukowe Akademii Ekonomicznej
we Wrocławiu, „Taksonomia” 2005, nr 12, s. 38-47.
125. Nazarko J., Ńaparauskas J., Application of DEA method in efficiency evaluation of public
higher education institutions, “Technological and Economic Development of Economy”
2014, t. 20, nr 1, s. 1-20.
126. Nazarko J., Urban J., Sensitivity to measurements errors of DEA models, Annales
Universitatis Mariae Curie-Skłodowska. Sectio AI. Informatica, Lublin 2007, s. 101-106.
127. Park B.U., Simar L., Weiner C., The FDH estimator for productivity efficiency score,
“Econometric Theory” 2000, t. 16, s. 855-877.
128. Pawłowska M. , Konkurencja i efektywność na polskim rynku bankowym na tle zmian
strukturalnych i technologicznych, „Materiały i Studia” 2005, nr 192, s. 2.
129. Piech K., Wiedza i innowacje w rozwoju gospodarczym: w kierunku obmiaru
i współczesnej roli państwa, Instytut Wiedzy i Innowacji, Warszawa 2009.
130. Pigłowski M., Prawny i moralny aspekt publikowania, „Nauka” 2011, nr 3, s. 145-156.
131. Print M., Hattie J., Measuring quality in universities: An approach to weighting
research productivity, „Higher Education” 1997, t. 33, s. 453-469.
132. Racki G., W mozole po kategorie, „Forum Akademickie” 2012, nr 1, s. 34-35.
133. Rao S., Tang J., W. Wang, The importance skills for innovation and productivity,
“International Productivity Monitor” 2002, nr 4, s. 15-28.
134. Ratajczak M., Nie wszyscy razem i nie wszyscy tak samo, „Forum Akademickie” 2012,
nr 7-8, s. 26-29.
135. Rebora G., Turri M., The UK and Italian research assessment exercises face to face,
“Research Policy” 2013, t. 42, s. 1657-1666.
136. Rhoades G., Managing productivity in an academic institution: rethinking the whom,
which, what, and whose of productivity, “Research in Higher Education” 2001, t. 42, nr 5,
s. 619-632.
137. Rubio J.E., Tshipamba N., Elements of the public policy of science, technology and
innovation, “Canadian Social Sciences” 2010, t. 6, nr 6, s. 61-80.
138. Sawicki A., Obraz polskiej nauki po rankingu MNiSW, „Forum Akademickie” 2010,
nr 11, s. 40-41.
139. Seiford L.M., A bibliography for Data Envelopment Analysis (1978-1996), “Annals
of Operations Research” 1997, t. 73, s. 393-438.
140. Seiford L.M., Zhu J., Sensitivity analysis of DEA models for simultaneous changes in all
the data, “Journal of the Operational Research Society” 1998, t. 49, 1998, s. 1060-1071.
141. Seiford L.M., Zhu J., Sensitivity and stability of the classifications of returns to scale
in Data Envelopment Analysis, “Journal of Productivity Analysis” 1999, t. 12, s. 55-75.
142. Seiford L.M., Zhu J., Stability regions for maintaining efficiency in data envelopment
analysis, “European Journal of Operational Research” 1998, t. 108 (1), s. 127-139.
326
143. Shang S.S.C., Lin S., Wu Y., Service innovation through dynamic knowledge
management, ”Industrial Management & Data Systems” 2009, t. 109, nr 3, s. 322-337.
144. Sharpe A., Productivity concept, trends and prospects: an overview, “The Review
of Economic Performance and Social Progress” 2002, t. 2, s. 31-56.
145. Silver E.A., Some ideas on enhancing research productivity, “International Journal
of Production Economics” 2009, t. 118, s. 352-360.
146. Singh H., Motwani J., Kulmar A., A review and analysis of the state-of-the-art research
on productivity measurement, “Industrial Management & Data Systems” 2000, t. 100,
nr 5, s. 234-241.
147. Singh S., Multiparametric sensitivity analysis of the additive model in data envelopment
analysis, “International Transactions in Operational Research” 2010, t. 17, s. 365-380.
148. Sohn S.Y., Kim Y., DEA based multi-period evaluation system for research
in academia, ”Expert Systems with Applications” 2012, t. 39, s. 8274-8278.
149. Stainer A., Productivity management: the Japanese experience, “Management Decision”
1995, t. 33, nr 8, s. 4-12.
150. Stefaniak B., International cooperation of Polish researchers with partners from
abroad: a scientometric study, “Scientometrics” 1998, t. 41, nr 1-2, s. 156.
151. Stępień K., Rzeczywiste wyniki naukowe, „Forum Akademickie” 2011, nr 2.
152. Stewart T.J., Relationships between Data Envelopment Analysis and Multicriteria Decision
Analysis, “Journal of the Operational Research Society” 1996, t. 47, nr 5, s. 654-665.
153. Świtłyk M., Mongiało Z., Zastosowanie metody DEA do pomiaru efektywności
na uczelniach publicznych w latach 2004-2008, Zeszyty Naukowe Uniwersytetu
Ekonomicznego w Poznaniu 2011, nr 171, s. 375-384.
154. Szymańska E., Efektywność przedsiębiorstw – definiowanie i pomiar, „Roczniki Nauk
Rolniczych” 2010, seria G, t. 97, z. 2, s. 152-164.
155. Tangen S., Demystifying productivity and performance, “International Journal of Productivity
and Performance Management” 2005, t. 54, nr 1, s. 34-46.
156. Taylor B., Harris G., Relative efficiency among South African universities: A data
envelopment analysis, “Higher Education” 2004, t. 47, s. 73-89.
157. Thompson A.N., Estabrooks C.A., Degner L.F., Clarifying the concepts in knowledge
transfer: a literature review, “Journal of Advanced Nursing” 2006, t. 53, nr 6, s. 691-701.
158. Thompson R.G., Singleton Jr F.D., Thrall R.M., Smith B.A., Comparative site evaluations
for locating a high-energy physics lab in Texas, “Interfaces” 1986, t. 16 (6), s. 35-49.
159. Torrisi B., Academic productivity correlated with well-being at work, “Scientometrics”
2013, t. 94, s. 801-815.
160. Toutkoushian R.K., Porter S.R., Danielson C., Hollis S.R., Using publications counts
to measure an institution‟s research productivity, “Research in Higher Education”
2003, t. 44, nr 2, s. 121-148.
161. Tyagi P., Yadav S.P., Singh S.P., Relative performance of academic departments using
DEA with sensitivity analysis, “Evaluation and Program Planning” 2009, t. 32, s. 168-177.
162. Wang E.C., Huang W., Relative efficiency of R&D activities: A cross-country study
accounting for environmental factors in the DEA approach, “Research Policy” 2007,
t. 36, s. 260-273.
327
163. Wilkin J., Finansowanie nauki i szkolnictwa wyższego w Polsce. Wybrane problemy
i postulowane kierunki reform, „Studia BAS” 2013, nr 3 (35), s. 51-70.
164. Wojick D.W., Warnick W.L., Carroll B.C., Crowe J., The digital road to scientific
knowledge diffusion, “D-Lib Magazine” 2006, t. 12, nr 6.
165. Wołodkiewicz‑Donimirski Z., Innowacyjność polskiej gospodarki na tle międzynarodowym,
„Studia BAS” 2011, nr 1 (25), s. 9-33.
166. X. Wang, D. Liu, K. Ding, X. Wang, Science funding and research output: a study on
10 countries, “Scientometrics” 2012, t. 91, s. 591-599.
167. Zhang D., Banker R.D., Li X., Liu W., Performance impact of research policy at the
Chinese Academy of Science, “Research Policy” 2011, t. 40, s. 875-885.
168. Zhu J., Robustness of the efficient DMUs in data envelopment analysis, “European
Journal of Operational Research” 1996, t. 90, s. 451-460.
169. Zhu J., Super-efficiency and DEA sensitivity analysis, „European Journal of Operational
Research” 2001, t. 129, s. 443-455.
170. Żylicz M., Ocena parametryczna dzisiaj i jutro, „Forum Akademickie”, nr 6, 2006, s. 22-24.
Akty prawne
1. Komunikat nr 1 z dnia 27 lutego 2009 r. o przyznanych zwiększeniach dotacji ze
środków finansowych na naukę na finansowanie podstawowej działalności statutowej,
Dz.U. MNiSW, nr 1/2009, poz. 10.
2. Komunikat nr 12 z dnia 29 kwietnia 2010 r. o przyznanych dotacjach ze środków
finansowych na naukę na podstawową działalność statutową, Dz.U. MNiSW, nr 3/2010,
poz. 63.
3. Komunikat nr 14 z dnia 3 lipca 2009 r. o przyznanych dotacjach ze środków finansowych
na naukę na podstawową działalność statutową, Dz.U. MNiSW, nr 3/2009, poz. 56.
4. Komunikat nr 2 Ministra Nauki i Szkolnictwa Wyższego z dnia 6 lutego 2007 r.
o przyznanych dotacjach ze środków finansowych na naukę na podstawową działalność
statutową, Dz.U. MNiSW, nr 1/2007, poz. 9.
5. Komunikat nr 4 z dnia 16 stycznia 2008 r. o przyznanych dotacjach ze środków
finansowych na naukę na podstawową działalność statutową, Dz.U. MNiSW, nr 1/2008,
poz. 15.
6. Komunikat nr 4 z dnia 29 stycznia 2010 r. o przyznanych zwiększeniach dotacji
ze środków finansowych na naukę na finansowanie podstawowej działalności
statutowej, Dz.U. MNiSW, nr 2/2010, poz. 35.
7. Komunikat nr 7 z dnia 8 kwietnia 2011 r. o przyznanych zwiększeniach dotacji
ze środków finansowych na naukę na finansowanie podstawowej działalności
statutowej, Dz.U. MNiSW, nr 2/2011, poz. 55.
8. Komunikat nr 8 Ministra Nauki i Szkolnictwa Wyższego z dnia 28 marca 2007 r.
o przyznanych dotacjach ze środków finansowych na naukę na podstawową działalność
statutową, Dz.U. MNiSW, nr 2/2007, poz.24.
9. Komunikat nr 8 z dnia 26 lutego 2008 r. o przyznanych dotacjach ze środków finansowych
na naukę na podstawową działalność statutową, Dz.U. MNiSW, nr 1/2008, poz. 19.
10. Obwieszczenie Ministra Nauki i Szkolnictwa Wyższego z dnia 5 czerwca 2013 r.
w sprawie ogłoszenia jednolitego tekstu rozporządzenia Ministra Nauki i Szkolnictwa
Wyższego w sprawie kryteriów i trybu przyznawania oraz rozliczania środków
328
finansowych na naukę na finansowanie działalności statutowej, Dz. U. Warszawa,
20 stycznia 2014 r., poz. 90.
11. Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 13 lipca 2012 roku
w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na działalność statutową, Dz. U. 01.08.2012, poz. 877.
12. Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 5 listopada 2010 r.
w sprawie kryteriów i trybu przyznawania oraz rozliczania środków finansowych
na naukę na finansowanie działalności statutowej, Dz. U. 2010 nr 218, poz. 1438.
13. Rozporządzenie Ministra Nauki i Szkolnictwa Wyższego z dnia 8 sierpnia 2011 r.
w sprawie obszarów wiedzy, dziedzin nauki i sztuki oraz dyscyplin naukowych
i artystycznych , Dz. U. nr 179, poz. 1065.
14. Rozporządzenie Prezesa Rady Ministrów z dnia 16 listopada 2007 r. w sprawie
szczegółowego zakresu działania Ministra Nauki i Szkolnictwa Wyższego, Dz. U.
nr 216, poz. 1596.
15. Rozporządzenie Rady Ministrów z dnia 5 maja 2006 r. w sprawie utworzenia
Ministerstwa Nauki i Szkolnictwa Wyższego Dz.U. 2006 nr 76 poz. 533.
16. Uchwała nr 1/2003 Komitetu Badań Naukowych z dnia 10 stycznia 2003 r. w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 r., Dz.U. MN i KBN, nr 1/2003, poz. 1.
17. Ustawa z dnia 30 kwietnia 2010 r. o instytutach badawczych Dz. U. z 2010 r. nr 96,
poz. 618.
18. Ustawa z dnia 30 kwietnia 2010 r. Przepisy wprowadzające ustawy reformujące system
nauki, Dz. U. z 2010 r. nr 96, poz. 620.
19. Ustawa z dnia 30 kwietnia 2010 r. o instytutach badawczych, Dz. U. 2010, nr 96, poz. 618.
20. Ustawa z dnia 30 kwietnia 2010 r. o zasadach finansowania nauki, Dz. U. z 2010 r. nr 96
poz. 615.
21. Ustawa z dnia 30 maja 2008 r. o niektórych formach wspierania działalności
innowacyjnej, Dz. U. z 2008 r. nr 116 poz. 730.
22. Zarządzenie nr 1/2004 z dnia 15 stycznia 2004 r. w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie działalności statutowej jednostek
naukowych w 2004 r., Dz.U. MN i KBN, nr 1/2004, poz. 1.
23. Zarządzenie nr 13/2003 z dnia 8 kwietnia 2003 r. w sprawie przyznania środków
finansowych na finansowanie lub dofinansowanie działalności statutowej jednostek
naukowych w 2003 r., Dz.U. MN i KBN, nr 6/2003, poz. 18.
24. Zarządzenie nr 17/2005 z dnia 16 grudnia 2005 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2005 r., Dz.U. MNiI, nr 2/2005, poz. 17.
25. Zarządzenie nr 18/2004 z dnia 18 marca 2004 r. w sprawie przyznania środków
finansowych na finansowanie lub dofinansowywanie działalności statutowej jednostek
naukowych w 2004 r., Dz.U. MN i KBN, nr 4/2004, poz. 22.
26. Zarządzenie nr 22/2003 z dnia 25 maja 2003 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 r., Dz.U. MN i KBN, nr 8/2003, poz. 30.
329
27. Zarządzenie nr 25/2003 z dnia 26 czerwca 2003 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 r., Dz.U. MN i KBN, nr 10/2003, poz. 34.
28. Zarządzenie nr 3/2005 z dnia 20 stycznia 2005 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2005 r., Dz.U. MNiI, nr 1/2005, poz. 3.
29. Zarządzenie nr 32/2004 z dnia 27 maja 2004 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2004 r., Dz.U. MNiI i KBN, nr 7/2004, poz. 41.
30. Zarządzenie nr 47/2003 z dnia 5 grudnia 2003 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 r., Dz.U. MN i KBN, nr 15/2003, poz. 65.
31. Zarządzenie nr 49/2003 z dnia 17 grudnia 2003 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2003 r., Dz.U. MN i KBN, nr 16/2003, poz. 68.
32. Zarządzenie nr 54/2004 z dnia 21 października 2004 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2004 r., Dz.U. MNiI i KBN, nr 12/2004, poz. 79.
33. Zarządzenie nr 69/2004 z dnia 16 grudnia 2004 r. zmieniająca uchwałę w sprawie
przyznania środków finansowych na finansowanie lub dofinansowanie działalności
statutowej jednostek naukowych w 2004 r., Dz.U. MNiI i KBN, nr 14/2004, poz. 99.
Raporty, dokumenty unijne, rządowe, samorządu terytorialnego i inne
1. ab Iorwerth A., Methods of Evaluating University Research Around the World,
Departament of Finance, Canada, Working Paper 2005-04, s. 46.
2. AERES, Criteria for the evaluation of research institutions: The AERES standards,
2013, s. 10-16, www.aeres-evaluation.com.
3. Agency for Science and Higher Education, Principles and criteria for the evaluation
of scientific organisations in the Republic of Croatia, 2013, FILE NO. 355-02-05-13-7,
s. 3-19, www.azvo.hr.
4. Agency for Science and Higher Education, Principles and criteria for the evaluation
of scientific organisations in the Republic of Croatia, 2013, FILE NO. 355-02-05-13-7,
p. 19, www.azvo.hr.
5. Arnold E. , Knee P. , Latvia: Research Assessment Exercise, Technopolis, Riga 2013,
s. 4, 18-24, izm.izm.gov.lv.
6. Arnold E., Barker K., Slipersæter A., Research institutes in the ERA, Technolopolis,
Brighton 2010, http://ec.europa.eu/research/era/docs/en/research-institutes-in-the-era.pdf.
7. Australian Research Council, ERA 2012 Evaluation Handbook, Commonwealth
of Australia 2012, www.arc.gov.au.
8. Australian Research Council, ERA 2012 National Report – institution list,
http://www.arc.gov.au/era/Outcomes_2012/InstitutionIndex.
9. Centre for the Study of Living Standards, Productivity: key to economic success, report,
The Atlantic Canada Opportunities Agency, Ottawa, Ontario1998, s. 1-45.
330
10. Crespi G., Geuna A., The productivity of science, University of Sussex, 2004,
www.kurul.inet-tr.org.tr/inovasyon/crespiost2.pdf.
11. Critérios de Atribuiçăo de Financiamento 2015-2020,
http://www.fct.pt/apoios/unidades/avaliacoes/2013.
12. Departament Strategii i Rozwoju Nauki Ministerstwa Nauki i Szkolnictwa Wyższego,
Strategia rozwoju nauki w Polsce do 2015 roku, Warszawa 2007.
13. European Commision, Europe 2020 – A strategy for smart, sustainable and inclusive
growth, COM(2010) 2020 final, Brussels 2010
14. European Commission, Europe 2020 flagship initiative innovation union, communication
nr 546, Brussels 2010, http://ec.europa.eu/commission_2010-2014/geoghegan-
quinn/headlines/documents/com-2010-546-final_en.pdf.
15. Farrell J., The measurement of productive efficiency, “Journal of the Royal Statistical
Society” 1957, Series A, Part III, t. 120, nr 3, s. 253-290,
http://www.lib.ctgu.edu.cn:8080/wxcd/qw/285.pdf.
16. Finnish Ministry of Eduation and Culture, Proposal for a reform of the university financing
model from 2013, http://www.minedu.fi/OPM/Julkaisut/2011/yliopistot.html?lang=en.
17. Franceschet M., Costantini A., The first Italian research assessment exercise:
a bibliometric perspective, 2009, http://arxiv.org/abs/0912.2601.
18. Fundacja na rzecz Nauki i Technologii (FCT), Ministerstwo Edukacji i Nauki, FCT
Evaluation of R&D Units 2013. Evaluation guide,
http://www.fct.pt/apoios/unidades/avaliacoes/2013.
19. Gates S., Stone A., Understanding productivity in higher education, Prepared for
California Education Roundtable, 1997.
20. Georghiou L., Cox D., Keenan M.P., Flanagan K., Barker K.E., A comparative analysis
of public, semi-public and recently privatised research centres, project report, European
Commission Publication, Brussels 2002.
21. GUS, Działalność badawcza i rozwojowa w Polsce w 2012 roku, stat.gov.pl/obszary-
tematyczne/nauka-i-technika-spoleczenstwo-informacyjne/nauka-i-
technika/dzialalnosc-badawcza-i-rozwojowa-w-polsce-w-2012-r-,8,2.html
22. Kaci M., Understanding productivity: a primer, „Canadian Productivity Review” 2006,
catalogue no. 15-206-XIE, nr 002.
23. Kempkes G., Pohl C., The efficiency of German universities – some evidence from non-
parametric and parametric methods, Institute for Economic Research at the University
of Munich, IFO Working Paper 2006, nr 36.
24. KNAW, VSNU, NWO, Standard Evaluation Protocol 2009-2015. Protocol for research
assessment in the Netherlands, The Netherlands 2010, p. 11, www.knaw.nl/sep.
25. Komisja Europejska, Europa 2020. Strategia na rzecz inteligentnego i zrównoważonego
rozwoju sprzyjającego włączeniu społecznemu, KOM nr 2020, Bruksela 2010,
ec.europa.eu/eu2020/pdf/1_PL_ACT_part1_v1.pdf.
26. Komisja Europejska, Ocena strategii lizbońskiej, SEK nr 114, Bruksela 2010, s. 3,
ec.europa.eu/europe2020/pdf/lisbon_strategy_evaluation_pl.pdf.
27. Kozłowski J., Ewaluacja instytucji naukowych w Polsce w świetle porównań
międzynarodowych i konsultacji, Departament Strategii Ministerstwa Nauki i Szkolnictwa
Wyższego, Warszawa 2010, s. 8.
331
28. Krajowy Program Badań, Warszawa 2011, http://www.bip.nauka.gov.pl/krajowy-
program-badan.
29. Kuah C.T., Wong K.Y., Behrouzi F., A Review on Data Envelopment Analysis (DEA),
[w:] 2010 Fourth Asia International Conference on Mathematical/Analytical Modelling
and Computer Simulation AMS2010, D. Al-Dabass, J. Yunus, Z. Ibrahim, R. Sarbatly,
A. Abraham (red.), IEEE 2010, s. 168-173.
30. Lane J., Science of Science & Innovation Policy(SciSIP),
www.oecd.org/science/inno/40858284.pdf.
31. Latvijas Republikas Izglitibas un zinãtnes ministrija, Zinātnisko institūciju zinātniskās
darbības kvalitātes vērtēšanas metodika, izm.izm.gov.lv.
32. Martìn E., An application of the Data Envelopment Analysis methodology
in the performance assessment of the Zaragoza University Departments,
http://ideas.repec.org/p/zar/wpaper/dt2003-06.html.
33. Ministerstwo Gospodarki, Strategia innowacyjności i efektywności gospodarki
„Dynamiczna Polska 2020” (SIEG), Warszawa 2013.
34. Ministerstwo Infrastruktury i Rozwoju, Program Operacyjny Inteligentny Rozwój 2014
-2020 (POIR), Warszawa 2014.
35. Ministry of Higher Education and Research, Higher education and research reform
in Lithuania: resetting the system towards competitive future, Vilnius 2011,
planipolis.iiep.unesco.org.
36. Najwyższa Izba Kontroli, Wykorzystanie środków publicznych na naukę,
nr 162/2012/P/11/070/KNO, Warszawa 2012, s. 23-28.
37. National Agency for the Evaluation of Universities and Research Institutes (ANVUR),
Evaluation of Research Quality (VQR), Evaluation of research quality 2004-2010,
2011, s. 2, www.researchitaly.it/en/understanding/overview/assessment.
38. Nauka w Polsce 2013 roku, Ministerstwo Nauki i Szkolnictwa Wyższego, Warszawa 2013.
39. Oyeranti G.A., Concept and measuring of productivity, Central Bank of Nigeria, Abuja
2000, http://www.cenbank.org/out/Publications/occasionalpapers/rd/2000/Abe-00-1.PDF.
40. Private sector interaction in the decision making processes of public research policies:
Denmark, http://ec.europa.eu/invest-in-
research/pdf/download_en/psi_countryprofile_denmark.pdf.
41. REF2014: Assessment framework and guidance on submissions, Northhavon House,
Bristol 2011, s. 6-8 http://www.ref.ac.uk/pubs.
42. REF2014: Panel criteria and working methods, Northhavon House, Bristol 2012,
http://www.ref.ac.uk/pubs.
43. Russell J.M., Rousseau R., Bibliometrics and institutional evaluation,
http://www.vub.ac.be /BIBLIO/itp/
lecturers/ronald_rousseau/ronald_roussea_stim1_bibliometrics_russell.pdf.
44. Sarafidis V., An assessment of comperative efficiency measurment techniques, Europe
Economics, 2002, s. 9, http://europe-
economics.com/publications/efficiency_measurement.pdf.
45. Tangen S., Understanding the concept of productivity, Proceedings of the 7th Asia Pacific
Industrial Engineering and Management Systems Conference (APIEMS2002), Taipei 2002.
332
46. Tavares G., A Bibliography of Data Envelopment Analysis (1978-2001), Rutcor Research
Report, Rutgers University, Piscataway 2002,
http://rutcor.rutgers.edu/pub/rrr/reports2002/1_2002.pdf.
47. Tzeremes N.G., Halkos G.E., A DEA approach for measuring university departments'
efficiency, MPRA Paper 2010, nr 24029, http://mpra.ub.uni-muenchen.de/24029.
48. Urban J., Klasyfikacja polskich jednostek naukowych w ocenie parametrycznej MNiSW,
XIX Konferencja Naukowa Sekcji Klasyfikacji i Analizy Danych Polskiego Towarzystwa
Statystycznego oraz XXIV Konferencja Taksonomiczna "Klasyfikacja i analiza danych –
teoria i zastosowania”. Streszczenia referatów, Toruń, 15-17 września 2010 r.
49. van Drooge L. , de Jong S., Faber M., Westerheijden D., Twenty years of research
evaluation, „Facts&Figures”, Rathenau Instituut, The Hague 2013, www.rathenau.nl.
50. Wissenschaftsrat WR, Aufgaben, Kriterien und Verfahren des Evaluationsausschusses
des Wissenschaftsrates, Mainz 2013, www.wissenschaftsrat.de.
Strony internetowe
1. Academy of Finland, www.aka.fi.
2. Erawatch, erawatch.jrc.ec.europa.eu.
3. Eurostat, ec.europa.eu/eurostat.
4. Fundação para a Ciência e a Tecnologia (FCT), www.fct.pt.
5. Główny Urząd Statystyczny, stat.gov.pl.
6. Komitet Badań Naukowych, http://kbn.icm.edu.pl.
7. Ministerstwo Finansów, www.finanse.mf.gov.pl.
8. Ministerstwo Nauki i Szkolnictwa Wyższego www.mnisw.gov.pl.
9. Ministry of Higher Education and Science, Denmark, fivu.dk.
10. OECD, www.oecd.org.
11. Słownik języka polskiego, Państwowe Wydawnictwo Naukowe, sjs.pwn.pl.
12. The Finnish Higher Education Evaluation Council (FINHEEC), www.finheec.fi.
333
SPIS RYSUNKÓW
Rysunek 1.1. Liczba publicznych jednostek naukowych zarejestrowanych
w bazie Eurolabs ............................................................................................................... 13
Rysunek 1.2. Koncepcja trójkąta wiedzy ............................................................................................. 16
Rysunek 1.3. Model potrójnej helisy (ang. triple helix) ................................................................... 18
Rysunek 1.4. Cykl polityki naukowej ................................................................................................... 25
Rysunek 1.5. Elementy polityki naukowej .......................................................................................... 31
Rysunek 1.6. Jednostka naukowa jako system organizacyjny ....................................................... 36
Rysunek 2.1. Koncepcja techniczna produktywności ....................................................................... 43
Rysunek 2.2. Koncepcja produktywności jako syntezy efektywności i racjonalności ........... 45
Rysunek 2.3. Koncepcja produktywności w odniesieniu do pojęć pokrewnych ...................... 47
Rysunek 2.4. Typologia systemów finansowania jednostek naukowych ................................... 54
Rysunek 2.5. Model produkcji naukowej ............................................................................................. 56
Rysunek 2.6. Klasyfikacja metod pomiaru produktywności .......................................................... 58
Rysunek 2.7. Graficzna prezentacja metody SFA ............................................................................. 62
Rysunek 2.8. Ilustracja graficzna metody COLS ............................................................................... 63
Rysunek 2.9. Ilustracja graficzna metody DEA oraz FDH ............................................................. 65
Rysunek 3.1. Krajowe wydatki na badania i rozwój (GERD) w podziale na sektory ............. 73
Rysunek 3.2. Struktura krajowych nakładów na badania i rozwój (GERD) według źródeł
finansowania ....................................................................................................................... 74
Rysunek 3.3. Źródła finansów jednostek naukowych ....................................................................... 76
Rysunek 3.4. Model systemu nauki w Europie ................................................................................... 80
Rysunek 3.5. Systematyczne inicjatywy oceny lub ewaluacji instytucjonalnej jednostek
naukowych w Europie ...................................................................................................... 84
Rysunek 3.6. Zestawienie podejścia parametrycznego i ewaluacji w systemach
instytucjonalnej oceny jednostek naukowych ........................................................... 85
Rysunek 3.7. Metodyka oceny w systemie Research Excellence Framework (REF) ............. 90
Rysunek 4.1. Nakłady na działalność B+R w odniesieniu do PKB
w Polsce w poszczególnych latach .......................................................................... 113
Rysunek 4.2. Nakłady na działalność B+R według źródeł finansowania ................................ 113
Rysunek 4.3. Struktura nakładów na działalność B+R według rodzajów badań ..................... 114
Rysunek 4.4. Zestawienie nakładów publicznych na finansowanie nauki
oraz dotację statutową ..................................................................................................... 115
334
Rysunek 4.5. Struktura wydatków w 2014 roku ............................................................................. 116
Rysunek 4.6. Struktura systemu nauki w Polsce ............................................................................. 117
Rysunek 4.7. Liczba jednostek naukowych w Polsce w podziale
na typ jednostki naukowej i województwo ............................................................. 119
Rysunek 4.8. Liczba i struktura zatrudnionych w działalności badawczej i rozwojowej
według poziomu wykształcenia ................................................................................. 120
Rysunek 4.9. Struktura zatrudnienia z tytułem lub stopniem naukowym profesora, doktora
habilitowanego oraz doktora w jednostkach naukowych według obszarów
wiedzy ............................................................................................................................... 121
Rysunek 4.10. Proces oceny parametrycznej w Polsce ................................................................... 124
Rysunek 4.11. Przykład wyniku zastosowania metody prezentacji struktury danych
wielowymiarowych M. Rybaczuka ........................................................................... 139
Rysunek 4.12. Zróżnicowanie jednostek naukowych w grupach jednorodnych G1 i N8 ..... 140
Rysunek 4.13. Porównanie dwóch grup jednorodnych G8 i N8 ................................................... 140
Rysunek 4.14. Klasyfikacja jednostek naukowych do kategorii w grupie N1 .......................... 141
Rysunek 4.15. Rozkład wartości cech, różnice tych cech wartości dwóch kolejnych
jednostek naukowych oraz ich kategorie naukowe
w ocenie parametrycznej 2010 ................................................................................... 141
Rysunek 4.16. Rozkład wartości cech, różnice tych cech wartości dwóch kolejnych
jednostek naukowych oraz ich kategorie naukowe
w ocenie parametrycznej 2013 ................................................................................... 142
Rysunek 5.1. Graficzna ilustracja koncepcji metody DEA .......................................................... 147
Rysunek 5.2. Etapy pomiaru produktywności metodą DEA ....................................................... 149
Rysunek 5.3. Liczba publikacji w tematyce metody DEA w latach 1978-2014 .................... 154
Rysunek 5.4. Zjawisko luzów w modelach DEA ............................................................................ 161
Rysunek 5.5. Obszary efektów skali ................................................................................................... 164
Rysunek 5.6. Radialna i nieradialna miara odległości od granicy produktywności .............. 167
Rysunek 6.1. Struktura jednostek naukowych badanych przez autorkę ................................... 187
Rysunek 6.2. Graficzna prezentacja struktury jednostek naukowych w dwuwymiarowej
przestrzeni kryteriów oceny ........................................................................................ 189
Rysunek 6.3. Wykres pudełkowy liczby zatrudnionych w jednostkach naukowych
w działalności B+R ........................................................................................................ 195
Rysunek 6.4. Średni poziom zatrudnienia i średni poziom dotacji statutowej
w poszczególnych grupach jednostek naukowych ............................................... 196
335
Rysunek 6.5. Średni poziom dotacji statutowej na 1 pracownika
w poszczególnych grupach jednostek naukowych ................................................ 197
Rysunek 6.6. Liczba jednostek naukowych i średni poziom dotacji statutowej jednostek
naukowych w latach 2005-2008 według województw ........................................ 198
Rysunek 6.7. Średni poziom uzyskiwanych wyników w poszczególnych obszarach
naukowych według rodzaju jednostki naukowej ................................................... 199
Rysunek 6.8. Średni poziom uzyskiwanych wyników w poszczególnych obszarach
naukowych według rodzaju uczelni ........................................................................... 200
Rysunek 6.9. Rzut przypadków na płaszczyznę czynników J3 i J4 ........................................... 211
Rysunek 6.10. Porównanie rankingów modeli SE-VRS-O i skorygowanego SE-VRS-O
w grupie J1 ..................................................................................................... 214
Rysunek 6.11. Porównanie rankingów modeli SE-VRS-O i skorygowanego SE-VRS-O
w grupie J1 ...................................................................................................... 226
Rysunek 7.1. Koncepcja modelu oceny produktywności jednostek naukowych ................ 233
Rysunek 7.2. Porównanie poziomu wskaźników produktywności w modelach DEA
oraz MNiSW w poszczególnych grupach jednorodnych ............................... 236
Rysunek 7.3. Średni poziom wskaźnika efektywności MNiSW według rodzaju
jednostki naukowej ........................................................................................ 241
Rysunek 7.4. Graf benchmarkingowy grupy J5 ................................................................... 243
Rysunek 7.5. Graf benchmarkingowy wybranych obiektów z grupy J5 .............................. 244
Rysunek 7.6. Proces systematycznej oceny produktywności
z zastosowaniem metody DEA ...................................................................... 247
336
SPIS TABEL
Tabela 1.1. Narzędzia wspierające kreowanie polityki naukowej ............................................ 29
Tabela 1.2. Funkcje ewaluacji instytucjonalnej w zakresie badań naukowych ..................... 34
Tabela 1.3. Fazy ewaluacji instytucjonalnej .................................................................................... 35
Tabela 2.1. Publikacje z przykładami zastosowania metod pomiaru
produktywności nauki ...................................................................................................... 67
Tabela 2.2. Porównanie założeń metod DEA i SFA ..................................................................... 70
Tabela 3.1. Klasyfikacja form publicznego finansowania działalności naukowej ............... 77
Tabela 3.2. Liczba jednostek naukowych w wybranych krajach europejskich ..................... 81
Tabela 3.3. Modele oceny instytucjonalnej jednostek naukowych w wybranych krajach
europejskich i pozaeuropejskich ................................................................................... 86
Tabela 3.4. Grupy oceny w systemie REF ....................................................................................... 88
Tabela 3.5. Klasyfikacja jednostek naukowych w systemie oceny REF ................................. 91
Tabela 3.6. Kryteria oceny zewnętrznej w systemie Standard Evaluation Protocol
2009-2015 w Holandii ..................................................................................................... 96
Tabela 3.7. Kategorie i kryteria raportu samooceny w systemie SEP 2009-2015 ................ 97
Tabela 3.8. Kryteria ewaluacji jednostek naukowych w Portugalii ....................................... 101
Tabela 3.9. Kryteria oceny instytucjonalnej we Francji ............................................................ 102
Tabela 3.10. Kryteria oceny instytucjonalnej w Niemczech ...................................................... 105
Tabela 3.11. Kryteria oceny jakości jednostek naukowych w Chorwacji .............................. 108
Tabela 3.12. Kryteria oceny w systemie Excellence in Research for Australia 2012 ......... 110
Tabela 4.1. Założenia i rozwój oceny parametrycznej w Polsce ............................................ 125
Tabela 4.2. Algorytm alokacji dotacji statutowej ........................................................................ 126
Tabela 4.3. Wartości wag w kompleksowej ocenie jakości w roku 2013 ............................ 132
Tabela 4.4. Uwagi krytyczne przedstawicieli środowiska nauki do oceny parametrycznej . 135
Tabela 4.5. Zastosowana metodyka w poszczególnych etapach oceny parametrycznej .. 143
Tabela 5.1. Wybrane modele standardowe DEA ....................................................................... 157
Tabela 5.2. Klasyfikacja modeli DEA według kryterium orientacji i efektów skali .......... 157
Tabela 5.3. Funkcje celu modelu BCC dla zagadnienia pierwotnego i dualnego
z orientacją na nakłady i efekty .................................................................................... 165
Tabela 5.4. Zastosowanie metody DEA do oceny działalności naukowej ........................... 169
Tabela 6.1. Źródła danych w sprawie przyznania środków finansowych
na finansowanie lub dofinansowanie działalności statutowej jednostek
naukowych w latach 2003-2010 ................................................................................ 184
337
Tabela 6.2. Zbiór zmiennych charakteryzujących nakłady i efekty jednostek naukowych
w badaniach autorki ........................................................................................................ 187
Tabela 6.3. Zastosowane miary statystyki opisowej w zakresie analizy strukturalnej ..... 190
Tabela 6.4. Statystyki opisowe całego zbioru danych ............................................................... 191
Tabela 6.5. Udział dominanty w relacji do zbioru jednostek naukowych
według typu jednostek .................................................................................................. 192
Tabela 6.6. Orientacja działalności jednostek naukowych ....................................................... 199
Tabela 6.7. Zestaw zmiennych po analizie statystyki opisowej .............................................. 202
Tabela 6.8. Współczynniki korelacji cech wraz z poziomem ich istotności ....................... 204
Tabela 6.9. Wyniki metody Hellwiga dla efektów ..................................................................... 206
Tabela 6.10. Korelacje między efektami a nakładami .................................................................. 207
Tabela 6.11. Wybrane zmienne analizowanych jednostek naukowych .................................. 208
Tabela 6.12. Liczebność grup jednorodnych .................................................................................. 211
Tabela 6.13. Jednostki naukowe według grup jednorodnych ..................................................... 212
Tabela 6.14. Struktura grup jednorodnych ...................................................................................... 213
Tabela 6.15. Zmienne w modelu oceny produktywności jednostek naukowych ................ 221
Tabela 6.16. Zmienne środowiskowe poddane analizie regresji ............................................... 222
Tabela 6.17. Wyniki analizy regresji wielorakiej .......................................................................... 224
Tabela 6.18. Wyniki analizy regresji krokowej wstecznej .......................................................... 225
Tabela 6.19. Wybrane statystyki opisowe opracowanych rankingów ..................................... 226
Tabela 6.20. Podstawowe statystyki zmiennych w grupie J1 .................................................... 229
Tabela 6.21. Zestawienie wartości średniej i odchylenia standardowego poszczególnych
zmiennych dla różnych poziomów zakłóceń danych w grupie J1 ................... 230
Tabela 6.22. Stabilność rankingów DEA na perturbacje danych .............................................. 231
Tabela 6.23. Stabilność rankingów DEA w zakresie jednostek produktywnych
i nieproduktywnych ....................................................................................................... 231
Tabela 7.1. Zestawienie wyników oceny jednostek naukowych ............................................ 234
Tabela 7.2. Korelacje rang rankingów w grupach jednorodnych .......................................... 240
Tabela 7.3. Średnie wskaźniki produktywności DEA i efektywności MNiSW
według rodzaju jednostek naukowych ..................................................................... 240
Tabela 7.4. Technologia docelowa jednostek nieproduktywnych oparta
na technologii optymalnej wybranych jednostek z grupy J5 ............................. 242
Tabela 7.5. Konkurenci technologiczni jednostek nieproduktywnych z grupy J5 ............ 245