22015
ACTA INFORMATICAPRAGENSIA
S c i e n t i fi c J o u r n a l | V ě d e c k ý č a s o p i s
University of Economics, PragueVysoká škola ekonomická v Praze
Faculty of Informatics and StatisticsFakulta informatiky a statistiky
Stanislava Mildeová (Editor-in-Chief)
University of Economics, Prague
Klára Antlová
Technical University of Liberec
Martin Boháček
University of Economics, Prague
Tomáš Bruckner
University of Economics, Prague
Vesna Čančer
University of Maribor
Rasa Daugėlienė
Kaunas University of Technology
Jiří Fišer
J. E. Purkyne University, Usti nad Labem
Milan Houška
Czech University of Life Sciences, Prague
Miloslav Hub
University of Pardubice
Petr Kučera
Independent consultant, Prague
Petr Máša
Partners Financial Services, Prague
Jan Ministr
VSB-Technical University of Ostrava
Editorial Board / Redakční rada
Eve Mitleton-Kelly
University of London
Ingeborg Němcová
University of Economics, Prague
Jan Rauch
University of Economics, Prague
Václav Řezníček
Independent consultant, Prague
Markus Schwaninger
University of St. Gallen
Antonín Slabý
University of Hradec Kralove
Zdeněk Smutný
University of Economics, Prague
Olga Štěpánková
Czech Technical University, Prague
Prokop Toman
Czech University of Life Sciences, Prague
Milan Turčáni
Constantine the Philosopher University, Nitra
Viktor Vojtko
University of South Bohemia, Ceske Budejovice
Jan Voráček
College of Polytechnics, Jihlava
Petr Kučera
CERGE-EI, Charles University
Contact address / Kontakt:
Acta Informatica Pragensia
University of Economics, Prague
nám. W. Churchilla 4, 130 67 Praha 3, Czech Republic
web: aip.vse.cz
Technical editors / Editoři:
Zdeněk Smutný & Václav Řezníček
University of Economics, Prague
e-mail: [email protected]
tel.: +420 224 095 473
ACTA INFORMATICA PRAGENSIA
ISSN 1805-4951 (Online)
Acta Informatica Pragensia is focused on the field of applied informatics, including its
inter- and transdisciplinary character with an emphasis on management and administration in the field
of socio-economic environment. The journal is published biannually by the University of Economics,
Prague and is included in the government list of peer-reviewed journals published
in the Czech Republic.
Časopis Acta Informatica Pragensia se zaměřuje na oblast aplikované informatiky, a to včetně jejího
v současnosti inter- a transdisciplinárního charakteru s akcentem na problematiku řízení a správy v oblasti
sociálně-ekonomického prostředí. Časopis vydává VŠE v Praze a je publikován dvakrát ročně. Časopis
je uveden v Seznamu recenzovaných neimpaktovaných periodik vydávaných v ČR – platný v roce 2015.
CONTENTS / Obsah Peer-reviewed papers / Recenzované stati
Lněnička, M.: AHP Model for the Big Data Analytics Platform Selection |||||||||||||||||||||||||||| 108
Němec, R., Zapletal, F.: Proposal of Decision-making Model Using the DeLone
and McLean’s Information System Success Model Together with the AHP |||||||||||||||||||||||| 122
Hronza, R., Pavlíček, J., Náplava, P.: Measures of quality of process models
created in BPMN (in Czech) |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 140
Hradil, J., Sklenák, V.: Color Mapping on Common Use-Cases
in a Web Application (in Czech) |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 154
Kedaj, P., Pavlíček, J.: Modified Ishikawa Diagram as a Tool for Knowledge-Mapping
of Agronomic Practices (in Czech) ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||| 174
Perspective / Perspektiva
Smutný, Z., Řezníček, V.: Predatory Open Access Publishers
and other Dangers to Today’s Scientific Community (in Czech) ||||||||||||||||||||||||||||||||||||||||||| 182
2 2015
ACTA INFORMATICA PRAGENSIA
© Authors of the articles / Autoři jednotlivých článků.
Acta Informatica Pragensia, 2015, 4(2): 108–121
DOI: 10.18267/j.aip.64
Peer-reviewed paper
108 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
AHP Model for the Big Data Analytics Platform Selection
Martin Lněnička*
Abstract
Big data analytics refers to a set of advanced technologies, which are designed to efficiently operate and maintain data that are not only big, but also high in variety and velocity. This paper analyses these emerging big data technologies and presents a comparison of the selected big data analytics platforms through the whole data life. The main aim is then to propose and demonstrate the use of an AHP model for the big data analytics platform selection, which may be used by businesses, public sector institutions as well as citizens to solve multiple criteria decision-making problems. It would help them to discover patterns, relationships and useful information in their big data, make sense of them and to take responsive action.
Keywords: AHP model, Big data analytics, Big data life cycle, Platform selection, Decision-making.
1 Introduction
The period of business decision-making processes based on simple reports generated from
filtered, preselected and structured data is coming to an end. The emphasis is no longer placed
on counting and comparing key performance indicators, but rather on finding a statistically
significant connection between these indicators and related datasets. These have much less
structure, or more complex structure, than the traditional models. Consequently, a novel view
of large amount of structured as well as unstructured and semi-structured data can help gain
a sustainable competitive advantage for businesses.
Although big data are characterized in terms of volume, velocity and variety, it is more
practical to define big data in the context of management relationships and analytics and how
they impact business decisions (Loshin, 2013). In many real-world situations, it is important
to make accurate predictions based on the available information. Today, software architecture
constrains the achievement of quality attributes such as high performance, usability and
maintainability of a system (Daniluk, 2012). Different industry sectors and users will also
tend to want to ask different types of questions. Big data is poised to add greater value to
businesses, to solve science problems, to support modern medicine, etc. (Tien, 2013).
Thanks to developments in both hardware and software, the technology to store, interrogate
and analyse data is improving rapidly (Lake & Drake, 2014). However, challenges vary for
different applications as they have differing requirements of consistency, usability, flexibility,
* Institute of System Engineering and Informatics, Faculty of Economics and Administration, University of Pardubice,
Studentska 84, 532 10 Pardubice, Czech Republic
109 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
compatibility or data flow (Shamsi, Khojaye, & Qasmi, 2013). Thus, to perform any kind of
analysis on such voluminous and complex data, scaling up the hardware platforms becomes
imminent and choosing the right platform becomes a crucial decision. Researchers have been
working on building novel data analysis techniques for big data more than ever before, which
has led to the development of many different algorithms and platforms (Singh & Reddy,
2014).
As a result, the main aim of this paper is to propose an Analytic Hierarchy Process (AHP)
model for the big data analytics platform selection based on the three defined use cases.
Accordingly, some of the various big data analytics platforms are discussed in detail and their
applications and opportunities provided in several big data life cycle phases are portrayed.
2 Research Methodology
The main goal of this paper is to propose the AHP model for the big data analytics platform
selection to help businesses as well as public sector institutions and citizens, so they can make
an informed decision. In addition, this paper offers added value by means of a classification
of existing big data analytics platforms based on the big data life cycle.
The literature reviewed is selected based on its novelty and discussion of important topics
related to big data analytics and platforms comparison in order to serve the purpose of this
research. Method of the AHP is used to compare the defined criteria. The AHP is a multiple
criteria decision-making (MCDM) tool that has been applied to many practical decision-
making problems (Saaty, 1990; Saaty, 2008). It has been used in almost all the applications
related with decision-making, including the capability of handling many criteria, mainly if
some of the criteria are qualitative, as well as the evaluation of large sets of alternatives. This
proves the versatile nature of the AHP, enabling to arrange the different alternatives according
to the requirements of the decisions to be taken (Vaidya & Kumar, 2006).
3 Literature Review
3.1 Big Data and Big Data Analytics
For the most part, in popularizing the big data concept, the analyst community and the media
have seemed to latch onto the alliteration that appears at the beginning of the definition
(Loshin, 2013). Though, big data are attributed to have such characteristics as volume,
velocity and variety (3V). Other authors, such as Demchenko, Grosso, Laat, and Membrey
(2013) or Loshin (2013) added additional Vs (value and veracity) or variability respectively,
intended to capitalize on an apparent improvement to the definition.
Big data fundamentally mean datasets that could not be perceived, acquired, managed and
processed by traditional technologies within a reasonable time, which indicates that efficient
tools and platforms together with suitable methods have to be developed to analyse and
process big data (Chen, Mao, & Liu, 2014).
The popularity of big data analytics platforms, which are often available as open-source, has
not remained unnoticed by big companies. Google uses MapReduce for PageRank and
inverted indexes. Facebook uses Apache Hadoop to analyse their data and created Hive. eBay
uses Apache Hadoop for search optimization and Twitter uses Apache Hadoop for log file
analysis and other generated data (Saecker & Markl, 2013). Also various platforms have been
developed mainly by the industry to support big data analytics, including Yahoo’s PNUTS,
Microsoft’s SCOPE, Twitter’s Storm, etc. (Guo, 2013; Zhao, Sakr, Liu, & Bouguettaya,
110 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2014). Although Apache Hadoop has been very successful for most of the big data problems,
it is not an optimal choice in some situations. Mostly because of the drawbacks such as
special data processing requirements, difficulties to configure and manage the Hadoop cluster,
etc. (Guo, 2013).
Chen et al. (2014) introduced the general background of big data and review related
technologies, such as cloud computing, Internet of Things, data centres and Apache Hadoop.
They emphasized the importance of big data analysis through the six key technical fields:
structured data analysis, text data analysis, web data analysis, multimedia data analysis,
network data analysis and mobile data analysis. Also Elgendy and Elragal (2014) analysed
some of the different analytics methods and tools which can be applied to big data, as well as
the opportunities provided by the application of big data analytics in various decision
domains. They concluded that big data analytics can be applied to leverage business changes
and enhance decision-making by applying advanced analytics techniques on big data and
revealing hidden insights and valuable knowledge. Vossen (2014) studied and reviewed the
issues, techniques and applications of big data, with an emphasis on business intelligence
architectures. Saecker and Markl (2013) then presented an overview of existing processing
approaches to address the problems arising from big data analytics when using modern
hardware architectures. They claim that models of distributed systems and modern hardware
architectures employ a parallel model. Loshin (2013) suggested that as a way to properly
ground any initiatives around big data, one initial task would be to evaluate the fitness of
business as a combination of the five factors: feasibility, reasonability, value, integrability and
sustainability.
Kaisler, Armour, Espinosa, and Money (2013) focused on the issues and challenges of big
data. They suggested that there are three fundamental issue areas that need to be addressed in
dealing with big data: storage and transport issues, management issues and processing issues.
Demchenko et al. (2013) introduced the big data life cycle management model that includes
all the major stages and reflects new challenges and specifics in the big data management.
Data integrity, access control and accountability must be supported during the whole big data
life cycle.
Chen et al. (2014) and Che, Safran, and Peng (2013) reviewed of state of the art frameworks
and platforms for processing and managing big data as well as the efforts expected on big data
mining. Also Singh and Reddy (2014) provided an in-depth analysis of different platforms
available for performing big data analytics and assessed the advantages and drawbacks of
each of these platforms based on various metrics such as scalability, data I/O rate, fault
tolerance, real-time processing, data size supported and iterative task support. Lee et al.
(2011) provided a timely remark on the status of MapReduce studies and related work to aim
at improving and enhancing the MapReduce framework. They mostly focused on the
overcoming of this framework’s limitations. Zhao et al. (2014) provided a comprehensive
survey for a family of approaches and mechanisms of large scale data processing mechanisms
that have been implemented based on the original idea of the MapReduce framework. Sakr,
Liu, and Fayoumi (2013) surveyed the MapReduce framework’s variants and its extensions
for large scale data processing.
3.2 Big Data Life Cycle and Related Platforms
A life cycle of big data can be divided in four phases (Chen et al., 2014): data generation, data
acquisition, data storage and data analysis. Data generation and data acquisition are then an
exploitation process, data storage is a storage process and finally data analysis is a production
process that utilizes the raw material to create new value. Data analysis is the final and the
111 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
most important phase in the life cycle of big data, with the purpose of extracting useful values
and providing decisions (Chen et al., 2014). Tien (2013) also identified four components of
big data: acquisition (including data capture), access (data indexing, storage, sharing and
archiving), analytics (data analysis and manipulation) and application (data publication).
The big data analytics process should support the whole data life cycle, which may include
identifying the data analytics problems, collecting datasets, data analytics and also supporting
tools. Therefore, the comparison of the related platforms is focused on these requirements.
The basic phases were originally defined in Lněnička and Komárková (2014) and later
modified based on the literature review presented above. These are: data acquisition, data
aggregation and transfer, data storage and search (file systems, databases and programming
languages) and data analysis (business intelligence and data mining).
3.2.1 Data Acquisition
Most of the big data acquisition comes from internal sources within the business, i.e.
relational databases, data warehouses and file systems. Obviously, some of the data are
structured, but many very important components are semi-structured or unstructured (Loshin,
2013). The unstructured data are more complex and cannot be compiled in older database
format. Externally sourced data are mostly unstructured, they come from the Internet such as
social data, spatial data, news data or public sector’s data. New opportunities are also opening
up in the form of open data and linked data, which may be relevant in meeting the needs of
the business. These data can be found at open data portals. The related benefits and risks have
recently been presented in Lnenicka (2015).
3.2.2 Data Transfer and Aggregation
The big data transfer requires specified tools to move large amount of data in the most
efficient, scalable and also secure way possible. Also the big data aggregation is then needed
for efficient use within big data analysis platforms, which are described below. While the
market for solutions used to aggregate data from multiple sources is relatively limited, it is
also characterized by a variety of very different approaches. These tools with their various
inputs and outputs require explanation, which affects both the competitive strength and the
portfolio attractiveness ratings. Most of these tools are closely connected with the concrete
platform. Therefore, the following tools are mostly focused on the Apache Hadoop ecosystem
and the MapReduce framework. These are e.g. Avro, Flume, Chukwa, Splunk, Sqoop or Tika.
3.2.3 Data Storage and Search
At the core of any big data environment are the database engines, which contain the
collections of data relevant to the business. These engines need to be fast, scalable, and rock
solid. They are not all created equal, and certain big data environments will fare better with
one engine than another, or more likely with a mix of various engines (Cattell, 2011; Loshin,
2013).
Madden (2012) discussed the differences between traditional databases and large-scale data
management platforms and concluded that these databases don’t solve all aspects of the big
data problem. Traditional data management and analysis systems are based on the relational
database management system (RDBMS). However, such RDBMSs only apply to structured
data, other than semi-structured or unstructured data (Chen et al., 2014). Databases to manage
data of this size are known as NoSQL databases. There are several solutions, ranging from
distributed systems and massive parallel processing databases for providing high query
112 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
performance and platform scalability, to these non-relational and in-memory databases, which
have been used for big data (Elgendy & Elragal 2014; Guo, 2013). Cattell (2011) examined
a number of scalable SQL and NoSQL databases to provide a comprehensive survey. Chen et
al. (2014) identified three main NoSQL databases: key-value, column-oriented and document-
oriented databases. Based on the literature review, the author updated this categorization by
adding graph databases and object databases focused on big data.
Big data needs the storage of a massive amount of these data, thus, this makes it a necessity
for advanced storage infrastructure, which is designed to scale out on multiple servers, often
with the use of cloud computing technologies. There are several file systems, which can be
used together with the concrete platform, e.g. Hadoop Distributed File System, Google File
System, GlusterFS, Quantcast File System, Ceph, Lustre, XtreemFS or MooseFS.
To search big data in the database, Lucene (high-performance, full-featured text search engine
library written entirely in Java), Solr (enterprise search platform, which is highly scalable,
supporting distributed search and index replication engine) or Elasticsearch can be used.
3.2.4 Data Analysis
The most widely used big data analytics platform is Apache Hadoop (Elgendy & Elragal
2014; Zhao et al., 2014). It is an enabling technology for working with huge datasets that
provides both distributed storage and computational capabilities (Guo, 2013). Nowadays,
Apache Hadoop is consist of tens related projects such as Phoenix (a relational database layer
over HBase), Drill and Hive (SQL query and manage engines for Hadoop and NoSQL),
Zookeeper (a centralized service for maintaining configuration information, naming,
providing distributed group services and synchronization), HCatalog (a storage management
layer for Hadoop that enables users with different data processing tools), Oozie (a workflow
scheduler system to manage Hadoop jobs), real-time distributed systems Kafka, Spark and
Storm, etc. Compared with the open source Hadoop releases, enterprise Hadoop distributions
are easy to configure, adopt and maintain, and sometimes new features are added. Some of
these platforms, while highly relevant to big data, are not big data specific and have been
around for a while (Zhao et al., 2014).
The other vendors include Actian, Infobright, Kognitio and Platfora, which have centred their
big data stories around database management systems focused entirely on analytics rather
than transaction processing. Cloudera, Hortonworks, Pivotal, MapR, and others are working
on ways to do SQL analysis, in-memory analysis, and even streaming analysis on top of
Apache Hadoop. Other platforms that do not follow the MapReduce / Hadoop route are e.g.
GridGrain, High Performance Cluster Computing (HPCC), Sector / Sphere, SCOPE / Cosmos
or Dryad (Lněnička & Komárková, 2014).
The most widely used business intelligence platforms are, e.g.: BIRT, Jaspersoft, OpenI, Palo
Suite / Jedox, Pentaho, SpagoBI or Talend. The most widely used big data mining platforms
are e.g. Giraph, GraphLab, IKANOW, KEEL, KNIME, Apache Mahout, Orange, PEGASUS,
RapidMiner, Rattle, SAMOA, SPMF or Weka. These are mostly offered in a community open
source edition as well as under several commercial editions with broad support for various
databases and data sources, including NoSQL and other big data sources.
3.3 Hardware, Software and Services Evaluation and Selection
Whatever the claims of hardware manufacturers and software suppliers, the performance of
hardware and software must be demonstrated and evaluated based on the various attributes of
quality. Large companies frequently evaluate proposed hardware and software using the
113 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
processing of special benchmark test programs and test data (Marakas & O'Brien, 2013). It
requires a series of decisions based on a wide range of factors and then each of these decisions
have considerable impact on the evaluation of performance, usability and maintainability for
overall success of the most suitable platform selection (Daniluk, 2012).
Benchmarking simulates the processing of typical jobs on several computers and evaluates
their performances. Users can then evaluate test results to determine which software package
displayed the best performance characteristics. Notice that there is much more to evaluating
hardware than determining the fastest and cheapest computing device. As an example, the
question of obsolescence must be addressed by making a technology evaluation. The factor of
ergonomics and social perspective is also very important. Ergonomic factors ensure that
computer hardware and software are user-friendly, that is, safe, comfortable, and easy to use
(Marakas & O'Brien, 2013). Bengtsson and Bosch (1998) evaluated the software platform
quality attributes specifically for maintainability. The most useful method for maintainability
is change scenario method as compared to other methods such as simulation, mathematical
modelling and experience-based assessment. Connectivity is another important evaluation
factor, because so many network technologies and bandwidth alternatives are available to
connect computer systems to the Internet, intranet and extranet networks (Marakas & O'Brien,
2013).
The evaluation has a great impact on the quality of attributes. Valacich, George, and Hoffer
(2012) proposed several the most common criteria to choose the right platform. These are:
cost, functionality, efficiency, vendor support, viability of vendor, response time, flexibility,
documentation and ease of installation. Lake and Drake (2014) emphasize the importance of
the computational complexity factor and the increased efficiency of algorithms in the big data
era. Marakas and O'Brien (2013) propose these hardware evaluation factors:
Performance – What is its speed, capacity, and throughput?
Cost – What is its purchase price? What will be its cost of operation and maintenance?
Reliability – What is the risk of malfunction and what are its maintenance
requirements? What are its error control and diagnostic features?
Compatibility – Is it compatible with existing hardware and software? Is it compatible
with hardware and software provided by competing suppliers?
Technology – In what year of its product life cycle is it? Does it use a new untested
technology, or does it run the risk of obsolescence?
Ergonomics – Has it been “human factors engineered” with the user in mind? Is it
user-friendly, designed to be safe, comfortable, and easy to use?
Connectivity – Can it be easily connected to wide area and local area networks that
use different types of network technologies and bandwidth alternatives?
Scalability – Can it handle the processing demands of a wide range of end users,
transactions, queries, and other information processing requirements?
Software – Are system and application software available that can best use hardware?
Support – Are the services required to support and maintain it available?
They also defined these software evaluation factors (Marakas & O'Brien, 2013):
Quality – Is it bug-free, or does it have many errors in its program code?
Efficiency – Is the software a well-developed system of program code that does not
use much CPU time, memory capacity, or disk space?
Flexibility – Can it handle the business processes easily, without major modification?
Security – Does it provide control procedures for errors, malfunctions, improper use?
114 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Connectivity – Is it Web-enabled so it can easily access the Internet, intranets, and
extranets, on its own, or by working with Web browsers or other network software?
Maintenance – Will new features and bug fixes be easily implemented by software
developers?
Documentation – Is the software well documented? Does it include help screens and
helpful software agents?
Hardware – Does existing hardware have the features required to best use this
software?
Other Factors – What are its performance, cost, reliability, availability, compatibility,
modularity, technology, ergonomics, scalability, and support characteristics?
Traditional evaluation methods often focus only on the system functionality or on a single
non-functional requirement, e.g. high-performance, real-time or reusable systems (Bengtsson
& Bosch, 1998; Daniluk, 2012). Therefore, it is necessary to propose a robust model for the
big data analytics platform selection.
3.4 Multiple Criteria Decision-Making and Analytic Hierarchy Process
Real-world decision-making problems are complex and no structures are to be considered
through the examination of a single criterion, or point of view that will lead to the optimum
and informed decision (Vaidya & Kumar, 2006; Zavadskas & Turskis, 2011). MCDM offers
a lot of methods that can help in problem structuring and tackling the problem complexity
because of the multi-dimensionality of the sustainability goal and the complexity of socio-
economic, environment and government systems. Therefore, Zavadskas and Turskis (2011)
present a thorough historical review and classify and illustrate the primary steps of MCDM
methods. MCDM can be roughly separated into Multi-Objective Decision-Making (MODM)
and Multi-Attribute Decision-Making (MADM) components. MODM then includes Multiple
Objective Programming (MOP), Goal Programming (GP) and compromise solution methods.
These problems can be solved using many methods including single level, fuzzy, multi-stage
and dynamic methods. MADM includes structure relation methods (e.g., Interpretive
Structural Modelling (ISM), Decision Making Trial and Evaluation Laboratory (DEMATEL)
or fuzzy cognitive map), weight analysis (e.g. AHP, Analytic Network Process (ANP) or
entropy measure) and performance aggregated methods (e.g. Simple Additive Weight (SAW),
Technique for Order Preference by Similarity to an Ideal Solution (TOPSIS) or grey relation
for additive types and fuzzy integral for non-additive types) (Liou & Tzeng, 2012).
The AHP is a MCDM tool that has been used in almost all the applications related with
decision making (Vaidya & Kumar, 2006). The AHP is a powerful, flexible and widely used
method for complex problems, which consider the numeric scale for the measurement of
quantitative and qualitative performances in a hierarchical structure (Saaty, 1990). This is an
Eigen value approach to the pairwise comparisons. It is one of the few MCDM approaches
capable of handling many criteria (Zavadskas & Turskis, 2011; Liou & Tzeng, 2012). The
most important characteristic of the AHP is combining knowledge, experience, individual
opinions and foresights in a logical way (Vaidya & Kumar, 2006).
A case study where the AHP method was employed to support the software selection can be
found in Karaarslan and Gundogar (2009), Lai, Wong, and Cheung (2002), Silva, Goncalves,
Fernandes, and Cunha (2013) or Wei, Chien, and Wang (2005). Authors mostly focused on
the business environment and their findings may be applicable in the following model. In the
Czech Republic, the use of the AHP is promoted by e.g. Brožová, Houška, and Šubrt (2013).
115 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
4 Criteria Definition and Description
Based on the literature review above, these criteria are selected to choose the most suitable
platform satisfying the requirements of various big data analytics challenges. They are under
three categories based on their feasibility and integrability:
1. technical (hardware and resources configuration requirements) perspective:
1.1 availability and fault tolerance – networks, servers, and physical storage must
be both resilient and redundant, this criterion has the values of: Poor (1) / Fair
(2) / Good (3) / Very Good (4) / Excellent (5),
1.2 scalability and flexibility – how to add a more scale for unexpected challenges,
the criterion has the values of 1, 2, 3, 4, 5,
1.3 performance (latency) – data processing time, based on a single transaction or
query request, the criterion has the values of 1, 2, 3, 4, 5,
1.4 computational complexity – extensions such as data mining and business
intelligence tools, the criterion has the values of 1, 2, 3, 4, 5,
1.5 distributed storage capacity and configurations – to work with different storage
systems, how much data needs to be available in storage nodes at the same
time, how much data is required to be archived on a periodic basis, etc., the
criterion has the values of 1, 2, 3, 4, 5,
1.6 data processing modes – time aspect of data (how often are data managed),
real-time and stream processing against historical data and time series data
sources, this criterion has the values of: Transaction processing (1) / Real-time
processing (2) / Batch processing (3),
1.7 data security – level of security and tools offered, data are protected, more or
less valuable, platform is subject to strict security, compliance or governance
requirements, the criterion has the values of 1, 2, 3, 4, 5,
2. social (people and their knowledge and skills) perspective:
2.1 ease of installation and maintenance – command line interface or graphical
user interface, skills and knowledge needed for the deployment of a new
solution, the criterion has the values of 1, 2, 3, 4, 5,
2.2 user interface and reporting – usability and complexity of features, the criterion
has the values of 1, 2, 3, 4, 5,
2.3 documentation and support – to simply describe each feature of the tool,
technical and customer support, the criterion has the values of 1, 2, 3, 4, 5,
3. cost and policy perspective,
3.1 cost – what a customer wants, how much can be spent on, the criterion offers
these options: Open source (1) / Trial version (2) / Commercial release (3),
3.2 sustainability of the solution – the cost associated with the skills maintenance,
configuration, and adjustments to the level of agility in development, how
much data will the organization need to manage and process today and in the
future, the criterion has the values of: Low (1) / Medium (2) / High (3),
3.3 policy and regulation – related to the deployment of the selected solution such
as privacy policy, law conflicts and restrictions of the use, etc., the criterion
has the values of 1, 2, 3, 4, 5,
Based on the literature review of the possible advantages and disadvantages of various big
data analytics platforms, eleven tools were selected as alternatives to be compared. Some
frameworks such as SCOPE / Cosmos or Dryad are omitted, because there are no stable
implementations of them. Also most of the literature is concerned with the data analysis as
the most important phase. Therefore, the AHP model is focused on the big data analytics
116 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
platforms, which offer tools for data analysis. A decision table with the values for the selected
alternatives can be seen in the Tab. 1. The data used are from 2015. The AHP model’s
structure is a hierarchy of four levels constituting goal, criteria, sub-criteria and alternatives as
can be seen from the Fig. 1.
ALTERNATIVES
CRITERIA AND THEIR TYPE
1.1 1.2 1.3 1.4 1.5 1.6 1.7 2.1 2.2 2.3 3.1 3.2 3.3
MAX MAX MAX MAX MAX MAX MAX MAX MAX MAX MIN MIN MAX
Amazon Kinesis 4 4 4 3 4 2 5 4 4 3 3 3 4
Apache Hadoop 5 4 3 5 4 3 3 3 3 4 1 1 2
Apache Spark 4 4 5 3 3 3 3 3 3 3 1 1 2
Apache Storm 4 3 4 2 3 2 2 2 3 2 1 2 2
Cloudera 5 4 4 4 4 2 4 5 5 4 2 3 3
GridGrain 4 3 5 2 3 2 4 2 3 3 1 2 3
Hortonworks 5 5 4 4 3 2 4 4 4 3 1 2 3
HPCC 4 4 5 3 4 3 3 3 4 3 1 2 4
InfoSphere Streams
4 3 4 3 3 2 4 3 4 3 2 2 4
MapR 4 4 4 3 4 3 5 4 4 3 3 3 4
Sector/ Sphere 4 3 5 1 3 3 4 2 3 2 1 1 2
Tab. 1. Decision table for the big data analytics platform selection. Source: Author.
Three following use cases are designed to meet the various users’ needs. These use cases are
focused only on the platforms, which offer data analysis tools. However, most of these tools
can be integrated with several data transfer, storage and search platforms to support the whole
big data life cycle and related phases.
Use case 1 – scientist or advanced user
A high scalable and fault tolerance platform, which offers a high computational complexity
and number of techniques implemented, is required. Batch processing platform is more
important than real-time processing. Data security is not required, data are available mostly
for the testing purposes as open data. User has also a very good knowledge and programming
skills. The selected platform has to be open source with no policy and regulation conflicts.
Use case 2 – medium-sized business
The business needs a highly available, flexible, scalable and fault tolerance platform with
a good computational complexity to store a big amount of data. It requires a real-time
processing platform with a very good data security. Platform has to be easy to deploy with
a wide customer support. The business has very good financial resources. Privacy policy
options and SLA are very important.
117 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Fig. 1. The AHP model for the big data analytics platform selection. Source: Author.
Use case 3 – public sector institution
An available, flexible and fault tolerance platform, which offers a high variety and flexibility
of computational complexity extensions is required. Batch processing and open source
platform with a graphical user interface is preferred. It should be easy deployed as a small
cluster. No personal data will be processed, however, there should be some security tools
available. It requires a very good documentation and reference manual to easy deploy and
maintain the selected platform.
5 Results and Discussion
In the Tab. 2, weights for the defined criteria for each use case are shown. Following the AHP
methodology, paired comparisons of the alternatives on each attribute and the inter-attribute
relative importance were made and converted to a fundamental scale of absolute numbers
based on their intensity of importance. The scale then ranges from 1/9 (least valued than), to 1
(equal), and to 9 (absolutely more important than) covering the entire spectrum of the
comparison. Then, all the calculations were performed to find the maximum Eigen value,
consistency index, consistency ratio and normalized values for each criterion / alternative. If
the maximum Eigen value, consistency index and ratio are satisfactory then decision is taken
based on the normalized values, else the procedure is repeated till these values lie in a desired
range (Saaty, 1990; Saaty, 2008). More details about this method, its steps and requirements
can be found in Saaty (1990) or Saaty (2008).
118 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
HIERARCHY OF CRITERIA WEIGHT
Use case 1 Use case 2 Use case 3
1. Technical perspective 0.540 0.493 0.493
1.1 Availability and fault tolerance 0.118 0.170 0.177
1.2 Scalability and flexibility 0.206 0.144 0.227
1.3 Performance (latency) 0.071 0.114 0.087
1.4 Computational complexity 0.358 0.110 0.169
1.5 Distributed storage capacity 0.071 0.081 0.087
1.6 Data processing modes 0.151 0.122 0.184
1.7 Data security 0.025 0.259 0.069
2. Social perspective 0.297 0.196 0.311
2.1 Ease of installation and maintenance 0.297 0.500 0.327
2.2 User interface and reporting 0.540 0.250 0.260
2.3 Documentation and support 0.163 0.250 0.413
3. Cost and policy perspective 0.163 0.311 0.196
3.1 Cost 0.443 0.413 0.474
3.2 Sustainability 0.169 0.260 0.150
3.3 Policy and regulation 0.388 0.327 0.376
Tab. 2. Criteria and their weights for each use case. Source: Author.
In this study, each use case reported a very low value of consistency ratio: use case 1 (0.018),
use case 2 (0.037) and use case 3 (0.023), which is much better than the recommended 10%
acceptable margin (Saaty, 1990). The only inconsistency was found in the cost and policy
perspective where, especially in the use case 2, the importance of cost and sustainability of
the solution is dealing with uncertainty about the way things will happen in the future.
In all the cases, the technical perspective is the most important issue. Use case 1 and 3 then
prefer the social perspective. For the use case 2 (medium-sized business), the cost and policy
perspective is the second most important perspective, together with the data security. Fig. 2
shows the final weights for the selected alternatives for each use case. Based on the needs of
the user defined in the use case 1, these three most suitable big data analytics platforms are
selected: Apache Hadoop (19.3%), Hortonworks (15.4%) and Cloudera (13.2%). For the use
case 2, the choice is: MapR (14.4%), Amazon Kinesis (13.3%) and InfoSphere Streams
(10.4%). For the use case 3, the choice is: Hortonworks (15.7%), Apache Hadoop (15.4%)
and Cloudera (11.6%). In this case, the HPCC system is on the fourth place with 11.1% and
may be used as an alternative to the MapReduce-based platforms.
The precision with which decision-makers can provide a paired comparison may be limited
by their knowledge, experience, and even cognitive biases, as well as by the complexity of the
big data analytics platform selection problem. To solve this problem, the decision-makers
have to be trained to understand the details, strengths, and limitations of the AHP method as
well as the related platforms (Wei et al., 2005).
119 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Fig. 2. Weights of the alternatives for each use case. Source: Author.
It has to be also noted, that the usage of the AHP method is not a new discovery in the
selection of the most suitable big data analytics platform. However, the main contribution of
this paper lies in providing a new hierarchy of criteria, which reflects the actual trends in the
software evaluation in the big data era.
6 Conclusion
In this paper, the literature is reviewed in order to provide the overview of the big data
analytics platforms and to propose the AHP model, which offers a simple but important
evaluation method that can help businesses and public sector institutions in selecting the most
suitable big data analytics platform. This approach is also flexible enough to incorporate extra
attributes or decision-makers in the evaluation. Special attention is paid to the whole life cycle
of the big data analytics. By applying such analytics to big data, valuable information can be
extracted and exploited to enhance decision-making and support informed decisions. The new
AHP model can not only reduce cost during the selection phase, but also decrease the
resistance and invisible cost in the implementation stage.
The results provided in this paper represent the first step to select the most suitable big data
analytics platform based on the user’s needs. Quantitative performance measures of the
selected platforms will be the next step to evaluate and compare these platforms more
precisely. Also the number of alternatives should decrease to five or less to clearly describe
the differences between these platforms. The comparison presented above also helped to
eliminate some of the unsuitable platforms for the defined use cases. Choosing the right
platform for a particular big data application and combining of multiple platforms to solve
various decision-making problems are planned for the future research.
120 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
References
Bengtsson, P., & Bosch, J. (1998). Scenario-based software architecture reengineering. In Proceedings of the Fifth International Conference on Software Reuse (pp. 308-317). New York: IEEE.
Brožová, H., Houška, M., & Šubrt, T. (2013). Modely pro vícekriteriální rozhodování. Praha: Česká zemědělská univerzita v Praze.
Cattell, R. (2011). Scalable SQL and NoSQL data stores. ACM SIGMOD Record, 39(4), 12-27. doi: 10.1145/1978915.1978919
Che, D., Safran, M., & Peng, Z. (2013). From Big Data to Big Data Mining: Challenges, Issues, and Opportunities. In B. Hong et al. (Eds.), Database Systems for Advanced Applications (pp. 1-15). Heidelberg: Springer.
Chen, M., Mao, S., & Liu, Y. (2014). Big Data: A Survey. Mobile Networks and Applications, 19(2), 171-209. doi: 10.1007/s11036-013-0489-0
Daniluk, A. (2012). Visual modeling for scientific software architecture design. A practical approach. Computer Physics Communications, 183(2), 213-230. doi: 10.1016/j.cpc.2011.07.021
Demchenko, Y., Grosso, P., Laat, C., & Membrey, P. (2013). Addressing Big Data Issues in Scientific Data Infrastructure. In 2013 International Conference on Collaboration Technologies and Systems (pp. 48-55). New York: IEEE.
Elgendy, N., & Elragal, A. (2014). Big Data Analytics: A Literature Review Paper. In P. Perner (Ed.), ICDM 2014. LNAI, vol. 8557 (pp. 214-227). Heidelberg: Springer.
Guo, S. (2013). Hadoop Operations and Cluster Management Cookbook. Birmingham: Packt Publishing.
Kaisler, S., Armour, F., Espinosa, J.A., & Money, W. (2013). Big Data: Issues and Challenges Moving Forward. In 46th Hawaii International Conference on System Sciences (pp. 995-1004). New York: IEEE.
Karaarslan, N., & Gundogar, E. (2009). An application for modular capability-based ERP software selection using AHP method. The International Journal of Advanced Manufacturing Technology, 42(9-10), 1025-1033. doi: 10.1007/s00170-008-1522-5
Lai, V. S., Wong, B. K., & Cheung, W. (2002). Group decision making in a multiple criteria environment: A case using the AHP in software selection. European Journal of Operational Research, 137(1), 134-144. doi: 10.1016/S0377-2217(01)00084-4
Lake, P., & Drake, R. (2014). Information Systems Management in the Big Data Era. London: Springer.
Lee, K. H., Lee, Y. J., Choi, H., Chung, Y.D., & Moon, B. (2011). Parallel Data Processing with MapReduce: A Survey. SIGMOD Rec., 40(4), 11-20. doi: 10.1145/2094114.2094118
Liou J. J. H., & Tzeng, G.-H. (2012). Comments on “Multiple criteria decision making (MCDM) methods in economics: an overview”. Technological and Economic Development of Economy, 18(4), 672-695. doi: 10.3846/20294913.2012.753489
Lnenicka, M. (2015). An In-Depth Analysis of Open Data Portals as an Emerging Public E-Service. International Journal of Social, Education, Economics and Management Engineering, 9(2), 589-599.
Lněnička, M., & Komárková, J. (2014). An Overview and Comparison of Big Data Analytics Platforms. In Sborník příspěvků z mezinárodní vědecké konference MMK 2014 (pp. 3446-3455). Hradec Králové: Magnanimitas.
Loshin, D. (2013). Big Data Analytics: From Strategic Planning to Enterprise Integration with Tools, Techniques, NoSQL, and Graph. Waltham: Elsevier.
Madden, S. (2012). From Databases to Big Data. IEEE Internet Computing, 16(3), 4-6. doi: 10.1109/MIC.2012.50
121 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Marakas, G. M., & O'Brien, J. A. (2013). Introduction to Information Systems. New York: McGraw-Hill/Irwin.
Saaty, T. L. (1990). How to make a decision: The Analytic Hierarchy Process. European Journal of Operational Research, 48(1), 9-26. doi: 10.1016/0377-2217(90)90057-I
Saaty, T. L. (2008). Decision making with the analytic hierarchy process. International Journal of Services Sciences, 1(1), 83-98. doi: 10.1504/IJSSCI.2008.017590
Sakr, S., Liu, A., & Fayoumi, A.G. (2013). The Family of MapReduce and Large Scale Data Processing Systems. ACM Computing Surveys (CSUR), 46(1), 1-27. doi: 10.1145/2522968.2522979
Saecker, M., & Markl, V. (2013). Big Data Analytics on Modern Hardware Architectures: A Technology Survey. In M. A. Aufaure & E. Zimányi (Eds.), Business Intelligence (pp. 125-149). Berlin Heidelberg: Springer.
Shamsi, J., Khojaye, M. A., & Qasmi, M. A. (2013). Data-Intensive Cloud Computing: Requirements, Expectations, Challenges, and Solutions. Journal of Grid Computing, 11(2), 281-310. doi: 10.1007/s10723-013-9255-6
Silva, J. P., Goncalves, J. J., Fernandes, J., & Cunha, M. M. (2013). Criteria for ERP selection using an AHP approach. In 2013 8th Iberian Conference on Information Systems and Technologies (pp. 1-6). New York: IEEE.
Singh, D., & Reddy, C. K. (2014). A survey on platforms for big data analytics. Journal of Big Data, 1(8), 1-20. doi: 10.1186/s40537-014-0008-6
Tien, J. M. (2013). Big Data: Unleashing Information. Journal of Systems Science and Systems Engineering, 22(2), 127-151. doi: 10.1007/s11518-013-5219-4
Vaidya, O. S., & Kumar, S. (2006). Analytic hierarchy process: An overview of applications. European Journal of Operational Research, 169(1), 1-29. doi: 10.1016/j.ejor.2004.04.028
Valacich, J. S., George, J. F., & Hoffer, J. A. (2012). Essentials of Systems Analysis and Design. New Jersey: Prentice Hall.
Vossen, G. (2014). Big data as the new enabler in business and other intelligence. Vietnam Journal of Computer Science, 1(1), 3-14. doi: 10.1007/s40595-013-0001-6
Wei, C. C., Chien, C. F., & Wang, M. J. J. (2005). An AHP-based approach to ERP system selection. International Journal of Production Economics, 96(1), 47-62. doi: 10.1016/j.ijpe.2004.03.004
Zavadskas, E. K., & Turskis, Z. (2011). Multiple criteria decision making (MCDM) methods in economics: an overview. Technological and Economic Development of Economy, 17(2), 397-427. doi: 10.3846/20294913.2011.593291
Zhao, L., Sakr, S., Liu, A., & Bouguettaya, A. (2014). Big Data Processing Systems. In Cloud Data Management (pp. 135-176). Heidelberg: Springer.
Acta Informatica Pragensia, 2015, 4(2): 122–139
DOI: 10.18267/j.aip.65
Peer-reviewed paper
122 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Proposal of Decision-making Model Using the DeLone and McLean’s Information System Success Model Together with the AHP
Radek Němec*, František Zapletal*
Abstract
The focus of the paper is to present an evaluation of a proposed decision-making model concept. The concept takes into account the quality of a currently used information system’s subsystem (the Business Intelligence subsystem in our case), as it is perceived by its current users. The Analytic Hierarchy Process (AHP) multi-criteria decision making method is used to support the concept with a hierarchical decision criteria structuring framework. A selected part of the DeLone and McLean’s (D&M) information system success assessment model is used for the determination of appropriate criteria (success factors). The D&M model is composed of information system quality assessment dimensions. These dimensions represent a solid base for surveying information system’s users according to their perception of key information system performance aspects. The presented model helps to combine opinions of the management and users successfully when carrying out important information system related decision. The results also illustrate the possibility of using the D&M model in a novel application together with the AHP method.
Keywords: Analytic Hierarchy Process, DeLone & McLean’s model, success factors, multi-criteria decision-making, decision-making model, evaluation through case study.
1 Introduction
Business Intelligence (BI) system is a key part of nearly every complex information system in
many enterprises in the world. As a critical information system component it provides
computerized decision-making process support for all levels of management. Every BI system
is a subject to frequent changes in the systems’ architecture and data structures in order to
maintain it in a state of full recency, see Turban et al. (2007). Responsible management of
changes in the BI system requires rigorous analysis of changes impact by means of a specific
evaluation framework that takes into account also the system performance. Such evaluation
framework should acquire practically and also scientifically approved quality and economic
metrics to be complex and enterprise-widely usable. From the user point of view, the quality
of information system is usually characterized by flexibility, effectiveness, accessibility and
timeliness of output metrics that are measured mainly on the system’s component level but
also on the system level, see Stair and Reynolds (2010). Perception of these quality metrics by
users indicates whether the system is designed according to users’ requirements. We can
* Department of Systems Engineering, Faculty of Economics, Technical University of Ostrava,
Sokolská tř. 33, 701 21, Ostrava 1, Czech Republic
123 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
therefore assume that such perception can be used as a source for the definition of criteria in
making decisions about changes in the information system or a selected part. A level of
agreement of the user with these quality factors can then be a source of data for the evaluation
of possible options of eventual system improvement.
From a holistic point of view, the quality of information system affects also the performance
of business processes. This fact is emphasized by the fact that workflow task execution
commonly spans multiple departments and business roles, see Hočevar and Jaklič (2010).
A poorly and user unfriendly designed information system can degrade business process
workflow performance. The business value addition of tasks executed by employees that
usually need to use the information system’s interfaces to complete their tasks should not be
taken lightly, see Duggan and Reichgelt (2006). A degree of user requirement meeting failure
is also a crucial metric for the determination of whether the information system or its
component should be replaced, or significantly improved. The aforementioned perception of
its qualities (i.e. quality factors) by its users is therefore a vital source of information.
In this paper, we propose a decision-making model based on the application of the analytic
hierarchy process (AHP) method to determine a best possible option of whether to replace the
information system’s BI component, improve it or possibly leave the system in its current
state. The results may illustrate novel application of the DeLone and McLean’s model
together with the AHP decision-making method which should be in close accordance with the
hierarchical concept of the D&M model.
The evaluation of the decision-making model is carried out using data we gathered during
studying a specific decision-making situation in a certain Czech firm that wanted to assess
sources of low performance of their currently used BI system. The decision making criteria
hierarchy is chosen according to the structure of a selected part of the DeLone and McLean’s
information system success assessment model. The DeLone and McLean’s model served as a
framework for designing survey questions that focused on assessment of success factors
linked with specific characteristics of the BI system. The respondent’s answers were then
used to calculate preferences of each criterion and subcriteria.
The paper is divided into 4 chapters. Chapter 2 deals with the analysis of input data and
description of the methodology. In the chapter 3 there is the proposed decision making model
described and chapter 4 deals with the evaluation of the model through a case study. Chapter
5 concludes the results and indicates possible further research activities.
2 Paper methodology and input data
In the paper, there will be 2 methods used. Besides the AHP method that is a key method of
our decision-making model also the exploratory factor analysis (EFA) method is used. The
EFA method is used to reduce dimensionality of the original input variables’ set and to create
more coherent constructs that will be used for construction of criteria (according to the
Cronbach’s Alpha metric computation), see Costello and Osborne (2005).. The main reason
for using the AHP is to ensure the consistency of pairwise comparisons due to the higher
number of criteria included. Also the hierarchical concept of the AHP method corresponds
with the hierarchical concept of the D&M model.
To determine the criteria weights we used empirical data gathered during surveying 62 users
– mostly middle and operational managers, analysts and also several specialized
administrative workers. All surveyed persons were users of the BI system’s tools in a Czech
medium enterprise. Attitudes to and opinions on respective factors of 7 dimensions of BI
124 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
system success (according to the structure of the DeLone and McLean model) were gathered
and served as the core data sample. During the data gathering process, the respondents were
familiarized with the hierarchy of the model. Respondents evaluated each related success
factor on a 6 point Likert scale (where 1 presented lowest and 6 highest level of agreement
with, or preference of a respective success factor). The data we gathered in the survey was
therefore of a qualitative ordinal type.
Then we wanted to determine whether input variables (see table 13 in the Appendix) that are
supposed to represent each success dimension belong consistently to it. Our intention was to
ensure that there are no severe inconsistencies due to possible heterogeneity of respondents’
opinions (so that the evaluation of the model can be considered reliable). We utilized
computation of Cronbach’s Alpha coefficient (α) of the input data that measures the overall
correlation between variables that are meant to measure the same fact (i.e. the dimensions of
success, in terms of this paper’s focus), see Wixom and Todd (2005). The condition of
sufficient consistency in terms of the coefficient’s value is if α ≥ 0.7 (resulting computed
coefficient values are summed up later in the text). EFA and Cronbach’s Alpha coefficient
related computations were done using the IBM SPSS 20 software.
2.1 Brief description of the AHP method
Saaty (2005) describes the AHP as one of multi-criteria decision-making methods which are
based on layering a complex decision-making problem or planning situation into its
components or levels and their structuring into an ascending hierarchy. Components of one
level are connected to components of a lower level and hierarchy levels are herewith
integrated towards the decision-making goal. The method is especially helpful in a situation
where there is an explicit need to carry out a decision according to the opinions of a group of
decision-makers (i.e. it allows the use of group thinking).
Principally, the AHP method is based on assigning preferences to variants and criteria for the
assessment of variants. The preference of criteria is determined using pairwise comparison
using a specific numeric measurement on a prescribed scale, commonly using Saaty’s
matrices. Saaty’s matrices are constructed according to the fact that values should express the
importance towards a goal of the decision-making process, see Saaty and Vargas (2001). The
preferences of each variant are then determined based on its interaction with each criterion
(and the pairwise comparison of preferences for each alternative). Afterwards there are
weights of each criterion set and the total preference of each variant is then calculated
according to how they contribute to the fulfillment of the goal.
The AHP hierarchy based decision-making method found its various uses in many fields due
to its flexibility and universality, e.g. allocation of resources, benchmarking, quality
management, conflict solving or classification of buildings according to their historical
importance etc., see e.g. Forman and Saul (2001). For other original applications of the AHP
method in various situations and frameworks see e.g. Wei (2007), Karaarlsan and Gundogar
(2008), Razavi, Aliee and Badie (2010) or Ergu et al. (2011).
2.2 Description of the DeLone & McLean’s information system success assessment model
DeLone & McLean’s (D&M) information system success assessment model, as presented in
Delone and McLean (2003) is a theoretical concept of user satisfaction assessment using 7
success dimensions. Each dimension can be characterized by a set of success factors, although
DeLone and McLean do not specify by default which factors each of the dimensions should
125 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
contain. The actual user of the model is then free to fill the dimensions with respective
factors, according to the desired purpose of the model. The only constraint is that the factors
should correspond with the fundamental meaning of the dimension. Figure 1 shows the
structure of relations between all of the model dimensions. When considering what factors to
use to represent each dimension by its purpose, there are various assumptions and empirical
aspects to consider (as stated by the authors that already assessed the model theoretically and
practically).
The system quality dimension is, according to Delone and McLean (2003, 2004) and Chen
and Cheng (2009), intended to measure technical (functional) success – proposed factors are
commonly reliability, responsiveness, flexibility; Wixom and Todd (2005) also add
accessibility and integration to the list; Shin (2003) adds also system throughput.
The information quality dimension, according to Chen and Cheng (2009), Nelson, Todd and
Wixom (2005) and Delone and McLean (2003), measures certain semantic success – factors
commonly used are accuracy, currency, relevance, completeness and
consistency/understandability of information outputs.
The service quality dimension, in works Delone and McLean (2003, 2004) and Wu and
Wang (2006), reflects the importance of services and support in a successful information
system – therefore they mention factors as reliability of service, efficiency of service staff or
expertise of service staff and also whether the users were involved in the design and
implementation process.
Intention to use (which is seen as an attitude to use the system as it is) and use dimension
(which should measure to what extent the system is really used) are referred to as closely
interrelated dimensions that are to be considered carefully. The reason is because of different
attitudes of users to what the same system literally should really do and what it currently does
depending on the users’ job position, see Wu and Wang (2006).
The user satisfaction dimension measures if the user is satisfied with the system as a whole
and therefore it is determined by system, information and service quality, see Wu and Wang
(2006) or Chen and Cheng (2009).
The net benefits dimension, according to Delone and McLean (2003), previously featured
individual and organizational benefits (in a 1992 version of the D&M IS success model).
After revision of the model in 2003, the net benefits dimension is in fact intended to measure
overall effectiveness of the system usage. DeLone and McLean admit assessment using
common financial measures (e.g. Total Cost of Ownership or Return on Investments, etc.) but
Wu and Wang (2006) rather emphasize assessment of net benefits. The intention is to mainly
use this dimension as an abstract/qualitative measure (financial measures are too dependent
on the current situation when the model is applied). Particular factors proposed in Delone and
McLean (2003) for the net benefits dimension include:
perceived task productivity,
task innovation,
customer satisfaction and management control (expression of the extent to which the
application helps to regulate and support business processes and their performance).
126 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Fig. 1. Updated DeLone and McLean information system success model (Delone and McLean, 2003).
3 The decision making model concept
For the purpose of the decision-making concept evaluation and validation we initially chose a
selected part of the DeLone & McLean’s model that represents the relationship between
information quality (quality of information outputs – timeliness, accuracy, format, etc.),
system quality (quality of system characteristics – system performance and flexibility,
accessibility etc.) and service quality (supporting services, training, technical support, etc.)
and total user satisfaction. Similar criteria in terms of an information system success are used
in Yeoh (2010), Barclay (2008) or Delone and McLean (2003). This part of the model was
selected due to a fact that the first 3 dimensions and their relationship to overall user
satisfaction usually serve as first instance indicators of quality that can be directly assessed by
information system’s users (as mentioned in the chapter 1). So the users can tell if an
information technology, which is intended to be used enterprise-wide, does or does not
support the effective execution of business processes (and therefore successful fulfillment of
business goals).
Selected dimensions of BI system success were represented by a variable amount of detailed
success factors (survey questions) in our research. However, aforementioned authors,
concerned with the application or evaluation of DeLone and McLean’s model, have been
using more coherent sets of success factors (2 to 4 questions).
Therefore, we applied the EFA method using principal component analysis to determine
whether the groups of success factors are related or not (see table 13 in the Appendix for the
original set of variables that was used in the EFA), see Costello and Osborne (2005). To
ensure that resulting factor groups will not be correlated, we applied the Varimax rotation
method. Factor loadings of each variable should be ≥ 0.5, eigenvalue > 1 and communality of
each variable should not be < 0.5 to maintain adequate advisability of obtaining factor model
components, see Kaiser (1958). See table 1 for the results of the factor analysis that satisfied
these conditions. To test whether the data sample fits each factor model (set of uncorrelated
variables) we run the KMO test (Kaiser-Meyer-Olkin’s) on each set of variables representing
a specific dimension. Sample fitness was determined to be significant at a p < 0.01 level for
each dimension using the Bartlett’s test of sphericity.
Regarding the Cronbach’s α coefficient, the information quality dimension exhibited α = 0.76,
the system quality dimension exhibited α = 0.88 and the service quality exhibited α = 0.82.
All values of internal consistency were over the desired threshold of α ≥ 0.7 so, in accordance
127 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
with the results of Wixom and Todd (2005), we cannot guarantee that the survey respondents
provided answers homogeneous enough. So there should be no severe inconsistencies in
terms of high inter-dimensional variable correlations.
4 Evaluation of the proposed decision-making model concept through a case study
The proposed concept’s evaluation will be illustrated on a decision-making situation when
a certain Czech company wanted to make a decision on what to do with their current BI
system. The system was not performing very well and the software provider no longer
existed. The management came up with several options and the project team was tasked to
carry out a survey among key users and then perform necessary analyses. The focus was
therefore to determine which of these variants will be more preferred if user and
management’s opinion is combined with the evaluation of available variants:
to build a new BI system in-house (NEW_IH),
to buy a new BI system from a new vendor (NEW_V),
to alter the current BI system using in-house capacities (ALTER),
to make no changes and continue to use the current system (NO_CH).
Dimension Success factor groups (obtained as factor model
components)
Factor
code
Information quality
(previously 7
variables)
KMO = 0.733
Relevance, accuracy a format InfQ1
Completeness and recency of outputs InfQ2
System quality
(previously 14
variables)
KMO = 0.842
Reliability, flexibility, system performance, data quality
and structure SysQ1
Security and existence of metadata SysQ2
Accessibility and portability SysQ3
Level of source data integration SysQ4
Service quality
(previously 11
variables)
KMO = 0.794
Reliability and transparency of services, skills of service
teams SerQ1
Quality of communication with service teams,
involvement of users during system changes SerQ2
Quality and effectiveness of training services SerQ3
Tab. 1. Dimensions and grouped success factors obtained from factor analysis. Source: Authors.
First, the structure and hierarchy of success factors (i.e. criteria) to use in the multi-criteria
decision-making process was necessary to be defined with respect to the use of the AHP
method (see Figure 2). Second, the subcriteria need to be put into Saaty’s matrices which are
used to describe the power of preferences among particular subcriteria.
128 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
4.1 Arrangement of Saaty’s matrices
The power of preference is expressed by integer values 1, 2,… , 9 (where 1 = equality, 3 =
week preference, 5 = strong preference, 7 = very strong preference, 9 = absolute preference;
the remaining values express inter-preferences). The scale that was used while gathering the
data established boundaries of a closed interval of means to <3,726; 4,645> (see table 2).
Fig. 2. Hierarchy of criteria and subcriteria (success factors) for the application of the AHP method (subcriteria codes correspond with factor codes in Tab. 1). Source: Authors.
The Saaty’s matrix is however originally designed to use a 9 points scale and the data
contained only 6 points scale answers, due to previous bad experience with wider scales in the
measurement of user preferences in the organization. The data had to be converted to the 9
point scale to be able to use the AHP method. The 9-point scale is beneficial also because of
the fact that it can more clearly emphasize differences between levels of preference (also the 9
point scale is generally recommended in Saaty (2005)). Initial data for Saaty’s matrices for
each criterion at the higher level and for each group of subcriteria was then calculated using
simple arithmetic mean.
The Saaty’s matrix is symmetric along the main diagonal. Entries on the main diagonal (𝑠𝑖,𝑖)
are equal to 1 and other elements are determined by equation 𝑠𝑖,𝑗 =1
𝑠𝑗,𝑖. The calculation of
preferences among particular subcriteria is done by ratio difference (see table 7 in the
Appendix; elements denoted as “neg” explain the negative value of the odd). Preferences are
then obtained by the differences between means from the table 2.
All mean differences lie in the interval <0; 0.919> (minimum mean value is 3.726, maximum
value is 4.645; value range is then 0.919 and the transformation interval threshold value is
then 0.102) and a maximum of the potential value difference from the interval of the mean is
shown in the table 2.
Transformation interval boundaries are shown in the table 3; the equidistant scaling is used
for transforming the values in order to keep the ratios between preference powers. This is
necessary for keeping the original difference ratios (without regard to the sample
distribution). Table 8 (see the Appendix) contains final Saaty’s matrices with calculated
inverse elements.
129 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Ratios of particular success factors (criteria) are calculated according to equation 1:
,
N
i
i
ii
GA
GAw
(1)
which is based on the geometrical mean (equation 2):
,=GA
1
,i
NN
j
jis
(2)
where 𝑤𝑖 is the ratio of the i-th factor, N is the number of rows (even columns) of the matrix
and jis , is the element of the Saaty’s matrix. Final calculated ratios are shown in tables 9-12
(see the Appendix).
Subcriteria Means of
subcriteria
Means
of criteria
1.1.1 4.642 4.527
1.1.2 4.411
1.2.1 4.410
4.461 1.2.2 4.645
1.2.3 4.234
1.2.4 4.556
1.3.1 4.391
3.985 1.3.2 3.726
1.3.3 3.839
Tab. 2. Means of success factors (subcriteria). Source: Authors.
Interval Matrix value
0 0.102 1
0.103 0.204 2
0.205 0.306 3
0.307 0.408 4
0.409 0.511 5
0.512 0.613 6
0.614 0.715 7
0.716 0.817 8
0.818 0.919 9
Tab. 3. Intervals for the conversion of the original input data to the Saaty’s matrix values. Source: Authors.
130 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
The consistency of the Saaty’s matrix is a condition for the success factors evaluation
relevance. The matrix is consistent whether its consistency ratio (CR) is lower or equal to 0.1,
see Saaty and Vargas (2001) – this ratio is calculated by equation 3.
RI
CICR
(3)
The equation 4 expresses calculation of a consistency index (CI):
,1
max
n
nCI
(4)
where 𝜆𝑚𝑎𝑥 is the highest eigenvalue of the Saaty’s matrix (eigenvalue results from the
equation 𝑑𝑒𝑡(𝐴 − 𝜆𝐸) = 0). The random index (RI) is a tabular value which is determined by
the count of independent rows in the Saaty’s matrix. Consistency ratio values are presented in
tables 9-12 in the Appendix. All four mentioned tables indicate that all Saaty’s matrices
satisfy the consistency condition. This means that results will be relevant in terms of AHP
method’s constraints.
4.2 Determination of the order of variants
Local weights (wi) at each group are calculated in tables 9-12 (see the Appendix). It is
necessary to multiply the weight of n-th analyzed success factor by local weights of success
factors that are superordinate to this n-th success factor in the hierarchy1 to obtain global
weights (it means the evaluation from the perspective of the whole model structure). Results
are presented in table 4.
The respective management representatives provided also their opinion on all four possible
variants also from the same success factor point of view. The resulting preference opinions
were compared using simple pairwise Fuller’s triangles (as described also by Kampf, 2003) –
overall preference of each variant was gathered as a sum of the preferences of the variant
prior to any other within the scope of each success factor (table 5). Such data can then be
combined with results in previously calculated Saaty’s matrices. Values from table 5 were
then multiplied by local weights of the incident success factor to be able to evaluate variants
with regard to success factors weights (gained from Saaty’s tables).
The table 6 shows that it was possible to determine exact rank of each variant based on the
defined hierarchy of criteria and subcriteria (the proposed decision-making concept yields
meaningful results). A dominant variant can be clearly selected according to criteria weights
derived from the data. Values for subcriteria are the results of the multiplication of the global
weights (table 4) and appropriate numbers of preferences from the table 5. The selected part
of the DeLone and McLean’s model served as an appropriate and relevant framework for
deriving necessary success factors and solving the decision-making situation. Further research
and evaluation of the concept in the field of information system quality assessment is however
highly desirable. There are usually more success dimensions and measures of overall quality
of the information system (including also financial measures or business process performance
measures) which can largely enhance the concept – we see it as a next topic for our further
research.
1 Whether there are more super ordinate levels in the model, the n-th factor weight would be multiplied by all factor weights
from each of these levels.
131 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Another possibility of further evaluation of the concept is to use it in a more volatile situation
where more advanced concepts like fuzzy AHP or the analytic network process (i.e. using
multi-way relationships between dimensions) could be more useful. More possibilities of
applying the decision-making model can then viable, like software requirements definition
and prioritization.
The Fuzzy AHP approach was studied in Ding (2013) in a logistic decision-making situation.
The results of the paper indicate that replacing crisp values with fuzzy alternatives yields
better results when dealing with user opinions. It also indicates that the fuzzy related approach
is a good choice to think about if the applicability of our approach is to be extended. A
theoretical results indicating advantage of the fuzzy AHP method over traditional discrete
variant were also presented in Bajaj and Arora (2013). Although the decision-making
situation was very narrow in the paper the results show that the overall volatility of human
opinion based data is better to be assessed using fuzzy-based method. Similar solutions are
covered by another AHP method variant – the incomplete AHP (IAHP).
Our approach is also closer to requirements prioritization since the success factors can be
translated easily into requirements and prioritized in an almost same way. Voola and Babu
(2013) presented a novel approach (Extensive Numeric Assignment) which is used to
prioritize requirements mainly in agile projects which uses a similar framework of criteria.
Authors of the mentioned paper compare their solution with results obtained using more
traditional methods (including the AHP method). Their approach yielded better results than
the AHP method so there is a possibility of replacing the AHP method with Voola and Babu’s
approach. We wish to evaluate also this solution and compare results in our further research.
# Criteria/sub criteria/goal Local
(%)
Global
(%)
1. Goal 100.00 -
1.1. Information quality 47.21 47.21
1.2. System quality 44.43 44.43
1.3. Service quality 8.36 8.36
1.1.1. Relevance, accuracy and format 75.00 35.41
1.1.2. Completeness and recency of outputs 25.00 11.80
1.2.1. Reliability, flexibility, system performance, data quality and
structure
16.38 7.28
1.2.2. Security and existence of metadata 40.13 17.83
1.2.3. Accessibility and portability 9.74 4.33
1.2.4. Level of source data integration 33.75 14.99
1.3.1. Reliability and transparency of services, skills of service
teams
72.86 6.09
1.3.2. Quality of communication with service teams, involvement
of users during system changes
16.26 1.36
1.3.3. Quality and effectiveness of training services 10.88 0.91
Tab. 4. Calculated local and global ratios of criteria. Source: Authors.
132 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Criteria
Variants InfQ1 InfQ2 SysQ1 SysQ2 SysQ3 SysQ4 SerQ1 SerQ2 SerQ3
NEW_IH 2 2 2 2 3 3 2 3 2
NEW_V 1 1 0 0 1 1 1 0 0
ALTER 3 3 3 3 2 2 3 2 2
NO_CH 0 0 1 1 0 0 0 1 2
Tab. 5. Value of variants according to success factor and number of preferences gained by the Fuller’s triangles method. Source: Authors.
Variants
Subcriteria NEW_IH NEW_V ALTER NO_CH
InfQ1 0.708 0.354 1.062 0.000
InfQ2 0.236 0.118 0.354 0.000
SysQ1 0.146 0.000 0.218 0.073
SysQ2 0.357 0.000 0.535 0.178
SysQ3 0.130 0.043 0.087 0.000
SysQ4 0.450 0.150 0.300 0.000
SerQ1 0.122 0.061 0.183 0.000
SerQ2 0.041 0.000 0.027 0.014
SerQ3 0.018 0.000 0.018 0.018
Total 2.207 0.726 2.784 0.283
% 73.6 24.2 92.8 9.4
Rank 2 3 1 4
Tab. 6. Final variants’ ranks calculated using ratios of subcriteria. Source: Authors.
5 Conclusion
The aim of the paper was to present evaluation of a novel decision-making model concept
proposal. The model concept that takes into account the quality of currently used information
technology (BI system in this case) as perceived by its users. A part of the DeLone and
McLean’s information system success model was used to arrange the criteria and subcriteria
in a hierarchy; every higher level criterion was relative to a specific success dimension and
subcriterion to underlying success factors of each dimension. The evaluation of the concept
was made in the situation when a certain firm wanted to select one of possible options what to
do with their low performing BI system (perception of its quality aspects was taken into
account in the decision-making model). The AHP method has been selected to support the
model concept from the decision-making support point of view.
According to presented results, the selected part of the DeLone and McLean’s model proved
to be useful in the proposed decision-making framework. The possible use of the AHP
method together with the D&M model was then illustrated. A dominant variant was
133 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
successfully determined according to final ranks of each variant and based on the included
criteria and subcriteria. The proposed combination of the AHP method and the D&M model
can be assumed as theoretically as well as a practically applicable (in terms of the proposed
concept). Further evaluation, revision and enrichment of the concept is, however, viable. The
reason is that only deterministic, complete-information and have been assumed thus far in the
concept. Also, the use of other dimensions of the D&M model could be considered. That
would make the decision-making model concept more complete considering the purpose of
the whole D&M information system success model structure.
Acknowledgements
This paper was made with the financial support of the European Social Fund within the
project CZ.1.07/2.3.00/20.0296 and Student Grant Competition research project SP2012/184
“The analysis of data warehouse’s database schema modeling characteristics with a focus on
agile approach to Business Intelligence system development”.
References
Bajaj, P., & Arora, V. (2013) Multi-Person Decision-Making for Requirements Prioritization using Fuzzy AHP. ACM SIGSOFT Software Engineering Notes, 38(5), 1-6. doi: 10.1145/2507288.2507302
Barclay, C. (2008) Towards an integrated measurement of IS project performance: The project performance scorecard. Information Systems Frontiers, 10(3), 331-345. doi: 10.1007/s10796-008-9083-6
Costello, A. B., & Osborne, J. (2005). Best practices in exploratory factor analysis: four recommendations for getting the most from your analysis. Practical Assessment Research & Evaluation, 10(7). 1-9.
Chen, Ch.-D., & Cheng, CH.-J. (2009) Understanding consumer intention in online shopping: a respecification and validation of the DeLone and McLean model. Behaviour & Information Technology, 28(4), 335-345. doi: 10.1080/01449290701850111
DeLone, W. H., & McLean, E. R. (2004) Measuring Success: Applying the DeLone & McLean Information Systems Success Model. International Journal of Electronic Commerce, 9(1), 31-47.
DeLone, W. H., & McLean, E. R. (2003) The DeLone and McLean Model of Information System Success: A Ten-year Update. Journal of Management Information Systems, 19(4), 9-30. doi: 10.1080/07421222.2003
Ding, J.-F. (2013) Applying an Integrated Fuzzy MCDM Method to Select Hub Location for Global Shipping Carrier-based Logistics Service Providers. WSEAS Transactions on Information Science and Applications, 10(2), 47-57. doi: 10.1016/j.jclepro.2013.02.010
Duggan, E. W., & Reichgelt, H. (2006) Measuring information systems delivery quality. Hershey: Idea Group Publishing. doi: 10.2307/249419
Ergu, D., Kou, G., Peng, Y., Shi, Y., & Shi, Y. (2011) The analytic hierarchy process: task scheduling and resource allocation in cloud computing environment. The Journal of Supercomputing, 59(1), 1-14. doi: 10.1007/s11227-011-0625-1
Forman, E. H., & Saul, I. G. (2001) The Analytical Hierarchy Process - An Exposition. Operations Research, 49(4), 469-487.
Hočevar, B., & Jaklič, J. (2010) Assessing benefits of Business Intelligence systems – A case study. Management, 15(1), 87-119.
Kaiser, H. F. (1958) The Varimax Criterion for Analytic Rotation in Factor Analysis. Psychometrika, 23(3), 187-200. doi: 10.1007/BF02289233
134 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Kampf, R. (2003) Estimation Methods for Weight Criteria. Scientific Papers of the University of Pardubice: Series B - The Jan Perner Transport Faculty, 9, 255-261.
Karaarslan, N., & Gundogar, E. (2008) An application for modular capability-based ERP software selection using AHP method. The International Journal of Advanced Manufacturing Technology, 42(9-10), 1025-1033. doi: 10.1007/s00170-008-1522-5
Nelson, R. R., Todd, P. A., & Wixom, B. H. (2005) Antecedents of Information and System Quality: An Empirical Examination within the Context of Data Warehousing. Journal of Management Information Systems, 21(4), 199-235. doi: 10.1080/07421222.2005.11045823
Razavi, M., Aliee, F. S., & Badie, K. (2010) An AHP-based approach toward enterprise architecture analysis based on enterprise architecture quality attributes. Knowledge and Information Systems, 28(2), 449-472. doi: 10.1007/s10115-010-0312-1
Saaty, T. L. (2005) Analytic Hierarchy Process. Encyclopedia of Biostatistics, 2nd ed. New Jersey: John Willey. doi: 10.1002/0470011815.b2a4a002
Saaty, T. L., & Vargas, L. G. (2001) The Seven Pillars of the Analytic Hierarchy Process. Models, Methods, Concepts & Applications of the Analytic Hierarchy Process, 34. doi: 10.1007/978-1-4614-3597-6_2
Saaty, T. L. (1990) How to make a decision: the analytic hierarchy process. European Journal of Operations Research, 48(1), 9-26. doi: 10.1016/0377-2217(90)90057-I
Shin, B. (2003) An Exploratory Investigation of System Success Factors in Data Warehousing. Journal of the Association for Information Systems, 4, 141-170. doi: 10.3233/978-1-61499-289-9-861
Stair, R. M., & Reynolds, G. W. (2010) Information Systems Essentials, 5th ed. Boston: Course Technology.
Turban, E., Aronson, J. E., Liang, T-P., & Sharda, R. (2007) Decision support and Business Intelligence systems, 8th ed. New Jersey: Pearson Prentice Hall.
Voola, P., & Babu, A. V. (2013) Comparison of Requirements Prioritization Techniques Employing Different Scales of Measurement. ACM SIGSOFT Software Engineering Notes, 38(4), 1-10. doi: 10.1145/2492248.2492278
Wei, C.-C. (2007) Evaluating the performance of an ERP system based on the knowledge of ERP implementation objectives. The International Journal of Advanced Manufacturing Technology, 39(1-2), 168-181. doi: 10.1007/s00170-007-1189-3
Wixom, B. H., & Todd, P. A. (2005) A theoretical integration of user satisfaction and technology acceptance. Information Systems Research, 16(1), 85-102. doi: 10.1287/isre.1050.0042
Wu, J.-H., & Wang, Y.-M. (2006) Measuring KMS Access: A Respecification of the DeLone and McLean’s Model. Information & Management, 43, 728-739. doi: 10.1016/j.im.2006.05.002
Yeoh, W. (2010) Critical Success Factors for Business Intelligence Systems – Case studies in Engineering Enterprises. Saarbrücken: VDM Verlag.
135 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Appendix
Criteria Mean 1.1. 1.2. 1.3. 1.1.1. 1.1.2. 1.2.1. 1.2.2. 1.2.3. 1.2.4. 1.3.1. 1.3.2. 1.3.3.
1.1. 4.527 0 0.065 0.541
1.2. 4.461 neg 0 0.476
1.3. 3.985 neg neg 0
1.1.1. 4.642 0 0.231
1.1.2. 4.411 neg 0
1.2.1. 4.410 0 neg 0.176 neg
1.2.2. 4.645 0.235 0 0.411 0.089
1.2.3. 4.234 neg neg 0 neg
1.2.4. 4.556 0.146 neg 0.322 0
1.3.1. 4.391 0 0.612 0.508
1.3.2. 3.726 neg 0 neg
1.3.3. 3.839 neg 0.113 0
Tab. 7. The indication of factor preferences differences. Source: Authors.
Criteria 1. 1.1. 1.2. 1.3. 1.1.1. 1.1.2. 1.2.1. 1.2.2. 1.2.3. 1.2.4. 1.3.1. 1.3.2. 1.3.3.
1. 0 x x x x x x x x x x x x
1.1. x 1 1 6
1.2. x 1 1 5
1.3. x 1/6 1/5 1
1.1.1. x 1 3
1.1.2. x 1/3 1
1.2.1. x 1 1/3 2 1/2
1.2.2. x 3 1 4 1
1.2.3. x 1/2 1/4 1 1/3
1.2.4. x 2 1 3 1
1.3.1. x 1 6 5
1.3.2. x 1/6 1 1/2
1.3.3. x 1/5 2 1
Tab. 8. Calculated Saaty’s matrix. Source: Authors.
136 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
1.1. 1.2. 1.3. GA w(i)
1.1. 1 1 6 1.81712 0.47211
1.2. 1 1 5 1.70998 0.44427
1.3. 0.16667 0.2 1 0.32183 0.08362
λmax= 3.0037 ∑ 3.84893 1
CI = 0.00185 RI = 0.58
CR = 0.00318 N = 3
Tab. 9. Calculated Saaty’s matrix for the goal. Source: Authors.
1.1.1. 1.1.2. GA w(i)
1.1.1. 1 3 1.73205 0.75
1.1.2. 0.33333 1 0.57735 0.25
λmax = 2 ∑ 2.3094 1
CI = 0 RI = 0
CR = 0 N = 2
Tab. 10. Calculated Saaty’s matrix for the information quality dimension. Source: Authors.
1.2.1. 1.2.2. 1.2.3. 1.2.4. GA w(i)
1.2.1. 1 0.33333 2 0.5 0.75984 0.16383
1.2.2. 3 1 4 1 1.86121 0.40130
1.2.3. 0.5 0.25 1 0.33333 0.45180 0.09741
1.2.4. 2 1 3 1 1.56508 0.33745
λmax = 4.03098 ∑ 4.63793 1
CI = 0.01033 RI = 0.9
CR = 0.011474074 N = 4
Tab. 11. Calculated Saaty’s matrix for the system quality dimension. Source: Authors.
137 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
1.3.1. 1.3.2. 1.3.3. GA w(i)
1.3.1. 1 6 5 3.10723 0.72858
1.3.2. 0.16667 1 2 0.69336 0.16258
1.3.3. 0.2 0.5 1 0.46416 0.10884
λmax = 3.02906 ∑ 4.26475 1
CI = 0.01453 RI = 0.58
CR = 0.025051724 N = 3
Tab. 12. Calculated Saaty’s matrix for the service quality dimension. Source: Authors.
Infq_1: Is the presented information relevant to your job’s needs?
Infq_2: Is the acquired information relevant generally towards needs of managing operational
processes of organization?
Infq_3: Is the desired information clearly formulated?
Infq_4: Is the information comprehensibly presented on screen and properly formatted?
Infq_5: Do currently used BI tools produce accurate information?
Infq_6: Do currently used BI tools offer all the information you generally need do fulfill your
job’s tasks?
Infq_7: Do currently used BI tools offer timely information all the time?
Sysq_1: Is the performance of the BI tools satisfactory?
Sysq_2: Do currently used BI tools offer possibility to see the information in appropriate
detail?
Sysq_3: Are currently used BI tools flexible enough to satisfy new business requirements and
new business conditions?
Sysq_4: Do currently used BI tools react to commands, queries and requirements entered in
suitable time period?
Sysq_5: Is the information gained from the system based on quality data?
Sysq_6: Is the systems performance reliable without severe outages?
Sysq_7: Can you easily find data that you need to fulfill your job’s tasks?
Sysq_8: Are currently used BI tools appropriately secured against information abuse?
Sysq_9: Do currently used BI tools allow you to gain explanatory or complementary context?
Sysq_10: Is the information available according to transparent system of access
authorization?
Sysq_11: Is the information available at the time it is needed?
Sysq_12: Are currently used BI tools available using Internet or Intranet?
Sysq_13: Is the data from different parts of organization effectively combined so that it adds
138 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
value to your job’s tasks fulfillment?
Sysq_14: Do currently used BI tools contain information on parts of the organization that
were not easily accessible in earlier periods?
Serq_1: Are the services associated with the operation of BI tools provided quickly enough?
Serq_2: Are the services associated with the operation of BI tools provided in adequate
quality?
Serq_3: Are the services provided transparently?
Serq_4: Are service teams usually able to settle down problems associated with the operation
of BI tools?
Serq_5: Are you allowed to participate on changes in BI tools as a user?
Serq_6: Is your presence as a user required while making changes in BI tools?
Serq_7: Is the communication with the BI tools changes realization team effective enough?
Serq_8: Are the reason for changes explained sufficiently ahead of?
Serq_9: Are there BI tools usage training sessions arranged on a regular basis?
Serq_10: Do trainings include relevant and timely changes in BI tools?
Serq_11: Are trainings an asset to your everyday job’s tasks fulfillment?
Tab. 13. The description of original variables that are the source of data for the exploratory factor analysis.
Source: Authors.
139 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Acta Informatica Pragensia, 2015, 4(2): 140–153
DOI: 10.18267/j.aip.66
Peer-reviewed paper
140 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Míry kvality procesních modelů vytvořených v notaci BPMN
Measures of quality of process models created in BPMN
Radek Hronza*, Josef Pavlíček†, Pavel Náplava†
Abstrakt
Popis, dokumentace, vyhodnocování a korekce v průběhu klíčových procesů by měla být nezbytnou součástí strategického řízení každé organizace. Jelikož organizace žijí v dynamicky se měnícím prostředí, musí adaptovat své vnitřní procesy na změny trhu. Tyto procesy musí být však popsány. Jako vhodný způsob popisu se zdá být notace BPMN. V návaznosti na vytvoření procesních modelů následuje jejich kontrola, zda vykazují vlastnosti očekávané kvality. Tento proces kontroly může být podpořen nástroji (třeba i automatizovanými) založených na matematickém vyjádření kvalitativních charakteristik procesních modelů (tj. míry kvality procesního modelu). Právě takový nástroj (tj. systém procesních kontrol) se autorský kolektiv snaží navrhnout a zavést do praktického použití. Cílem tohoto článku je zmíněný nástroj, založený na mírách kvality procesních modelů, popsat a zodpovědět položené vědecké otázky.
Klíčová slova: Business process management, BPMN, procesní modelování, procesní modely, míry kvality procesních modelů.
Abstract
Description, documentation, evaluation and redesign of key processes during their execution should be an essential part of the strategic management of any organization. All organizations live in a dynamically changing environment. Therefore they must adapt its internal processes to market changes. These processes must be described. Suitable way of description could be BPMN notation. Right after description of processes via BPMN, processes should be controlled to ensure expected of their quality. System (which could be automated) based on mathematical expression of qualitative characteristics of process models (i.e. measures of quality of process models) can support mentioned process controls. Research team trying to design and get into practical use such a tool. The aim of this publication is description of mentioned system – based on measures of the quality of process models - and answer associated scientific questions.
Keywords: Business process management, BPMN, Business process modelling, Business process models, Measures of quality of process models.
* Department of Economics, Management and Humanities, Faculty of Electrical Engineering,
Czech Technical University in Prague, Zikova 4, 166 27 Praha 6 - Dejvice, Czech Republic
† Center for Knowledge Management, Faculty of Electrical Engineering, Czech Technical University in Prague,
Technická 2, 166 27 Praha 6 - Dejvice, Czech Republic
141 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
1 Úvod
Počátky procesního modelování zasahují již do počátku 20. století jako jeden z nástrojů pro
popis organizací a jejich klíčových činností (Jeston & Nelis, 2006; Jan Mendling, 2008; Řepa,
2012). V poslední době je však využíván také i v oblasti softwarového inženýrství při tvorbě
informačních systémů a při elektronizaci klíčových business procesů.
Již samotný princip popisu a dokumentování průběhu klíčových procesů organizace
prostřednictvím procesních modelů vychází z předpokladu, že zvýšení výkonnosti / efektivity
organizace vyžaduje zvýšit výkonnost / efektivitu business procesů. Jelikož nelze zlepšovat
to, čemu dokonale nerozumím a nechápu, je vhodné využít právě procesní modelování, jehož
prostřednictvím lze popsat všechny business procesy organizace. Tudíž klíčovým
a očekávaným výstupem procesního modelování je vytvoření jakési popisné dokumentace
business procesů organizace (například dle principů ISO norem řady 9000), která slouží pro:
• Seznámení se s průběhem procesu a veškerými detaily, které se k procesu váží.
o Například v době zástupů, nástupu nového zaměstnance, auditů, outsourcing,
apod.
• Podklad pro analýzu průběhu procesu a stanovení potřebných kroků pro jeho
přepracování z důvodu zastaralých metod, změn v legislativních požadavcích, nových
technologií, reorganizaci pracovišť, vylepšení výkonnosti a efektivity, apod.
o Řídit organizaci pomocí hesla „dokud to fungovalo doposud, tak to bude
fungovat i nadále bez potřeby jakýchkoliv změn“ je mnohdy zcestné a vede ke
ztrátě konkurenční výhody.
• Podklad pro stanovení a monitoring klíčových ukazatelů v definovaných částech
procesu či v celé organizaci. Ty je možné následně využít pro objektivní stanovení
nápravných opatření či vylepšujících změn v průběhu procesu.
• Podklad pro tvorbu zadávací dokumentace pro vývojáře informačních systémů či pro
možnost elektronizace procesů.
Výše zmíněné principy jsou základními prvky procesního řízení (známého jako business
process management. Více viz obrázek č. 1), který se v poslední době stále více dostává do
popředí. To ostatně potvrzuje i poslední aktualizace ISO norem řady 9000 (ISO, 2015), která
více staví na osvědčených principech procesního řízení. Případně i řada jiných publikací
(Jeston & Nelis, 2006; Řepa, 2012; Trkman et al., 2015).
142 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Obr. 1. Business process management. Zdroj: Autoři.
Není tedy pochyb, že vhodně navržené procesy, mohou značně usnadnit zajištění obchodních
cílů organizace. V malých a středně velkých firmách je složitost zajištění obchodních cílů
relativně nízká (samozřejmě toto tvrzení nelze brát doslovně). Tudíž je možné kvalitu návrhu
procesů relativně rychle rozpoznat. Naopak velké společnosti (například vysoké školy
univerzitního charakteru) mají procesy velmi komplikované a je náročné se v nich vyznat.
Též je velmi diskutabilní, zda návrh procesu je z hlediska jeho přínosu organizaci – tj.
zajištění obchodního cíle organizace, efektivní. Proto je v současné době možné vysledovat
trendy (procesní řízení, balanced scorecard, TQM, ISO normy řady 9000, apod.), které se
snaží tyto procesy „zefektivnit“.
Ať už se jedná o tvorbu procesních modelů za jakýmkoliv účelem, hlavním požadavkem je
odhalení všech chyb v návrhu co nejdříve. Čím později jsou chyby odhaleny, tím více vzniká
práce s jejich odstraněním.
Otázka kterou si klade autorský kolektiv je, zda existuje nějaká matematicky popsatelná vazba
mezi něčím tak relativním jako je „kvalita procesu“ a jak je možné ji kvantifikovat a následně
i ovlivnit. Již dříve autorský kolektiv prokázal, že zmíněná problematika byla již zkoumána
(Hronza et al., 2015). Cílem tohoto článku je na nalezené závěry navázat, problematiku dále
rozšířit a nalézt odpovědi na následující otázky:
1. Jsou nalezené míry kvality v procesním modelování vhodné pro procesní modely
vytvořené v notaci BPMN?
2. Pokud ne, lze vytvořit sadu měr kvality pouze pro procesní modely vytvořené v notaci
BPMN?
3. Jak tyto míry mohou ovlivnit výslednou kvalitu vytvořených modelů v notaci BPMN?
Obecně tedy dojde k sumarizaci výsledků v oblasti procesních měr a následného doporučení
jakým způsobem je možné ovlivnit tvorbu kvalitních procesních modelů v notaci BPMN.
143 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2 Tvorba procesních modelů
Dříve než přejdeme k problematice procesních měr, je vhodné blíže vysvětlit pojmy jako je
procesní model, modelovací jazyky pro tvorbu procesních modelů a jaké existují možnosti
v ovlivnění kvality procesních modelů.
2.1 Procesní model
Procesní model je strukturované grafické uspořádání informací o průběhu procesu (viz
obrázek č. 2), případně o vztahu mezi více procesy. Tím je „čtenáři procesního modelu“
umožněno pochopit všechny aktivity a souvislostí mezi nimi a zdroji zapojených do daného
procesu.
Obr. 2. Příklad procesního modelu v notaci BPMN. Zdroj: Autoři.
Nejdůležitější vlastnosti procesních modelů jsou především stručnost, jasnost, přesnost a
jeho grafická kvalita. Výsledná podoba procesního modelu je výsledkem práce procesního
konzultanta a je vždy silně ovlivněna jeho subjektivním vnímáním. Z toho důvodu je tvorba
procesních modelů nedeterministická činnost. A právě proto je nutné se zabývat činnostmi,
které do určité míry zajistí dosažení přijatelné úrovně intersubjektivity a zachování výše
zmíněných parametrů.
2.2 Modelovací jazyky pro tvorbu procesních modelů
Pro tvorbu procesních modelů (jinými slovy grafickou reprezentaci procesů) existuje celá
řada modelovacích jazyků. Jedná se například o:
Unified Modeling Language (UML) (OMG, 2008)
Business Process Model & Notation (BPMN) (OMG, 2014)
Event-driven Process Chain (EPC) (Scheer, Oliver, & Otmar, 2005)
Petriho sítě (Marsan et al., 1994)
Finite State Machine (FSM) (Wright, 2005)
Subject Oriented Business Process Management (S-BPM) (Fleischmann et al., 2012)
Yet Another Workflow Language (YAWL) (Hofstede et al., 2010)
Každý z modelovacích jazyků se do značné míry odlišuje a výsledné procesní modely mají
mnohdy odlišné charakteristiky. Jak již bylo řečeno v úvodu, v tomto článku se však omezíme
pouze na modelovací jazyk BPMN. Pokud tedy nebude řečeno jinak, vždy pod pojmem
„procesní model“ budeme mít v následujícím textu na mysli procesní model vytvořený
v notaci BPMN.
144 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2.3 Možné způsoby jak ovlivnit kvalitu procesních modelů.
Žádný, ani sebelepší, modelovací jazyk či nástroj sám o sobě nestačí ke tvorbě stručných,
jasných, přesných a graficky kvalitních procesních modelů. Je tedy potřeba se zabývat
možnými způsoby ovlivnění kvality procesních modelů. Pro tento účel existuje několik
způsobů:
SEQUAL Framework (Krogstie, Sindre, & Jørgensen, 2006; Lindland, Sindre, &
Solvberg, 1994)
The Guidelines of Modeling (GoM)
Quality Framework for conceptual modeling (ISO 9126 standard for software quality)
Seven Process Modeling Guidelines (7PMG) (Mendling, Reijers, & van der Aalst,
2010)
Míry kvality procesních modelů (Hronza et al., 2015)
Po bližším seznámení s těmito způsoby (především 7PMG) došel autorský kolektiv k faktu, že
ovlivnění kvality procesního modelu při jeho tvorbě je nutné rozdělit na dvě části:
1. Tvorba procesního modelu.
a. Procesní konzultant při tvorbě nejdříve vychází z pravidel / zásad / doporučení
pro modelování procesů. Mělo by se jednat o jakýsi metodický pokyn.
2. Ověření kvality modelu a případná realizace úprav.
a. Po vytvoření procesního modelu ověří procesní konzultant výslednou kvalitu a
rozhodne o případné potřebě úprav modelu tak, aby bylo dosaženo požadované
kvality.
Z několikaletých zkušeností autorského kolektivu je však patrné, že i přes sebedokonalejší
metodický pokyn dochází k opomenutí určitých doporučení a vznikají nekvalitní procesní
modely. Z toho důvodu je nutné vytvořit systém (jehož absenci doposud autorský kolektiv
pociťoval) pro ověření kvality včetně poskytnutí zpětné vazby na možné úpravy procesního
modelu. Jako vhodný nástroj se jeví právě zmiňované míry kvality procesních modelů.
3 Míry kvality procesních modelů
Jak již zaznělo v předchozí kapitole, dle dostupných vědeckých zdrojů je zřejmé, že klíčové
parametry procesních modelů (tj. stručnost, jasnost, přesnost a jeho grafickou kvalitu) lze
měřit a ovlivňovat právě díky mírám kvality procesních modelů. V této kapitole se tedy
seznámíme s existujícími mírami kvality procesních modelů a mírami, které autorský kolektiv
sestavil speciálně za účelem ovlivňování kvality procesních modelů vytvořených v
modelovacím jazyku BPMN.
3.1 Existující míry kvality procesních modelů
Identifikací existujících měr kvality procesních modelů se autorský kolektiv již v minulosti
zajímal a nalezl jich celou řadu (Hronza et al., 2015; Mach, 2015). Z těchto měr byl vytvořen
níže uvedený seznam měr roztřízených do příslušných kategorií z hlediska složitosti
procesního modelu (Conte, Dunsmore, & Shen, 1986).
1. Size
o Number of Activities (NOA)
o Number of Activities and Control-flow elements (NOAC)
145 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
o Number of Activities, Joins, and Splits (NOAJS)
2. Modularity
o Fan-in / Fan-out (Modularization)
o Maximum nesting depth
o Mean nesting depth
o Interface Complexity (IC)
3. Complexity
o Cognitive weight metric
o Control-flow Complexity (CFC)
o Halstead-based Process Complexity
o Coeficient of Network Complexity (CNC)
o Complexity Index (CI)
o Restrictiveness estimator
o Cyclomatic Number
4. Coupling
o Coupling
5. Cohesion
o Cohesion
Při bližší analýze však autorský kolektiv došel k názoru, že nalezené míry jsou mnohdy
uzpůsobeny potřebám konkrétního modelovacího jazyku a jejich použití pro procesní model,
vytvořený v jiném modelovacím jazyku není bez určitých úprav možný. Aby procesní míry
mohly být použity právě pro vyhodnocení stupně kvality procesního modelu v notaci BPMN,
je nutné provést určité korekce a vytvořit upravený seznam měr kvality procesních modelů.
3.2 Míry kvality procesních modelů v notaci BPMN
Na základě závěrů z předchozí kapitoly autorský kolektiv realizoval specifické úpravy (dle
teoretických a praktických zkušeností s tvorbou a identifikací chyb v procesních modelech
v notaci BPMN) a vytvořil tak nový seznam měr uzpůsobených pro notaci BPMN. Současně
došlo k přehodnocení kategorizace měr. Výsledkem je:
1. Velikost modelu (size of the model) - tento typ měr vyjadřuje velikost procesu. Jedná
se o nejzákladnější míry, jejichž hodnoty jsou mnohdy využity při výpočtu složitějších
měr. Je možné předpokládat, že velikost procesu přímo ovlivňuje jeho složitost. To
ostatně potvrzuje i jedno z doporučeních pro tvorbu srozumitelných procesních
modelů dle (Mendling et al., 2010). Veškeré pojmenování vycházejí z popisné
dokumentace notace BPMN dle (OMG, 2014).
a. Počet elementů modelu (number of elements) – vyjadřuje celkový počet
grafických objektů v modelu. Jedná se tedy o sumu všech níže uvedených měr.
i. Počet poolů (number of pools) – vyjadřuje celkový počet objektů typu
pool.
ii. Počet swimlanes (number of swimlanes. Též nazývaný jako number
of participants) – vyjadřuje celkový počet objektů typu swimlanes.
iii. Počet aktivit (number of activities) – vyjadřuje celkový počet objektů
typu aktivita / činnost.
1. Počet činností (number of tasks).
2. Počet podprocesů (number of subprocesses).
3. Počet externích činností (number of call activities).
146 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
4. Počet podprocesů typu událost (number of event.
Subprocesses).
5. Počet transakcí (number of transactions).
iv. Počet událostí (number of events) – vyjadřuje celkový počet objektů
typu událost.
1. Počet startovních událostí (number of start events).
2. Počet průběžných událostí (number of intermediate events).
3. Počet koncových událostí (number of end events).
v. Počet rozhodovacích bloků (number of gateways) – vyjadřuje celkový
počet objektů typu gateway.
1. Počet exkluzivních (XOR) rozhodovacích bloků (number
of exclusive gateway).
2. Počet inkluzivních (OR) rozhodovacích bloků (number
of inclusive gateway).
3. Počet paralelních (AND) rozhodovacích bloků (number
of parallel gateway).
4. Počet rozhodovacích bloků založených na událostech
(number of event based gateway)
vi. Počet informačních objektů (number of data) – vyjadřuje celkový
počet objektů informačního typu.
1. Počet dokumentů (number of data objects).
2. Počet externích skladů informací (number of data stores).
vii. Počet artefaktů (number of artifacts) – vyjadřuje celkový počet
objektů typu artefakt.
1. Počet poznámek (number of text annotation).
2. Počet ohraničujících objektů (number of groups).
viii. Počet propojovacích objektů (number of connecting objects)
– vyjadřuje celkový počet objektů, které se používají pro spojování
všech ostatních objektů v modelu. Propojovací objekty poskytují
kontext a pořadí ve vykonávání jednotlivých činností.
1. Počet sekvenčních propojení (number of sequence flow).
2. Počet informačních propojení (number of message flows).
3. Počet asociativních propojení (number of association flows).
4. Počet direktivně asociativních propojení (number
of directional association flows).
5. Počet podmíněných propojení (number of conditional flows).
6. Počet defaultních propojení (number of default flows).
b. Hloubka procesu (scale of depth) – vyjadřuje celkovou úroveň hloubky
procesu. Vyjadřuje tak z kolika úrovní podprocesů se zkoumaný proces skládá.
2. Složitost modelu (complexity of the model) - tento typ měr vyjadřuje složitost procesu
z pohledu možných průchodů procesem.
a. Složitost řídicího toku (CFC - Control Flow Complexity) – vyjadřuje počet
lineárně nezávislých cest v procesu. Často používaná míra pro stanovení počtu
testovacích scénářů průchodem procesu (Cardoso et al., 2006). Vzorec pro
výpočet:
147 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
ANDapa
AND
ORapa
OR
XORapa
XOR aCFCaCFCaCFCpCFC,,,
)()()()(
(1)
Doplňující informace ke vzorci:
CFCXOR(a) = Počet sekvenčních propojení vystupujících z daného exkluzivního
(XOR) rozhodovacího bloku. (2)
1 - 2 = (a)CFC ho_bloku)ozhodovacíniho(OR)_ro_inkluzivch_z_danehystupujiciropojeni_vvencnich_p(pocet_sek
OR (3)
1 = (a)CFCAND (4)
b. Složitost procesního modelu dle Halsteada (HPC - Halstead-based Process
Complexity) – tato míra je založena na mírách komplexity software. Pro účely
kvality procesních modelů jsou využívány níže uvedené vzorce dle (Cardoso et
al., 2006).
i. Doplňující vysvětlivky ke vzorcům:
1. n1 = počet unikátních rozhodovacích bloků.
2. n2 = počet unikátních informačních objektů.
3. N1 = celkový počet rozhodovacích bloků.
4. N2 = celkový počet informačních objektů.
ii. Délka procesu:
222121 loglog nnnnN (5)
iii. Rozsah procesu:
)(log)( 21221 nnNNV (6)
iv. Složitost procesu:
)/()2/( 221 nNnD (7)
3. Struktura modelu (structure of the model) – tento typ měr vyjadřuje kvalitu návrhu
designu vnitřní struktury elementů, které ovlivňují průchod procesem.
a. Hloubka rozhodovacího zanoření (nesting depth) – udává počet rozhodnutí,
které je nutné vykonat v průběhu vykonávání procesu (Kluza & Nalepa, 2012).
Vzorec pro výpočet:
ND = Počet exkluzivních (XOR) rozhodovacích bloků + Počet
inkluzivních (OR) rozhodovacích bloků + Počet rozhodovacích bloků
založených na událostech.
(8)
b. Složitost rozhraní (interface complexity) – míra udává složitost procesu
z pohledu jeho datových vstupů a výstupů (Henry & Kafura, 1981;
Thammarak, 2010).Vzorec pro výpočet:
2)__( vystupupocetvstupupocetDélkaIC (9)
Doplňující vysvětlivky ke vzorcům:
148 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
i. Délka procesu je závislá na znalosti struktury dílčích aktivit procesu.
Pokud se bude jednat o „black box“ aktivitu, délka bude vždy 1.
V opačném případě bude délka dané aktivity rovna jejímu počtu aktivit.
c. Počet koncových událostí v rámci swimlanes (number of end events within
swimlines) – udává celkový počet koncových událostí v rámci swimlanes.
d. Násobné využití rozhodovacích bloků v přímé návaznosti (multiple use of
decision blocks in direct response) – udává počet rozhodovacích bloků, které
jsou v přímé souvislosti.
e. Počet cyklů (number of cycles) – udává počet cyklů v rámci procesního
modelu.
f. Počet duplicitně zobrazených elementů (number of duplicated elements) –
udává celkový počet duplicitně zobrazených elementů v rámci procesního
modelu. Velmi častý problém, kdy vlivem nepozornosti jsou v modelu
duplicitně zaznamenány především swimlanes, události a aktivity. Tím dochází
ke zbytečnému zvětšování velikosti procesního modelu.
4. Srozumitelnost modelu (comprehensiveness of the model) – tento typ měr vyjadřuje
náročnost na pochopení modelu ze strany jeho uživatelů / čtenářů.
a. Míra srozumitelnosti (CW - cognitive weight) – udává úroveň náročnosti
pochopení řídicí struktury procesního modelu. Je založená na empirickém
výzkumu, díky kterému byla jednotlivým řídicím elementům přiřazena váha
srozumitelnosti. Tato míra vyjadřuje tedy sumu vah srozumitelnosti řídicích
elementů v modelu (Gruhn & Laue, 2006).
b. Míra složitosti propojení (CW - coeficient of network complexity) – vyjadřuje
náročnost porozumění modelu. Hodnotu této míry lze jednoduše vypočítat jako
počet hran (počet přechodů mezi aktivitami modelu) grafu podělený počtem
uzlů (počet aktivit modelu a řídicích elementů).
c. Míra výskytu nevhodných vzorů (rate of occurrence anti-patterns) –
vyjadřuje, do jaké míry se v procesním modelu vyskytují nevhodné návrhové
vzory.
d. Míra naplnění nezbytných informací (degree of fulfilment of the necessary
information) – vyjadřuje, do jaké míry jsou v procesním modelu obsaženy
všechny nezbytné informace. Jedná se především o následující:
i. Vlastník.
ii. Odpovědná osoba.
iii. Vstupy.
iv. Výstupy.
v. Textový popis.
5. Modulárnost modelu (modularization of the model) - tento typ měr vyjadřuje úroveň
modulárního designu procesů. Míry vycházejí z (Thammarak, 2010).
a. Míra využití daného procesního modelu (fan_in) – udává počet všech
procesů, které volají zkoumaný proces. Čím větší je hodnota této míry, tím je
pravděpodobnější, že se jedná o jednoduchý proces, který je vyžadován v
jiných částech procesu.
149 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
b. Míra využívání jiných procesních modelů (fan_out) – udává počet všech
procesů, které jsou volány ze zkoumaného procesu. Čím větší je hodnota této
míry, tím je pravděpodobnější, že se jedná o větší podproces, který ke své
správné funkcionalitě využívá celou řadu jednodušších procesů.
c. Míra modularizace (modularization) – míra je založená na předchozích dvou
mírách. Čím větší hodnota této míry je, tím bude náročnější tento proces
používat a pravděpodobně je nesprávně navrhnutý. Vzorec pro výpočet:
2)__( outfaninfantionModulariza (10)
4 Diskuze
Autorský kolektiv využil znalosti existujících měr kvality procesních modelů, doplnil je o
další atributy ovlivňující jejich kvalitu (mlhavost odpovědností, výskyt duplicitních objektů,
apod.) a vytvořil uzpůsobenou sadu procesních měr právě pro účely modelovacího jazyka
BPMN.
Je nutné uvést, že v této fázi výzkumu se však jedná pouze o první a spíše teoretický návrh,
který je nutné konfrontovat s realitou. Bude potřeba ověřit a identifikovat zejména:
Využitelnost navržených měr v praxi.
Ověření vzorců pro výpočty a doplnění chybějících vzorců.
Přípustné intervaly výsledných hodnot měr kvality BPMN procesních modelů tak,
aby mohlo být jasně řečeno, jaké hodnoty nesmí být překročeny.
o Především tato oblast je nejdůležitějším výstupem pro možnost využití
navržených měr v praxi.
Korelace hodnot mezi jednotlivými mírami a klíčovými parametry procesních
modelů.
Zda může vést určitá kombinace jednotlivých měr k vytvoření nových měr.
Jako nejlepší způsob se jeví kvalitativní test v laboratoři použitelnosti, kdy participantům
předložíme BPMN procesních modely a budeme zjišťovat uživatelské reakce a vnímání všech
klíčových vlastností procesních modelů (stručnost, jasnost, přesnost a jeho grafická kvalita),
které následně budeme korelovat s výsledky navržených měr kvality procesních modelů
v notaci BPMN.
Scénář kvalitativního testu je rozložen na studii:
Přehlednosti procesu – tj. zda je vybraný participant schopen proces (popsaných ve
formě BPMN procesního modelu) pochopit a za jak dlouho.
Adaptace na proces – tj. zda je participant schopen po určitém časovém intervalu (cca
10 min) schopen rozumět jiným procesům (popsaných ve formě BPMN procesního
modelu).
Kvalitativních charakteristik procesů – tj. co skutečně zkušeným participantům
v oblasti procesního modelování na procesech schází, co by navrhli doplnit a co
naopak ztěžuje jejich práci s nimi.
Takto provedený test bude opakován ve třech etapách. V každé etapě proběhne testování cca
10 na sobě nezávislých participantů. Procesy budou na základě každé etapy upraveny (tj.
vylepšeny a jiná sada současně úmyslně zesložitěna) tak, aby stanovená hypotéza, tj. míra
kvality, byla potvrzena či vyvrácena. Pokud se však alespoň částečně potvrdí naše empiricky
150 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
zjištěná hypotéza, tj. kvalitu je možné měřit a tak i kontrolovat, tak bude nalezen velmi účinný
nástroj pro kontrolu kvality procesního modelu.
5 Závěr
Jak bylo uvedeno výše, klíčovým a očekávaným výstupem procesního modelování je
vytvoření pomocné / popisné dokumentace procesů organizace. Postup tvorby procesních
modelů, aby je bylo možné opakovaně použít za daných podmínek a dojít k požadovaným
výsledkům, je třeba normalizovat. Tj. stanovit pravidla pro modelování a zavést kontrolní
mechanismy, které odhalí nekvalitní procesní modely a současně poskytnou potřebné
informace pro jejich opravu. Jinými slovy cílem je vytvořit nástroj (systém procesních
kontrol), založený na mírách kvality procesních modelů a uvést ho do praxe. Vhodným
příkladem mohou být principy ISO norem řady 9000, které slouží pro zajištění jakosti
požadovaného výsledku určité činnosti a výše uvedený princip vyžadují.
Cílem tohoto článku bylo nalézt odpovědi na výše uvedené tři otázky. Je tedy vhodné v tuto
chvíli shrnout nalezené odpovědi:
1. Jsou nalezené míry kvality v procesním modelování vhodné pro procesní modely
vytvořené v notaci BPMN?
Do určité míry ano. Problém však spočívá v tom, že nalezené míry jsou mnohdy
specifické pro konkrétní modelovací jazyk a na notaci BPMN je nelze aplikovat
(bez dodatečných úprav) přímo. Současně notace BPMN vykazuje mnohé
specifika, které zásadně ovlivňují kvalitu procesních modelů.
2. Pokud ne, lze vytvořit sadu měr kvality pouze pro procesní modely vytvořené v
notaci BPMN?
Požadovanou sadu měr nepochybně vytvořit lze. V tomto článku autorský kolektiv
navrhl seznam měr právě pro notaci BPMN. Je však nutné zmínit, že se jedná
pouze o první návrh, který doposud nebyl ověřen v praxi. Proto autorský kolektiv
doporučuje výsledný seznam měr konfrontovat s realitou prostřednictvím realizace
kvalitativního výzkumu v laboratoři použitelnosti ČVUT / ČZU dle výše
uvedeného postupu pro zajištění požadovaného cíle. Pokud to bude možné, mělo by
také dojít k návrhu tříd projektů a jím odpovídajících doporučení, které míry kvality
procesního modelu lze pro danou třídu použít.
3. Jak tyto míry mohou ovlivnit výslednou kvalitu vytvořených modelů v notaci
BPMN
Míry mohou ovlivňovat kvalitu přímo a nepřímo. Síla vlivu měr je závislá na řadě
faktorů. Během testu použitelnosti je nutné sledovat přímé vlivy (tj. například
snahu o co nejmenší množství vnoření procesů). Jejich dopad na kvalitu procesního
modelu zaznamenávat a výsledky konzultovat s tvůrci procesů a v případě potřeby
je znovu ověřit v laboratoři použitelnosti. Nepřímý vliv bude zkoumán formou
řízeného pohovoru po ukončení studie v laboratoři. Každý „participant“ (osoba
spolupracující na výzkumu formou tvůrce zadaných procesů) bude hovořit o
problémech při tvorbě procesu. Bude veden k označení největších problémů, které
musel vyřešit. Tato diskuse tak otevře možnost pochopení, zda zavedení některé
míry (typickou je hloubka vnoření) nepovede ke zbytečným stresům tvůrců
procesu. Stres se pak může projevit úmyslným zjednodušováním celkového návrhu.
Takový jev je zjevně negativní a měl by být eliminován.
151 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Výsledky měření použitelnosti měr povedou k finalizaci seznamu měr kvality procesních
modelů vytvořených v notaci BPMN. Finalizací seznamu bude následně možné vytvořit
automatizovaný nástroj, který může zkontrolovat kvalitu procesního modelu po jeho
vytvoření a tím jeho autorovi dát zpětnou vazbu / doporučení jak by měl být / mohl být
procesní model upraven. Nicméně již v tuto chvíli lze konstatovat, že nástroj pro kontrolu
kvality procesních modelů, založený na mírách kvality procesních modelů je rozhodně
realizovatelný, byť vyžaduje ještě další zkoumání formou kvalitativních testů.
Seznam použitých zdrojů
Cardoso, J., Mendling, J., Neumann, G., & Reijers, H. A. (2006). A Discourse on Complexity of Process Models (Survey Paper). In Business Process Management Workshops: Lecture Notes in Computer Science Vol. 4103 (pp. 117–128). doi: 10.1007/11837862_13
Conte, S. D., Dunsmore, H. E., & Shen, V. (1986). Software Engineering Metrics and Models. Redwood City: Benjamin-Cummings Publishing.
Fleischmann, A., Schmidt, W., Stary, C., Obermeier, S., & Börger, E. (2012). Subject-Oriented Business Process Management. Berlin: Springer.
Gruhn, V., & Laue, R. (2006). Adopting the Cognitive Complexity Measure for Business Process Models. In 5th IEEE International Conference on Cognitive Informatics (pp. 236 – 241). Beijing: IEEE. doi: 10.1109/COGINF.2006.365702
Henry, S., & Kafura, D. (1981). Software Structure Metrics Based on Information Flow. IEEE Transactions on Software Engineering, SE-7(5), 510–518. doi: 10.1109/TSE.1981.231113
Hronza, R., Pavlíček, J., Mach, R., & Náplava, P. (2015). Míry kvality v procesním modelování. Acta Informatica Pragensia, 4(1), 18–29. doi: 10.18267/j.aip.57
ISO. (2015). ISO 9001 Quality Management Systems – revision. Retrieved from http://www.iso.org/iso/iso9001_revision
Jeston, J., & Nelis, J. (2006). Business Process Management. London: Elsevier.
Kluza, K., & Nalepa, G. J. (2012). Proposal of square metrics for measuring Business Process Model complexity. In Federated Conference on Computer Science and Information Systems (pp. 919 – 922). Wroclaw: IEEE.
Krogstie, J., Sindre, G., & Jørgensen, H. (2006). Process models representing knowledge for action: a revised quality framework. European Journal of Information Systems, 15(1), 91–102. doi: 10.1057/palgrave.ejis.3000598
Lindland, O. I., Sindre, G., & Solvberg, A. (1994). Understanding quality in conceptual modeling. IEEE Software, 11(2), 42–49. doi: 10.1109/52.268955
Mach, R. (2015). Návrh a tvorba nástroje pro optimalizaci procesů na základě analýzy BPM modelů. Praha: FIT, ČVUT.
Marsan, M. A., Balbo, G., Conte, G., Donatelli, S., & Franceschinis, G. (1994). Modelling with Generalized Stochastic Petri Nets (1st ed.). West Sussex, England: John Wiley & Sons.
Mendling, J. (2008). Metrics for Process Models: Empirical Foundations of Verification, Error Prediction, and Guidelines for Correctness. Berlin: Springer.
Mendling, J., Reijers, H. a., & van der Aalst, W. M. P. (2010). Seven process modeling guidelines (7PMG). Information and Software Technology, 52(2), 127–136. doi: 10.1016/j.infsof.2009.08.004
OMG. (2008). Unified Modeling Language (UML). Retrieved from http://www.uml.org
OMG. (2014). Business Process Model & Notation (BPMN). Retrieved from http://www.omg.org/bpmn/index.htm
152 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Řepa, V. (2012). Procesně řízená organizace. Praha: Grada Publishing.
Scheer, A. W., Oliver, T., & Otmar, A. (2005). Process Modeling Using Event- Driven Process Chains. In Process-Aware Information Systems (pp. 119–146). Hoboken: John Wiley & Sons.
Ter Hofstede, A. H. M., Van Der Aalst, W. M. P., Adams, M., & Russell, N. (2010). Modern business process automation: YAWL and its support environment. Berlin: Springer.
Thammarak, K. (2010). Survey Complexity Metrics for Reusable Business Process. In 1st National Conference on Applied Computer Technology and Information System (pp. 18–22). Nonthaburi: ACTIS.
Trkman, P., Mertens, W., Viaene, S., & Gemmel, P. (2015). From business process management to customer process management. Business Process Management Journal, 21(2), 250–266. doi: 10.1108/BPMJ-02-2014-0010
Wright, D. R. (2005). Finite State Machines. Retrieved from http://www4.ncsu.edu/~drwrigh3/docs/courses/csc216/fsm-notes.pdf
153 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Acta Informatica Pragensia, 2015, 4(2): 154–173
DOI: 10.18267/j.aip.67
Peer-reviewed paper
154 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Mapování barev na typické případy užití ve webové aplikaci
Color Mapping on Common Use-Cases in a Web Application
Jiří Hradil*, Vilém Sklenák*
Abstrakt
Psychologie barev a její aplikace v softwaru je součástí širšího výzkumu, zabývající se ergonomií software. Software se v dnešní době stává rychlejší, chytřejší a komplexnější. Na druhou stranu roste množství aplikací, které lidé musí zvládnout. Uživatelské rozhraní a obecně veškerá komunikace člověka a stroje proto potřebuje neustále zjednodušovat. Jedním ze způsobů je těžit z vědomostí a zvyklostí, které již uživatelé mají. Software je třeba lidem přiblížit, třeba i cestou asociací konkrétních případů užití v aplikaci s barvami, které lidé znají a pro případy užití jim jsou z nějakého důvodu blízké. V článku se autoři snaží tyto asociace najít, popsat a definovat kroky pro další výzkum.
Klíčová slova: Software, barvy, mapování barev, psychologie barev, CRUD, webová aplikace, ergonomie.
Abstract
Psychology of Colors and its application in software is a part of a wider research related to Software Ergonomics. Nowadays, software tends to be faster, clever and even more complex. On the other side, the amount of applications, which people has to manage increases. However, user interface and all the communication between a man and a machine needs simplifying. One way how to do that is to dig into the knowledge and conventions, which users already have. Software needs to be brought near to the users maybe using the associations of the particular use-cases in the application with colors, which users already know and which are common to them. The research tries to find these associations, describe them and define the steps for the future research.
Keywords: Software, colors, color mapping, psychology of colors, CRUD, web application, ergonomics.
* Department of Information and Knowledge Engineering, Faculty of Informatics and Statistics, University of Economics,
Prague, nám. W. Churchilla 4, 130 67 Praha 3, Czech Republic
155 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
1 Úvod
Webové aplikace, jakožto software dostupný v Internetu prostřednictvím webového
prohlížeče, se stávají dominantním typem používaných aplikací, např. Microsoft Office
(2015) a Google (2015a). Typická webová aplikace komunikuje s uživateli prostřednictvím
odkazů a formulářových komponent – textových polí, zaškrtávacích políček (checkbox, radio
button) a tlačítek. Tyto komponenty umožňují přidávání, úpravu, prohlížení a mazání dat
v databázi, na kterou je aplikace běžně napojena.
Obecně lze časté případy užití nad daty v aplikaci shrnout do těchto základních typů:
vytváření či přidávání dat – Create
čtení či zobrazení dat – Read
úprava či aktualizace dat – Update
mazání dat – Delete
Uvedené 4 typy případů užití lze dle jejich počátečních písmen nazývat principem CRUD.
Vliv barev na psychologii člověka je předmětem mnoha publikací a výzkumů, viz Birren
(2013), Elliot a Maier (2014), Loffler (2014), Sherman a Clore (2009). Barvy, použité
v aplikacích ovlivňují psychologii a tedy i chování lidí stejně jako každé jiné prostředí,
kterého je člověk součástí. Nabízí se tedy otázka, zda lze vhodným použitím barev v aplikaci
lidem pomoci pracovat efektivněji, přesněji a nabídnout jim rozhraní, které bude barevně
intuitivní.
Spojíme-li uvedené problémové domény, tedy typické případy užití ve webových aplikacích
a psychologii barev, lze si položit otázku, zda lze tyto případy užití efektivně mapovat na
konkrétní barvy? Pokud prokážeme, že uživatelé některé barvy při používání přímo
očekávají, lze navrhovat aplikace tak, aby jejich používání bylo přímočaré, intuitivní,
rychlejší a z pohledu uživatelů, tedy lidí, přirozenější.
Kromě popsaného mapování barev na případy užití výzkum zahrnuje také testování, které
barvy jsou uživateli zvoleny jako nejvíce a nejméně oblíbené. Domníváme se, že může
existovat korelace mezi oblíbeností barvy a konkrétním případem užití.
Cílem článku je zjistit:
1. Které barvy jsou nejoblíbenější?
2. Které barvy jsou nejméně oblíbené?
3. Jaké je mapování barev na základní případy užití?
Subjektivně očekáváme, že ve vztahu k případům užití uživatelé zvolí následující kombinace:
Vytvoření záznamu – zelená barva, asociace s růstem v přírodě.
Smazání záznamu – červená barva, asociace s nebezpečím.
Také předpokládáme, že nejoblíbenější barva bude korelovat s případem užití pro vytvoření
záznamu na základě předpokladu „lidé rádi tvoří“ a nejméně oblíbená barva s případem užití
pro smazání záznamu na základě předpokladu „lidé neradi ničí“.
Tento výzkum je třeba chápat jako úvodní studii rozsáhlé problematiky použití barev ve
webových aplikacích. Zjištěné závěry nejsou finální a budou podpořeny dalším výzkumem,
používajícím jiné typy aplikací, případy užití či barevná schémata.
156 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2 Rešerše a výzkumné metody
Birren (2013) zkoumá barvy z několika různých kontextů. Zabývá se historickým hlediskem
barev, jejich původním významem a funkcí barev v různých kulturách. Následují biologické
aspekty barev (elektromagnetické vlnění, vliv barev na růst rostlin či diagnostika pomocí
barvy). Psychologické aspekty popisují emocionální reakce na barvy, asociace a analogie,
stejně jako vnímání barev z estetického hlediska. Vizuální aspekty a funkcionální barvy,
včetně doporučení barevných kombinací a nejčastější použití barev v situacích, ve kterých
jsou konkrétní barvy vnímány jako přirozené, dílo uzavírají.
Význam použití barev při komunikaci člověka a počítače HCI (Human-computer interaction)
zkoumá např. McNab (2009, str. 23), která konkrétně zmiňuje rozdílné vnímání barev
a psaného textu a uvádí, že použitím vhodných barev roste užitečnost aplikace.
V kontextu práce je vhodné také zmínit výzkum Gorn, G. J., Chattopadhyay, A., Sengupta, J.,
& Tripathi, S. (2004), který vnímání barev spojuje s vnímáním času uživatele, čekajícího na
zobrazení webové stránky. Cothran, D. L. and Larsen, R. (2008) dále potvrzují, že barvy jsou
obecně vnímány rychleji a přednostněji než psaný text. Souvislost mezi použitím barevného
pozadí vzhledem k čitelnosti textu zmiňují Hall, R. H., & Hanna, P. (2004).
Sherman a Clore (2009) asociují vnímání bílé a černé barvy jako boj dobra a zla. Protože jsou
tyto dvě základní barvy považovány za základní, byly přidány do základního barevného klíče
v testovací aplikaci. Bílá je také dle Birren (2013, str. 260) vnímána jako barva čistoty a černá
jako negativní. Elliot a Maier (2014) se věnují vnímání barev a jejich vlivu na psychologické
funkce u lidí. Popisují silné, až agresivní vnímání červené barvy jak u lidí, tak u zvířat, které
jsou schopny barvy rozlišovat (např. primáti). Agresivita červené zapadá do případů užití v
CRUD aplikaci pro akci „Smazání dat“ a její vliv v asociaci bude ověřen. Červená barva je
popisována jako barva neúspěchu a selhání. Znamená nebezpečí a je třeba používat ji velmi
opatrně, což uvádí Birren (2013, str. 258).
Rovněž Gnambs, T., Appel, M. and Oeberst, A. (2015) uvádí neochotu uživatelů používat
červenou barvu, kterou vnímají jako rizikovou. Moshe Zviran, Dov Te'eni, and Yuval Gross
(2006) zkoumají souvislost při použití konkrétní barvy v pozadí emailové zprávy a pozitivní
reakcí uživatele na tuto zprávu. Přímo uvádí manipulaci s emocemi uživatelů prostřednictvím
barev.
Loffler (2014) zmiňuje otázku, jak se liší barevné asociace dle zemí, ve kterých lidé žijí?
Geografické rozlišení uživatelů bude součástí dalšího výzkumu, mj. i z důvodu, že současná
identifikace uživatelů neumožňuje přesnější geografickou lokaci. Loffler (2014, str. 2) také
popisuje spojitost mezi barvami v jazyce a fyzikálními atributy, např. spojení „vymalovat v
těžkých barvách“.
Aplikace psychologie barev v softwaru není novinkou. Doporučení konkrétních barev a
předdefinovaných barevných komponent (tlačítek) ve vztahu k prioritám a případům užití je
součástí HTML, CSS a JavaScript frameworku Bootstrap (2015). Barva pro nejdůležitější
akci byla zvolena modrá a pro nebezpečnou akci červená, což je v souladu s Birren (2013, str.
258).
Obr. 1. Bootstrap – výchozí barvy tlačítek. Zdroj (Bootstrap, 2015).
157 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Barvy jsou také součástí standardů pro tvorbu webu. Jedním z nich jsou U.S. Web Design
Standards (2015), obsahující sadu komponent a doporučení pro tvorbu webu vládních
organizací v USA. Zvolné barvy však nejsou součástí hlubšího výzkumu – jak je na webu
uvedeno, byly zvoleny s ohledem na „American spirit“ a zjevně kopírují barvy americké
vlajky.
Tento standard neobsahuje doporučení pro konkrétní případy užití.
Obr. 2. U.S. Web Design Standards – primární barvy. Zdroj (U.S. Web Design Standards, 2015).
Obr. 3. U.S. Web Design Standards – sekundární barvy. Zdroj (U.S. Web Design Standards, 2015).
158 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Obr. 4. U.S. Web Design Standards – terciální barvy. Zdroj (U.S. Web Design Standards, 2015).
Obr. 5. U.S. Web Design Standards – barvy pozadí. Zdroj (U.S. Web Design Standards, 2015).
Obr. 6. U.S. Web Design Standards – barvy pro speciální stavy. Zdroj (U.S. Web Design Standards, 2015).
159 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Dalším standardem, obsahující definice barev, je Google (2015b). Uvedená doporučení se
však týkají pouze výběru primární a sekundární barvy, či barev doplňkových. Konkrétní
doporučení k případům užití, či určení priorit barev zde nenajdeme.
Obr. 7. Google Material design – barvy (zde pouze část pro ilustraci, kombinací je na webu více). Zdroj (U.S. Web Design Standards, 2015).
160 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2.1 Testovací aplikace a parametry testu
Pro účely testování a v souladu s cílem výzkumu byla vytvořena webová aplikace Colors
(Hradil, 2015). Aplikace byla vytvořena pouze pro účely testování s těmito parametry:
1. Všeobecně známý typ aplikace – aplikace by měla být uživatelům subjektivně známá
a pokud možno pravidelně používaná. Případy užití či procesy v aplikaci by nemělo
být třeba podrobně vysvětlovat.
2. Pracovní typ aplikace – z důvodu pozdější aplikace zjištěných poznatků zejména
v komerční či podnikové sféře by měla aplikace přinášet reálnou hodnotu, typicky
finančně směnitelnou. Tomuto kritériu nevyhovují zábavné typy aplikací, např.
sociální sítě, hry, apod.
3. Jednoduchost uživatelského rozhraní – na první pohled musí být zřejmé, jak se
aplikace ovládá.
Parametrům vyhovuje aplikace typu „Adresář kontaktů“ (Address Book), ve které lze CRUD
princip aplikovat velmi jednoduše a z pohledu uživatelů předvídatelně – kontakty lze
vytvářet, číst, upravovat a mazat. Aplikace byla vytvořena v anglickém jazyce z důvodu
budoucího využití i mimo Českou republiku. V dalším výzkumu budou osloveni také
zahraniční uživatelé.
Obr. 8. Colors & Typical Use Cases – aplikace pro testování uživatelů. Zdroj: (Hradil, 2015).
161 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2.2 Testovací skupina
První testovací skupinu tvoří studenti VŠE v Praze, absolventi kurzu 4IZ228 (Tvorba
webových stránek a aplikací), kteří byli prostřednictvím hromadného emailu požádáni
o vyplnění testu. Obecně je aplikace dostupná z Internetu a respondentem se v tomto případě
může stát kdokoli. Jednoznačná identifikace uživatelů v aplikaci neexistuje a následná
kategorizace zatím není možná (disponujeme pouze emailovou adresou respondenta).
Ztížená identifikace uživatele je však ve webových aplikacích typická a přesná data o sobě
může poskytnout jen uživatel sám. V případě vytvořené aplikace Colors (Hradil, 2015) se na
detaily ohledně identity uživatele neptáme, abychom je neodradili od samotného testování,
protože se domníváme, že s delším časem stráveným v aplikaci klesá ochota aplikaci/test
používat.
Jedná se o první testovací skupinu. Počet skupin a respondentů budeme postupně zvyšovat.
Výsledky tak mohou být upřesňovány.
Počet respondentů (testovacích uživatelů) 54
Časový interval testování (sběru dat) 4. 7. 2015 – 5. 10. 2015
Tab. 1. Počet respondentů a časový interval testování. Zdroj (autor, 2015).
2.3 Kritéria pro výběr barev – široký výběr
Z důvodu velké pestrosti a rozptylu možností použití barev bylo třeba najít klíč, podle kterého
lze zvolit barvy pro testovací otázky.
Kritéria výběru barev byla následující:
1. Pokrytí spektra barev – vybrané barvy by měly být dostatečně pestré z pohledu
výběru i zaujetí uživatele.
2. Malý počet barev – z důvodu potlačení výběru jemné nuance (odstínu) barev a také
nutnosti rychlého (subjektivního) výběru barvy uživatelem.
3. Potlačení subjektivity autora – klíč pro výběr barev je třeba zvolit externí, aby byla
potlačena možná preference barevných kombinací autora.
Zvoleným kritériím vyhovuje 12barevná hvězdice dle Blanc (1867), jejíž barvy byly
převedeny na RGB hodnoty.
162 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Obr. 9. Dvanáctibarevná hvězdice Charlese Blanca. Zdroj (Blanc, 1867).
Jak je z výběru zřejmé, chybí následující základní barvy:
bílá (white) – absolutní bílá s hodnotami rgb(255, 255, 255)
černá (black) – absolutní černá s hodnotami rgb(0, 0, 0)
Kromě černé a bílé považujeme za vhodné doplnit jejich kombinace, ideálně střední hodnoty.
Proto byly přidány další 2 barvy:
šedá (gray) – 50% hodnota mezi bílou a černou rgb(128, 128, 128)
stříbrná (silver) – 75% hodnota mezi bílou a černou (a tedy 50 % hodnota mezi
šedou a bílou) – rgb(192, 192, 192)
Uvedené 4 barvy byly doplněny do výběru a doplňují Blancovu 12barevnou hvězdici na
celkových 16 barev.
Název barvy RGB hodnota barvy
red rgb(255, 0, 0)
red-orange rgb(250, 59, 12)
orange rgb(247, 134, 9)
163 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
yellow-orange rgb(247, 175, 10)
yellow rgb(254, 255, 41)
yellow-green rgb(199, 233, 33)
green rgb(86, 165, 38)
blue-green rgb(21, 127, 195)
blue rgb(0, 38, 253)
blue-violet rgb(45, 0, 146)
violet rgb(113, 0, 159)
red-violet rgb(148, 0, 59)
white (extra color) rgb(255, 255, 255)
black (extra color) rgb(0, 0, 0)
gray (extra color) rgb(128, 128, 128)
silver (extra color) rgb(192, 192, 192)
Tab. 2. Široký výběr barev. Zdroj (autor, 2015).
2.4 Kritéria pro výběr barev – úzký výběr
Zvolená 12barevná dle Blanc (1867), resp. 16barevná paleta barev je příliš široká pro
testování 4 základních CRUD případů užití. Proto bylo nutné tento výběr zúžit a vybrat pouze
4 základní barvy pro testování.
Kritéria pro užší výběr barev:
1. Dostatečná pestrost – zvolené barvy by měly být subjektivně okamžitě rozlišitelné
mezi sebou.
2. Potlačení subjektivity autora – nejlépe zvolením externího klíče pro výběr.
3. Zúžení existujícího výběru – z důvodu jednotné metodiky by zvolené barvy měly být
podmnožinou předchozího (širokého) výběru.
Uvedeným kritériím vyhovuje známá trojkombinace RGB (červená, zelená a modrá barva).
Jako čtvrtá a doplňující barva byla zvolena žlutá. Přidání žluté barvy je subjektivní, avšak
z pohledu testu přijatelné.
V případě zelené, modré a žluté barvy se nejedná o jejich typické, maximální hodnoty (např.
zelená = rgb(0, 255, 0) a modrá=rgb(0, 0, 255) a žlutá=rgb(255, 255, 0)), ale jsou použity
barvy z palety dle Blanc (1867).
164 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Název barvy RGB hodnota barvy
red rgb(255, 0, 0)
yellow-orange rgb(247, 175, 10)
green rgb(86, 165, 38)
blue-green rgb(21, 127, 195)
Tab. 3. Úzký výběr barev, z palety dle Blanc (1867). Zdroj (autor, 2015).
2.5 Test 1 – subjektivní preference barvy
Otázka: Which of the following colors DO YOU LIKE the most?
Popis: Uživatel má vybrat 1 barvu, kterou subjektivně preferuje nejvíce.
Poznámka: Zobrazené pořadí barev je pro každý výběr náhodně změněno. Důvodem je
potlačení ovlivnění výběru barvy dle jejího pořadí. V dalším rozšíření budeme také testovat,
zda existuje vztah mezi volbou barvy a jejím pořadím ve výběru. Pokud by např. uživatelé
často volili první barvu, nebo jen barvy z prvního řádku, bylo by třeba test upravit.
Zdůvodnění testu: Zjištění, zda preference konkrétní barvy koreluje s výběrem podobné barvy
pro některý z případů užití ve webové aplikaci.
Obr. 10. Testovací otázka č. 1. Zdroj (autor, 2015)
2.6 Test 2 – subjektivní odmítnutí (záporná preference) barvy
Otázka: Which of the following colors DO YOU DON'T LIKE?
Popis: Uživatel má vybrat jednu barvu, kterou subjektivně preferuje nejméně (nemá ji rád).
Poznámka: Pořadí barev je pro každý výběr náhodně změněno. Důvodem je potlačení
ovlivnění výběru barvy dle jejího pořadí.
165 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Zdůvodnění testu: Zjištění, zda záporná preference konkrétní barvy koreluje s výběrem
podobné barvy pro některý z případů užití ve webové aplikaci.
Obr. 11. Testovací otázka č. 2. Zdroj (autor, 2015)
2.7 Test 3 – mapování barvy na přidání záznamu – Create
Otázka: This is your Address Book. Which button would you use to ADD a new contact?
Popis: Uživatel má vybrat, jakou barvu tlačítka by použil pro přidání záznamu.
Poznámka: Pořadí barev je pro každý výběr náhodně změněno. Důvodem je potlačení
ovlivnění výběru barvy dle jejího pořadí. V dalším rozšíření budeme také testovat, zda
existuje vztah mezi volbou barvy a jejím pořadím ve výběru. Pokud by např. uživatelé často
volili první barvu, nebo jen barvy z prvního řádku, bylo by třeba test upravit.
Zdůvodnění testu: Která z barev subjektivně asociuje přidání záznamu?
Obr. 12. Testovací otázka č. 3. Zdroj (autor, 2015)
166 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2.8 Test 4 – mapování barvy na čtení záznamu – Read
Otázka: This is your Address Book. Which button would you use to SHOW DETAILS of the
contact?
Popis: Uživatel má vybrat, jakou barvu tlačítka by použil pro čtení záznamu.
Poznámka: Pořadí barev je pro každý výběr náhodně změněno. Důvodem je potlačení
ovlivnění výběru barvy dle jejího pořadí.
Zdůvodnění testu: Která z barev subjektivně asociuje čtení záznamu?
Obr. 13. Testovací otázka č. 4. Zdroj (autor, 2015)
2.9 Test 5 – mapování barvy na úpravu záznamu – Update
Otázka: This is your Address Book. Which button would you use to EDIT the contact?
Popis: Uživatel má vybrat, jakou barvu tlačítka by použil pro úpravu záznamu.
Poznámka: Pořadí barev je pro každý výběr náhodně změněno. Důvodem je potlačení
ovlivnění výběru barvy dle jejího pořadí.
Zdůvodnění testu: Která z barev subjektivně asociuje úpravu záznamu?
Obr. 14. Testovací otázka č. 5. Zdroj (autor, 2015)
167 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2.10 Test 6 – mapování barvy na smazání záznamu – Delete
Otázka: This is your Address Book. Which button would you use to DELETE the contact?
Popis: Uživatel má vybrat, jakou barvu tlačítka by použil pro smazání záznamu.
Poznámka: Pořadí barev je pro každý výběr náhodně změněno. Důvodem je potlačení
ovlivnění výběru barvy dle jejího pořadí.
Zdůvodnění testu: Která z barev subjektivně asociuje smazání záznamu?
Obr. 15. Testovací otázka č. 6. Zdroj (autor, 2015)
3 Řešení a výsledky
3.1 Vyhodnocení testu 1 – subjektivní preference barvy
Název barvy RGB Počet
kladných
preferencí
Počet kladných
preferencí v %
Pořadí (1.-2.
místo)
black(extra color) rgb(0, 0, 0) 5 9,26
blue rgb(0, 38, 253) 10 18,52 2.
blue-green rgb(21, 127, 195) 14 25,93 1.
blue-violet rgb(45, 0, 146) 5 9,26
gray (extra color) rgb(128, 128, 128) 0 0,00
green rgb(86, 165, 38) 3 5,56
orange rgb(247, 134, 9) 1 1,85
red rgb(255, 0, 0) 0 0,00
red-orange rgb(250, 59, 12) 2 3,70
168 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
red-violet rgb(148, 0, 59) 3 5,56
silver(extra color) rgb(192, 192, 192) 2 3,70
violet rgb(113, 0, 159) 5 9,26
white(extra color) rgb(255, 255, 255) 0 0,00
yellow rgb(254, 255, 41) 0 0,00
yellow-green rgb(199, 233, 33) 2 3,70
yellow-orange rgb(247, 175, 10) 2 3,70
Celkem 54 100 %*
Tab. 4. Vyhodnocení testu 1. Zdroj (autor, 2015).
* Pozn.: součet je zaokrouhlen.
Závěr testu
Průměrné procentuální zastoupení každé barvy je 100/16 = 6,25 %.
Modrozelenou barvu preferuje 25,93 % uživatelů a modrou barvu 18,52 % uživatelů. Tyto
barvy lze vzhledem k jednoznačné převaze nad průměrem označit za preferované.
Modrozelená barva je ve zvoleném klíči odstínem modré barvy, lze ji tedy v souhrnu
považovat za modrou.
3.2 Vyhodnocení testu 2 – subjektivní odmítnutí (záporná preference) barvy
Název barvy RGB Počet
záporných
preferencí
Počet záporných
preferencí v %
Pořadí (1.-2.
místo)
black(extra color) rgb(0, 0, 0) 3 5,56
blue rgb(0, 38, 253) 7 12,96 1.
blue-green rgb(21, 127, 195) 0 0,00
blue-violet rgb(45, 0, 146) 1 1,85
gray (extra color) rgb(128, 128, 128) 2 3,70
green rgb(86, 165, 38) 1 1,85
orange rgb(247, 134, 9) 3 5,56
red rgb(255, 0, 0) 2 3,70
169 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
red-orange rgb(250, 59, 12) 4 7,41
red-violet rgb(148, 0, 59) 5 9,26
silver(extra color) rgb(192, 192, 192) 2 3,70
violet rgb(113, 0, 159) 5 9,26
white(extra color) rgb(255, 255, 255) 2 3,70
yellow rgb(254, 255, 41) 7 12,96 1.
yellow-green rgb(199, 233, 33) 6 11,11 2.
yellow-orange rgb(247, 175, 10) 4 7,41
Celkem 54 100 %*
Tab. 5. Vyhodnocení testu 2. Zdroj (autor, 2015).
* Pozn.: součet je zaokrouhlen
Závěr testu
Rovnoměrná procentuální distribuce všech barev je (100/16 = 6,25 %).
Jen 12,96 % uživatelů nemá subjektivně rádo modrou a žlutou barvu a 11,11 % uživatelů
nemá rádo žluto-zelenou barvu. Vzhledem k rozporu s výsledky prvního testu nelze z tohoto
testu vyvodit jednoznačné závěry.
3.3 Vyhodnocení testu 3 – mapování barvy na přidání záznamu – Create
Název barvy RGB Počet kladných
preferencí
Počet kladných
preferencí v %
Pořadí
blue-green rgb(21, 127, 195) 28 51,85 1.
green rgb(86, 165, 38) 19 35,19 2.
red rgb(255, 0, 0) 4 7,41 3.
yellow-orange rgb(247, 175, 10) 3 5,56 4.
Celkem 54 100 %*
Tab. 6. Vyhodnocení testu 3. Zdroj (autor, 2015).
* Pozn.: součet je zaokrouhlen
170 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Závěr testu
Modrou barvu spojuje 51,85 % uživatelů s přidáním záznamu. Lze tedy uvést, že pro případ
užití „Přidání záznamu“ je vhodné použít modrou barvu (z uvedené čtyřbarevné kombinace).
Jako druhou vhodnou barvu lze použít zelenou (35,19 % uživatelů).
3.4 Vyhodnocení Testu 4 – mapování barvy na čtení záznamu – Read
Název barvy RGB Počet kladných
preferencí
Počet kladných
preferencí v %
Pořadí
blue-green rgb(21, 127, 195) 23 43,40 1.
green rgb(86, 165, 38) 13 24,53 3.
red rgb(255, 0, 0) 3 5,66 4.
yellow-orange rgb(247, 175, 10) 14 26,42 2.
Celkem 53* 100 %**
Tab. 7. Vyhodnocení testu 4. Zdroj (autor, 2015).
* Pozn.: 1 uživatel na otázku neodpověděl
** Pozn.: součet je zaokrouhlen
Závěr testu
Modrou barvu spojuje 43,40 % uživatelů se čtením záznamu. Lze tedy uvést, že pro případ
užití „čtení záznamu“ je vhodné použít modrou barvu (z uvedené čtyřbarevné kombinace).
3.5 Vyhodnocení Testu 5 – mapování barvy na úpravu záznamu – Update
Název barvy RGB Počet kladných
preferencí
Počet kladných
preferencí v %
Pořadí
blue-green rgb(21, 127, 195) 8 15,38 3.
green rgb(86, 165, 38) 11 21,15 2.
red rgb(255, 0, 0) 8 15,38 3.
yellow-orange rgb(247, 175, 10) 25 48,08 1.
Celkem 52* 100 %**
Tab. 8. Vyhodnocení testu 5. Zdroj (autor, 2015).
* Pozn.: 2 uživatelé na otázku neodpověděli
** Pozn.: součet je zaokrouhlen
171 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Závěr testu
Žlutou barvu spojuje 48,08 % uživatelů s úpravou záznamu. Lze tedy uvést, že pro případ
užití „úprava záznamu“ je vhodné použít žlutou barvu (z uvedené čtyřbarevné kombinace).
3.6 Vyhodnocení Testu 6 – mapování barvy na smazání záznamu – Delete
Název barvy RGB Počet
kladných
preferencí
Počet kladných
preferencí v %
Pořadí
blue-green rgb(21, 127, 195) 1 2,13 3.
green rgb(86, 165, 38) 1 2,13 3.
red rgb(255, 0, 0) 42 89,36 1.
yellow-orange rgb(247, 175, 10) 3 6,38 2.
Celkem 47* 100 %
Tab. 9. Vyhodnocení testu 6. Zdroj (autor, 2015).
* Pozn.: 7 uživatelů na otázku neodpovědělo
** Pozn.: součet je zaokrouhlen
Závěr testu
Červenou barvu spojuje 89,36 % uživatelů se smazáním záznamu. Lze tedy uvést, že pro
případ užití „smazání záznamu“ je vhodné použít červenou barvu (z uvedené čtyřbarevné
kombinace).
4 Diskuze
Preferenci modré barvy v prvním testu lze potvrdit výzkumem H. J. Eysencka, odkazovaného
v Birren (2013, str. 177), který uvádí modrou barvu jako nejoblíbenější ve vzorku 21 060
respondentů. Také framework Bootstrap (2015) uvádí modrou barvu jako primární.
Otázka k diskuzi: Platí preference modré barvy globálně? Bude stejná na základě
geografického rozlišení (místa, ve kterém uživatel žije), pohlaví, věku, náboženského
vyznání či externích a environmentálních vlivů (počasí, teplota, tlak, politická situace)?
Původní očekávání, že přidání záznamu bude lépe vyjadřovat zelená barva (růst v přírodě) se
neprokázalo. Testování lze dále rozšířit na rozlišení těchto dvou barev pro další případy užití
či nasazením v jiném typu aplikace.
Otázka k diskuzi: Hrají subjektivní preference barvy (emoce) větší roli, než zkušenost
člověka, získaná empirickým pozorování okolního světa (příroda – růst – zelená)?
Birren (2013, str. 130) uvádí asociaci červené barvy se ztrátou, vzrušením a zvýšeným
svalovým tonusem. To potvrzuje i přiřazení červené barvy ke smazání záznamu (ztráta dat).
172 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Stejně tak červená barva je dle Birren (2013, str. 173) barvou obětování (a tedy i ztráty)
v římsko-katolickém obřadu, jak uvádí v části věnující se symbolice barev.
Rovněž Elliot a Mayer (2014) uvádějí spojitost červené barvy s agresí jak lidí, tak zvířat.
Pokud přijmeme fakt, že smazání záznamu znamená jeho zničení a tedy i agresi vůči datům,
dává použití červené barvy v tomto kontextu smysl. Vzhledem k provedeným testům a výše
uvedeným rešerším lze červenou barvu potvrdit jako vhodnou pro mazání záznamu
v hierarchii CRUD.
Otázka k diskuzi: Lze tento vzor chování a vztah k červené potlačit? Pokud ano, jakým
způsobem?
Nevýrazné výsledky v druhém testu (Subjektivní negativní preference barvy) přisuzuji
malému vzorku respondentů a velkému rozptylu barev. Obecně se negativní preference testují
obtížněji, než preference kladné (subjektivní pozorování). Dalším testováním se pokusím tyto
výsledky upřesnit.
Otázka k diskuzi: Má smysl pro další výzkum zjišťování negativních preferencí přímo?
Lze negaci vyvodit z pořadí preference, čili nepřímo?
5 Závěr
Dosavadní výsledky této úvodní studie na prvním vzorku respondentů lze shrnout následovně.
Předpoklad, že pro vytvoření záznamu uživatelé zvolí zelenou barvu, byl chybný. Nejčastější
barvou spojenou s vytvořením záznamu je modrá. Zatím se podařilo prokázat, že existuje
určitá korelace mezi nejoblíbenější barvou (modrá) a vytvořením záznamu (modrá). Modrou
barvu uvádí Birren (2013, str. 260) jako protiklad k červené. Pokud existuje protiklad mezi
modrou a červenou barvou, platí zde také pravidlo pro opačné případy užití, tedy modrou pro
vytvoření záznamu a červenou pro jeho smazání. Očekávání, že uživatelé pro smazání
záznamu použijí červenou barvu, bylo potvrzeno. Souvislost mezi nejméně oblíbenou barvou
a případem užití „smazání záznamu“ nebyla dosud prokázána.
Současné výsledky nelze použít pro všechny případy užití a typy aplikací. Na základě
provedeného výzkumu však lze nyní shrnout:
1. Modrá barva je vhodná pro případ užití „vytvoření záznamu“.
2. Subjektivní preference barvy (oblíbenost barvy) koreluje s případem užití „vytvoření
nového záznamu“.
3. Červenou barvu je vhodné použít pro případ užití „smazání záznamu“.
Výzkum v oblasti psychologie barev ve vztahu k softwaru bude dále pokračovat s obměnou
barevného klíče i typu aplikace. Výzkum bude také rozšířen o výzkum barevných kombinací
a jejich mapování nejen na typ aplikace či další případy užití. Pro přesnější výsledky je
zejména třeba zvýšit počet respondentů testovací aplikace, aby bylo možno vyvodit
jednoznačnější závěry. Rovněž zvážíme dopad přesnější identifikace uživatele a pokusíme se
provést lepší kategorizaci (věk, pohlaví, geografie). Jak bylo zmíněno, je třeba v tomto
případě postupovat velmi obezřetně, aby uživatelé byli stále ochotni testování dokončit.
Upozorňujeme také na skutečnost, že první testovací skupina byla tvořena studenty VŠE
v Praze – absolventy specializovaného kurzu v oboru, což může mít dopad na výsledky testů.
Psychologie barev je klíčovou částí výzkumu ergonomie software. Preference barev jsou do
značné míry subjektivní, což potvrzuje i výzkum popsaný v článku. Lze však najít vzory,
173 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
které jsou pro většinu uživatelů společné. Pokud tyto vzory následně aplikujeme při tvoření
softwaru, bude přirozenější a uživatelé jej budou vnímat lépe.
Zmíněnou subjektivitu vnímání, asociace a preference barev lze s výhodou využít i při
přizpůsobení (customization) softwaru pro každého uživatele či skupiny uživatelů zvlášť.
Software pak nemusí vypadat stejně pro všechny své konzumenty. I toto přizpůsobení
je jednou z možností, jak software lidem přiblížit.
Seznam použitých zdrojů
Birren, F. (2013). Color Psychology and Color Therapy: A Factual Study of the Influence of Color on Human Life. Eastford: Martino Fine Books.
Blanc, C. (1867). Grammaire des arts du dessin: architecture, sculpture, peinture. University of Lausanne. Reprinted by Nabu Press.
Bootstrap (2015). Bootstrap 3.3.5, 2015. Retrieved from http://getbootstrap.com/css/#buttons
Cothran, D. L. & Larsen, R. (2008). Comparison of Inhibition in Two Timed Reaction Tasks: The Color and Emotion Stroop Tasks. Journal of Psychology, 142(4), 373-385. doi: 10.3200/JRLP.142.4.373-385
Elliot, A. J. & Maier, M. A. (2014). Color Psychology: Effects of Perceiving Color on Psychological Functioning in Humans. Annual Review of Psychology 65, 95-120. doi: 10.1146/annurev-psych-010213-115035
Gnambs, T., Appel, M. & Oeberst, A. (2015). Red Color and Risk-Taking Behavior in Online Environments. PLoS One, 10(7). doi: 10.1371/journal.pone.0134033
Google (2015a). Google Docs. Retrieved from https://www.google.com/intl/en/docs/about/
Google (2015b). Google Material design. Retrieved from https://www.google.com/design/spec/style/color.html
Gorn, G. J., Chattopadhyay, A., Sengupta, J., & Tripathi, S. (2004). Waiting for the Web: How Screen Color Affects Time Perception. Journal of Marketing Research, 41(2), 215–225.
Hall, R. H., & Hanna, P. (2004). The impact of web page text-background colour combinations on readability, retention, aesthetics and behavioural intention, Behaviour & Information Technology, 23(3), 183-195. doi: 10.1080/01449290410001669932
Hradil, J. (2015). Software Ergonomics Testing Application. Test 3 – Colors & Typical Use Cases. Retrieved from https://hradil.vse.cz/colors
Loffler, D. (2014). Happy is pink: designing for intuitive use with color-to-abstract mappings. In: CHI '14 Extended Abstracts on Human Factors in Computing Systems, (pp. 323-326.). New York: ACM. doi: 10.1145/2559206.2559959
McNab, A. L. (2009). Designing Interfaces for Faster Information Processing: Experimental Studies of Color and Location as Information Cues in Customer Support and Emergency Response Systems. Ann Arbor: Washington State University
Microsoft Office (2015). Office 365 Business. Microsoft. Retrieved from https://products.office.com/en-us/business/office-365-business
Sherman, G., & Clore, G. (2009). The Color of Sin: White and Black Are Perceptual Symbols of Moral Purity and Pollution. Psychological Science, 20(8), 1019-1025. doi: 10.1111/j.1467-9280.2009.02403.x
U. S. Web Design Standards (2015). Retrieved from https://playbook.cio.gov/designstandards/
Zviran, M., Te'eni, D, & Gross, Y. (2006). Does color in email make a difference?. Communications of the ACM, 49(4), 94-99. doi: 10.1145/1121949.1121954
Acta Informatica Pragensia, 2015, 4(2): 174–181
DOI: 10.18267/j.aip.68
Peer-reviewed paper
174 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Modifikovaný Ishikawa diagram jako nástroj znalostního mapování agronomických postupů
Modified Ishikawa Diagram as a Tool
for Knowledge-Mapping of Agronomic Practices
Petr Kedaj*, Josef Pavlíček*
Abstrakt
V tomto článku bude popsána nově navržená metoda pro grafické zaznamenávání agronomických postupů pěstování kulturních plodin. V námi navržené metodě bereme v úvahu vliv počátečních faktorů, nutnost časové sledu jednotlivých úkonů a možnost využití těchto informací pro tvorbu znalostních bází. Dále zde budou popsány metody znalostního mapování: myšlenkové mapy, koncepční mapy a kognitivní mapy a metoda Ishikawa diagramu, z něhož námi navrhovaná metoda vychází. Zmíněné metody znalostního mapování byly následně kvalitativně konfrontovány s námi navrženou metodou. Výsledky tohoto šetření naznačují vysoký potenciál využitelnosti námi předložené metody v agronomii. V závěru tohoto článku navrhujeme další kroky pro zvýšení využitelnosti nově popsané metody.
Klíčová slova: Znalostní inženýrství, Znalostní mapy, Ishikawa diagram.
Abstract
This article describes a novel method of graphical representation of agronomic practices in crop production. The influence of initial factors, the need to follow a chronology of individual operations and the possibility of using this information for creating a knowledge base are all considered in the method designed. Consequently, alternate methods of knowledge mapping are described: Mind maps, conceptual maps, cognitive maps as well as Ishikawa diagram, which is the main inspiration for our method. These established methods of knowledge mapping have been confronted with the method proposed by our research team using a qualitative survey. Results of this study suggest a high potential of use of our method in agronomy. At the end of this article, we propose additional steps for possible improvements in usability of the method described.
Keywords: Knowledge Engineering, Knowledge Maps, Ishikawa Diagram.
* Department of Information Engineering, Faculty of Economics and Management,
Czech University of Life Sciences Prague, Kamýcká 129, 165 21 Praha 6, Czech Republic
175 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
1 Úvod
Dnešní dobu mnoho světových odborníků označuje termínem informační společnost, kdy
využívání informačních technologií se stalo nedílnou součástí každodenního života. Díky
tomu představuje množství informací a znalosti pro jejich zpracování a jejich správné
využívání jeden z klíčových faktorů pro úspěch v jakémkoli oboru. Agronomický sektor není
výjimkou. Avšak právě v českém agronomickém sektoru, není využívání informačních
technologií běžné.
Každý podnik, který se zabývá rostlinnou výrobou, musí mít ve svých řadách jednoho i více
lidí (agronomů), kteří mají dostatečné znalosti a zkušenosti s pěstováním různých plodin
a jejich odrůd. Na tyto lidi je kladen nesmírný tlak z hlediska rozhodování, protože každá
jejich volba přímo rozhoduje o budoucích příjmech nebo ztrátách podniku. Tento tlak je
ovšem možné do jisté míry redukovat právě vhodně využitými informačními technologiemi.
Hovoříme o systémech pro podporu rozhodování neboli o znalostních systémech.
1.1 Cíle výzkumného týmu
Cílem našeho výzkumného týmu byla kvalitativní konfrontace námi navrženého diagramu
s diagramy pro znalostní mapování popsanými v následující kapitole. Zmíněný cíl byl splněn
a jeho výsledky jsou popsány v tomto článku.
2 Rešerše a výzkumné metody
Znalostní inženýrství je podle (Mařík et al.,1997) jeden z klíčových vědních oborů spadajících
do problematiky umělé inteligence, který se zabývá veškerými aktivitami spjatými
s naplňováním znalostních systémů znalostmi. Znalosti jsou nejčastěji získávány od expertů
nebo induktivně odvozovány z datových souborů. Vytváření znalostní báze nikdy není
jednorázová akce, pokaždé se jedná o dlouhodobý proces získávání, jejich vyhledávání,
identifikace a kódování do příslušného tvaru přizpůsobeného inferenčnímu mechanismu.
Při tvorbě znalostní báze je nezbytná spolupráce mezi znalostním inženýrem a expertem
v daném oboru a to i v případech, kdy se znalosti získávají prostřednictvím indukce
z datových souborů. V rámci této spolupráce jsou často využívány znalostní mapy (Gordon,
2000), které mohou být použity jako nástroj pro objevování a získávání znalostí. Znalostí
mapy jsou děleny na tři základní typy (Gordon, 2000): myšlenkové mapy, koncepční mapy
a kognitivní mapy. O využití znalostního mapování v agronomii se zmiňuje i zdroj (Brožová
et al., 2008).
2.1 Myšlenkové mapy
Myšlenkové mapy jsou diagramem, který se používá pro reprezentaci slov, myšlenek či
poznatků provázaných a rovnoměrně umístěných okolo klíčového slova nebo myšlenky.
Myšlenkové mapy se běžně využívají k zobecňování, strukturování, klasifikaci myšlenek,
studiu, organizaci, řešení problémů a tvorbě rozhodování (Buzan, 1996). Tento nástroj v sobě
skýtá řadu nevýhod a hodí se spíše pro prvotní proces získávání znalostí. Mezi tyto nevýhody
se může například řadit redundance dat, chaotičnost ve struktuře. Problematika užití
myšlenkových map v praxi byla řešena naším týmem v (Kedaj et al., 2014) a je i popsána ve
zdroji (Mildeová, 2013).
176 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
2.2 Koncepční mapy
Koncepční mapa neboli koncepční diagram je podle (Novak & Cañas, 2006) grafický nástroj
pro zaznamenání vztahů mezi pojmy. Tento nástroj běžně používají designéři, znalostní
inženýři, tvůrci technických dokumentací k uspořádání a strukturování znalostí. Koncepční
mapa reprezentuje nápady a informace jako boxy nebo kruhy, které spojuje s orientovanými
šipkami do stromově orientované hierarchické struktury. Vztahy mezi pojmy je možné
vyjádřit prostřednictvím spojujících frází.
2.3 Kognitivní mapy
Šubrt et al. (2010) popisují kognitivní mapy jako pro evidování mentálních procesů složených
ze sekvencí psychologických transformací, které může jedinec získat, kódovat, ukládat a
odvozovat, které jsou součástí každodenního života.
Dále v tomto samém zdroji je uveden poznatek o Edwardu C. Tolmanovi (1948). Kognitivní
mapy byly studovány pro mnoho oborových celků jako například pro: psychologii,
vzdělávání, archeologii, plánování, geografii a management.
Kognitivní mapa reprezentuje osobní koncepty jako body a kauzální vazby mezi těmito
koncepty a jsou reprezentovány prostřednictvím orientovaných šipek mezi jednotlivými body.
(Hwang & Lin, 1987)
2.4 Ishikawa diagram
Podle zdroje (Lévay, 2007) je Ishikawa diagram neboli diagram příčin a následků, nástroj pro
řešení úloh pro určení pravděpodobné příčiny problému. Je používán například při
brainstormingu, během nějž jsou hledány všechny potenciální zdroje problému. Při
sestavování diagramu tvoří problém hlavu pomyslné rybí kosti a hlavní kosti vedoucí od
páteře znamenají oblasti či kategorie, ve kterých se může problém nacházet. Vedlejší kosti
pak znamenají konkrétní potenciální příčiny. Takto lze diagram vést ve více úrovních příčin a
podpříčin. Obvykle se však doporučuje použít nejvýše 2 úrovně.
3 Řešení a výsledky
Hlavním cílem našeho výzkumného záměru bylo navření přehledného a jednoduchého
diagramu, který bude sloužit jako zdroj dat, informací i znalostí pro obor znalostního
inženýrství a zároveň jako nástroj pro zaznamenávání metodik z oboru rostlinné výroby.
3.1 Vznik a popis nově navržené metody
Pro modelování znalostí a postupů v agronomii jsme původně zvolili dvojici metod: metodu
myšlenkových a koncepčních map, jak doporučoval informační zdroj (Šubrt et al., 2010).
Zvolením těchto metod jsme narazili na dva zásadní problémy:
přílišná komplikovanost s vyjádřením časové závislosti,
nepřehlednost a nejasnost těchto map jak pro agronomického pracovníka, tak pro
znalostního inženýra.
Z toho důvodu náš výzkumný tým začal nahlížet na problematiku agronomických postupů
z jiné perspektivy. Agronomický postup pro nás představoval sekvenci úkonů, kde výsledek
je přímo závislý na předchozích technologických vstupech a na počátečních faktorech. Z toho
důvodu jsme se rozhodli využít metody Ishikawa diagram, který se běžně používá pro
177 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
identifikaci příčin a následků. Tento typ diagramu jsme modifikovali do formy pro
zaznamenávání agronomických postupů tím, že jsme jej zkombinovali s metodou
myšlenkových map, přidali časovou osu a zaměnili vnitřní části diagramu rybí kosti pro
specifickou problematiku záznamu agronomických postupů. Navržená metoda tedy
představuje grafickou analogii diagramu rybí kosti zkombinovanou s metodou pro znalostní
mapování. Modifikovaný Ishikawa diagram je znázorněn na obr. 1. a jeho praktické použití
demonstrováno na obr. 2.
Obr. 1. Obecné znároznění naší metody. Zdroj autoři
Zkratka Význam
1 F1-Fn Množina počátečních faktorů
2 T0-Tn Týdny od zasetí po sklizeň
3 C1-Cn-1 Kontroly provedené v příslušných týdnech
4
5
6
7
I1-In-1
A
V
R1-Rn
Technologické vstupy
Atributy
Průměrné hodnoty z měření
Množina výsledků
Tab. 1. Vysvětlení zkratek z obr. 2. Zdroj Autoři.
Tento modifikovaný diagram je možné rozdělit na tři stěžejní části:
Počáteční stav (obr. 1. rámec č. 1) slouží k evidenci počátečních faktorů, jako jsou
například: úprava půdy, datum setí, odrůda plodiny, typ hnojení, typ půdy, nadmořská
výška a podobně. Tyto faktory jsou neměnné v rámci celé metody pěstování dané
plodiny (pokud je něco vyseto nebo aplikováno, není možné to vzít zpět).
Sekvence úkonů (obr. 1. rámec č. 2) představuje časovou osu složenou z relevantních
dat. Každému datu je možné přiřadit dvě na sobě nezávislé operace: kontrola a
prostředek. Operace kontrola (nad časovou osou) má za účel evidovat průměrné
hodnoty atributů daných plodin ve vybraných týdnech. Těmito hodnotami mohou být
178 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
například: délka kořene, délka nadzemní části rostliny, průměr kořenového krčku,
počet listů, délka listů a podobě (Bečka et al., 2014). Operace prostředek (pod časovou
osou) představuje technologický zásah do porostu jako například: postřiky proti
negativním faktorům, přihnojení, regulace a podobně.
A v poslední řadě koncový stav (obr. 1. rámec č. 3) představuje reálné výsledky při
sklizni. Mezi tyto výsledky se bude řadit: výnos na hektar, vlhkost, podíl oleje,
hmotnost tisíce semen a podobně. Výsledné hodnoty jsou přímo vázané na počátečním
stavu a na posloupnosti aplikací prostředků vzhledem k času.
Zdůvodnění charakteru dat v metodě:
Data by bylo možné reprezentovat i intervalově podle naměřených hodnot ale vzhledem
k tomu, že tato metoda je cílena i pro agronomické pracovníky, kteří pracují spíše
s průměrnými hodnotami než intervaly, byly inputové vazby brány jako pevná data
průměrných hodnot měření v kostře grafu.
Outputy jsme brali opět jako konkrétní hodnoty (reálné a naměřené hodnoty při sklizni).
Jme obeznámení se skutečností, že v průběhu vegetačního cyklu hráli významnou roli
i jiné faktory, které nejsou zaznamenávány prostřednictvím této metody (srážky, teplota,
vítr a jiné), ale jsou k dispozici na jiných zdrojích. Tato metoda primárné slouží pro
zaznamenávání již nastalé skutečnosti, nikoliv k prognostice. Z toho důvodu pracujeme
s absolutními hodnotami.
Obr. 2. Intenzitní metoda pěstování řepky ozimé. Zdroj Autoři.
179 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
3.2 Vyhodnocení z hlediska použitelnosti v praxi
Prvním naším cílem byla konfrontace již existujících metod z problematiky znalostního
mapování. Tato konfrontace byla provedena agronomy formou bodového hodnocení
charakteristik použitelnosti vymezených ve SQuaRE. Pro volbu této metody jsme byli
inspirováni hodnocením použitelnosti Jakoba Nielsena (Nielsen, 1996).
S hodnocením souhlasilo 29 z 65 oslovených agronomických expertů (náš znalostní inženýr
osobně cestoval na zemědělské podniky, vedl rozhovory s agronomy, kteří následně
přiřazovali metodám body). Agronomové přiřazovali body od 1 do 5 na každou
charakteristiku vzhledem k agronomické praxi. V tab. 2 jsou uvedeny četnosti pro přidělené
body jednotlivým charakteristikám použitelnosti pro jednotlivé metody.
Z konfrontace metod je patrné, že náš Modifikovaný Ishikawa diagram celkově dosahoval
nejlepších hodnocení pro přímé využití v praxi a to přímo od cílové skupiny expertů
v agronomickém sektoru.
Charakteristika Metoda 5 bodů 4 body 3 Body 2 body 1 bod
Srozumitelnost Naše metoda 2 10 8 6 3
Myšlenkové mapy 0 5 9 9 6
Koncepční mapy 0 4 11 8 6
Kognitivní mapy 0 3 8 11 7
Naučitelnost Naše metoda 2 6 14 7 0
Myšlenkové mapy 3 8 13 5 0
Koncepční mapy 0 3 9 11 6
Kognitivní mapy 0 2 9 11 7
Provozovatelnost Naše metoda 0 9 11 4 5
Myšlenkové mapy 0 3 9 12 5
Koncepční mapy 0 4 9 9 7
Kognitivní mapy 0 1 7 12 9
Atraktivnost Naše metoda 3 9 10 4 3
Myšlenkové mapy 2 12 11 3 1
Koncepční mapy 0 4 9 12 4
Kognitivní mapy 0 1 8 14 6
Tab. 2. Četnosti bodového hodnocení. Zdroj Autoři.
4 Diskuse
Na základě výsledku konfrontace metod, kdy se ukázalo, že Modifikovaný Ishikawa diagram
může představovat použitelný nástroj pro agronomickou praxi, náš výzkumný tým začal řešit
další dílčí cíle výzkumného záměru. Druhým dílčím cílem je formalizovat Modifikovaný
Ishikawa diagram do formy tisknutelných šablon a využít jej jako zdroj dat, informací a
znalostí pro tvorbu znalostní báze plánovacího expertního systému.
Třetí dílčí cíl představuje vytvoření funkční aplikace pro agronomy, která bude plnit funkci
pro záznam postupu pěstování a navíc bude schopna doporučovat metodu pro získání určitého
množství požadovaného výstupu (výnos, vlhkost, množství oleje…). Tato aplikace bude mít
za úkol doporučovat postupy pěstování, které v minulých letech vedly ke konkrétním
180 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
výsledkům. V rámci tvorby aplikačního prototypu uvažujeme o třech přístupech k tvorbě
doporučení. První přístup zahrnuje provedení shlukové analýzy na datech a prostřednictvím
této analýzy identifikovat meze intervalů pro jednotlivé shluky a vytvořit datový soubor IF
THEN pravidel pro metody pěstování. Druhý přístup zahrnuje zkonstruování neuronové sítě,
která dokáže kategorizovat měřená data na základě dat z předchozích let a poskytovat
informace o čase a nezbytném dalším kroku pro maximalizaci výsledků metody. Třetí přístup
zahrnuje sestavení vektorů dat a prostřednictvím metody nejbližšího souseda vyhledávat
podobné (ideálně totožné) vektory dat z let minulých a na základě této podobnosti
doporučovat či nedoporučovat kroky z metody pěstování.
Před tím, než náš výzkumný tým přistoupí ke tvorbě funkční aplikace, je nutné zvolit
optimální přístup z výše zmíněných. Pro tuto volbu je nezbytné testovat jednotlivé přístupy na
obsáhlém zdroji dat. Každý zmíněný přístup v sobě zahrnuje problematiky, které budou
zapotřebí řešit, aby aplikace pro agronomy dospěla svého zdárného vytvoření a zprovoznění.
5 Závěr
První dílčí cíl již byl splněn a výsledky konfrontace jsou uvedeny v tomto článku. Díky této
skutečnosti námi navrhovaná metoda z hlediska použitelnosti vychází jako nástroj, který by
bylo možné uplatnit v agronomické praxi. Bere v úvahu relevantní vliv počátečních faktorů a
společně se sekvencí jednotlivých úkonů představuje metodický vektor vedoucí k určitým
výsledkům.
Tým autorů pracuje na softwarovém produktu určeném pro agronomy, který by bylo možno
provozovat jako aplikaci na mobilním zařízení, tabletu a notebooku. Jednotlivé kroky tvorby a
možnosti využití aplikace budeme dále publikovat. Současně se softwarovým produktem
připravujeme i vhodné šablony (ve formátu PDF), které sníží náklady na vytvoření znalostní
báze na minimum. V agronomickém sektoru se z řady logických důvodů stále využívá tužka a
papír. Proto je i formalizace diagramu do formy tisknutelných šablon (a jejich případného
strojového zpracování) dalším krokem výzkumu našeho týmu.
Seznam použitých zdrojů
Bečka, B., Bokor, P., Vašák, J. & Béreš, J. (2014). Výsledky odrůdových pokusů s řepkou ozimou v roce 2013/2014 na slovensku. In Prosperující olejniny 2014, (pp. 17-20). Praha: ČZU.
Brožová, H., Šubrt, T. & Bartoška. J. (2008). Knowledge maps in agriculture and rural development. Agricultural Economics, 54(11), 546–553.
Buzan, T. (1996). The Mind map book: How to Use Radiant Thinking to Maximize Your Brain's Untapped Potential. London: Penguin books.
Gordon, J. L. (2000). Creating knowledge maps by exploiting dependent relationships. Knowledge-based systems, 13(2-3), 71-79. doi: 10.1016/S0950-7051(00)00048-4
Hwang, C. L., & Lin, M. J. (1987). Group decision making under multiple criteria: methods and applications. Berlin: Springer.
Kedaj P., Pavlíček J. & Hanzlík, P. (2014). Effective Mind Maps in E-learning. Acta Informatica Pragensia, 3(3), 239–250. doi: 10.18267/j.aip.51
Lévay, R. (2007). Diagramy příčin a následků. Retrieved from http://www.ikvalita.cz/tools.php?ID=26
Mařík, V., Štěpánková, O., & Lažanský, J. (1997). Umělá inteligence 2. Praha: Academia Praha.
Mildeová, S. (2013) Research Problem Description and Definition: From Mental Map to Connection Circle. Journal on Efficiency and Responsibility in Education and Science, 6(4), 328-335. doi: 10.7160/eriesj.2013.060409
181 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Nielsen, J. (1996). Usability metrics: Tracking interface improvements. IEEE Software, 13(6), 12-13.
Novak, J. D., & Cañas, A. J. (2008). The theory underlying concept maps and how to construct and use them. Technical Report IHMC CmapTools 2006-01 Rev 2008-01. Pensacola: Institute for Human and Machine Cognition.
Šubrt, T. et al. (2010). Mastering knowledge. Praha: Alfa Publishing.
Tolaman, E. C. (1948). Cognitive maps in rats and men. Psychological Review, 55(4), 189-208. doi: 10.1037/h0061626
Acta Informatica Pragensia, 2015, 4(2): 182–200
DOI: 10.18267/j.aip.69
Perspective
182 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Predátorští vydavatelé s otevřeným přístupem k obsahu a další nebezpečí pro současnou vědeckou komunitu
Predatory Open Access Publishers
and other Dangers to Today’s Scientific Community
Zdeněk Smutný*, Václav Řezníček*
Abstrakt
Cílem tohoto příspěvku je představit souhrnné informace a aktuální stav problematiky predátorských vydavatelů a kriticky diskutovat obecné predátorské chování a vybraná související témata v českém i mezinárodním kontextu. V článku jsou přehledně uvedeny výstupy prvních zahraničních studií zabývajících se predátorskými vydavatelstvími a časopisy. Zjišťujeme, že ačkoli je v posledních třech letech problematika predátorství aktivně řešena v zahraničí, české vysokoškolské instituce nejsou na tento nový fenomén připraveny stejně jako většina akademických a výzkumných pracovníků, kteří o něm vůbec neví. Kromě upozornění na potenciální hrozby, kterým vědecká komunita (případně věda a vzdělávání obecně) čelí, reaguje článek na popsanou situaci návrhem opatření z pohledu jednotlivce i vysokoškolské instituce. Na závěr článku jsou uvedeny trendy v chování predátorských vydavatelů a dilemata, před kterými stojí poctiví vydavatelé časopisů a mezinárodní indexovací databáze.
Klíčová slova: Beallův seznam, predátorští vydavatelé, vanity press, vědecké časopisy, virtuální konference.
Abstract
The aim of this paper is to introduce a summary and current state of the issue of predatory open access publishers and to critically discuss general predatory behaviour and related topics in the Czech and international context. The article summarizes outputs of the first foreign studies dealing with predatory publishers and journals. We find that although in the past three years, the issue of predation is actively addressed in foreign countries, the Czech higher education institutions are not prepared for this new phenomenon as well as most of academics and researchers do not know about it at all. The text highlights the threats with which the scientific community (science and education in general) is confronted and proposes countermeasures from the view of an individual and higher education institutions. At the end of the article, there are mentioned trends in the behaviour of predatory publishers and dilemmas which non-predatory journal publishers and international indexing databases are faced with.
Keywords: Beall’s List, predatory publishers, scholarly journals, vanity press, virtual conferences.
* Department of Systems Analysis, Faculty of Informatics and Statistics, University of Economics, Prague,
nám. W. Churchilla 4, 130 67 Praha 3, Czech Republic
183 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
1 Úvod
Cílem tohoto příspěvku je na základě rešerše českých a zahraničních zdrojů představit
aktuální stav problematiky predátorských vydavatelství a s tím úzce spojená témata, která
musí či bude muset české vysoké školství řešit. V předkládané perspektivě poukazujeme
zejména na konsekventní problémy dotýkající se hodnocení a financování vědy
a souvisejících etických aspektů práce na vysoké škole a v oblasti výzkumu a vývoje.
Problematika predátorských vydavatelů je velmi mladá a v akademických kruzích ve světě se
začala řešit v letech 2011 a 20121, přičemž většina článků na toto téma je uveřejňována od
roku 2013. V současnosti (2015) se tedy jedná o velmi aktuální fenomén. Zatímco v zahraničí
je toto téma spojováno v naprosté většině pouze s vydavateli časopisů a sekundárně knih,
v tomto příspěvku bychom chtěli zajít dále a popsat predátorské chování v obecné rovině.
Následující text nejprve seznamuje s historickým pozadím publikování s otevřeným
přístupem – open access (dále OA), a dále navazuje představením tzv. predátorských
vydavatelů a popisem jejich chování. Toto predátorské chování ze strany vydavatelů časopisů
či knih nebo pořadatelů virtuálních konferencí lze označit za určitý „novodobý“ fenomén,
s nímž se úzce pojí takové jevy a problémy, jako je „nadproduktivní věda“, etické chování
akademických pracovníků nebo instrumentalizace a komodifikace (Liessmann, 2009)
v oblasti vědy (poznání) a vzdělávání obecně.
V rámci diskuse je dále navrženo několik opatření, která by bylo vhodné prosadit na úrovni
jednotlivých vysokoškolských institucí. Předložení těchto návrhů bylo motivováno faktem, že
se daná problematika začala dotýkat i českých veřejných vysokých škol, což je ilustrováno na
sporu kolem neetických publikačních praktik na Fakultě sociálních věd, UK v Praze (dále
FSV, UK v Praze). V tomto článku představovaný problém se ve zvýšené míře týká zejména
takových pracovišť, na kterých je vyvíjen tlak na akademické pracovníky, aby publikovali co
největší množství výstupů, případně tam, kde je ona „nadprodukce“ článků motivačně
odměňována.
Případná opatření by neměla být aktivně zaváděna pouze vysokoškolskými institucemi, nýbrž
také „poctivými“ vydavateli vědeckých časopisů či knih a pořadateli mezinárodních
vědeckých konferencí, kterým jde zejména o rozvoj vědy. Také tímto tématem se budeme
zabývat v úplném závěru předkládaného článku.
2 Predátorští vydavatelé
Hned na začátku představme vymezení predátorského časopisu, respektive jeho vydavatele:
„Predátorský časopis (…) zneužívá myšlenku otevřeného přístupu ve svůj prospěch. Takové
časopisy vznikají primárně s cílem vybírat autorské publikační poplatky a generovat zisk.
Nikoliv podporovat a rozvíjet vědeckou komunikaci.“ (ÚK UK, 2014)
V prostředí českých vysokých škol se touto problematikou v praxi zabývají nejčastěji
pracovníci univerzitních knihoven, stejně jako v zahraničí – uveďme alespoň některé odkazy
na základní informace o této problematice poskytnuté jednotlivými knihovnami pro jejich
čtenáře: Knihovna AV ČR (Burešová, 2015), Ústřední knihovna ČVUT v Praze (ÚK ČVUT,
2015), Knihovna UK v Praze (ÚK UK, 2014), Knihovna UTB ve Zlíně (Knihovna UTB,
2015), Knihovny VUT v Brně (Skůpa, 2015). Vedle toho se tímto tématem v minulosti
1 Počátek tohoto fenoménu lze vysledovat i před rok 2010 – viz (Shen & Björk, 2015; Komm, Vojtková, Dvořáček, 2015).
184 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
zabývali i další akademici ve svých článcích např. (Knecht, 2013; Bláhová, 2013).
V neposlední řadě toto téma přitáhlo i české novináře v souvislosti s prvními zahraničními
studiemi a spory např. (Komm, 2015; Lázňovský, 2015; Novotný, 2015).
To, co zejména v posledních pěti letech umožnilo predátorské chování některých
vydavatelství, spočívá v technologické změně, která se uskutečnila po roce 2000, kdy již
zaběhnuté časopisy začali jejich vydavatelé nabízet v online verzi a nové časopisy začaly
(v zájmu snížení nákladů vydavatelů) vycházet pouze elektronicky. Dle studie (Laakso et al.,
2011) existovalo v roce 2000 přibližně 800 OA časopisů, v roce 2009 již téměř 5000. Tento
přechod umožnil zejména rozvoj Internetu a související zvýšení jeho dostupnosti ve
společnosti (Shen & Björk, 2015). Původně byla většina online obsahu dostupná pouze
v placené formě – tzv. e-licencování, kdy se za stažení článku platí poplatek.
S technologickou změnou se objevily první OA časopisy, které svůj provoz hradily buď
z vlastních institucionálních zdrojů 2 (např. univerzity, zájmová sdružení) nebo formou
poplatku za otevřené publikování článku. Vznikly také iniciativy za přístupný obsah a
možnost sdílení znalostí, které vymezovaly OA přístupy – mezi tyto patří Budapešťská
iniciativa, Prohlášení z Bethesdy, Berlínská deklarace (Bartošek, 2009). Na těchto základech
postavené otevřené publikování má dva hlavní modely (Laakso et al., 2011; Bartošek, 2009;
Bláhová, 2013):
Zelená cesta (Green Access) – kde otevřený přístup k publikovaným článkům
poskytují autoři skrze otevřené repozitáře, např. institucionální a předmětové
repozitáře, osobní webové stránky.
Zlatá cesta (Gold Access) – kde otevřený přístup k publikacím poskytují přímo
vydavatelé.
V případě zlaté cesty mohou (ale nemusí) autoři hradit časopisu náklady na recenzní řízení
a publikování článku. Je zde nutné poznamenat, že tento poplatek hradí až ti autoři, jejichž
článek uspěl v rigorózním recenzním řízení. Také OA časopisy můžeme rozdělit na
nekomerční (náklady hradí třetí strana; jsou přístupné a bezplatné pro autory i čtenáře,
příkladem je i tento časopis Acta Informatica Pragensia) a komerční (náklady hradí autoři,
případně jejich sponzoři; jsou přístupné a bezplatné pro čtenáře).
OA přístup měl pomoci akcelerovat současnou vědu díky novým možnostem otevřeného
sdílení kvalitních výsledků vědeckého výzkumu: „Správně zvolený otevřený přístup může
přinést výhody všem hráčům v oblasti vědeckého publikování – autorům, čtenářům,
knihovnám, univerzitám, grantovým agenturám i běžným občanům.“ (Bartošek, 2009)
Bohužel se kolem roku 2010 začaly stahovat mraky a přichází devalvace OA přístupu (Beall,
2012) v souvislosti s novými „podnikatelskými“ možnostmi, které jsou spojeny nejen s tzv.
predátorskými časopisy a vydavatelstvími.
Ještě, než se naplno objevil fenomén predátorů v oblasti OA časopisů, byly publikovány
příspěvky zabývající se kvalitou dlouholetých, zavedených a ve vědecké komunitě široce
uznávaných časopisů (indexovaných často v databázích Web of Science či Scopus). Z 90. let
20. století je známa především tzv. „Sokalova aféra“, kdy A. Sokalovi přijali nesmyslný
článek do uznávaného časopisu. Téměř okamžitě po vydání provedl své odhalení v článku
(Sokal, 1996) – od té doby se toto „testovací“ zasílání článků nazývá Sokal hoax. Mnozí další
autoři po tomto vzoru provedli obdobné zkoušky na řadě prestižních časopisů (tzv. sting
2 Případně nadšenci jako kupříkladu prof. Tom D. Wilson, který ze svého elektronického časopisu Information Research
vytvořil v průběhu let mezinárodně uznávaný časopis indexovaný ve Web of Science a Scopus.
185 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
operation). Zajímavá je zkouška (Bohannon, 2013) provedená v roce 2013 na 304 OA
časopisech a publikovaná v časopise Science, mezi kterými byla i periodika velmi prestižní.
Bohannonův absurdní článek byl přijat ve více než polovině případů! Jednalo se dokonce
o časopisy, které hostovali vydavatelé jako Sage nebo Elsevier. Toto je také nejsilnější
argument těch, kteří neuznávají predátorství jako jasně vymezený jev a jeho současné
základní podchycení v tzv. Beallově seznamu (Beall’s List, 2015). Avšak než budeme
rezignovat a konstatovat, že se jedná o jev provázející všechny OA časopisy bez rozdílu,
podívejme se na Obr. 1, kde je vidět překryv s (Beall’s List, 2015). Není třeba dodávat, že
negativní jev přijetí nesmyslného článku je typičtější pro časopisy uvedené na (Beall’s List,
2015).
Obr. 1: Výsledky zkoušky Bohannona na vybraných OA časopisech. Dodejme, že 49 časopisů se do uzávěrky článku publikovaného v časopise Science nevyjádřilo. Zdroj: (Bohannon, 2013).
Na druhou stranu Obr. 1 odhaluje další problém, na který poukazují kritici vytváření seznamů
– viz např. (Crawford, 2014). Co bude s těmi časopisy, které v Bohannonově zkoušce správně
odmítly nesmyslný článek, ale jsou uvedeny v (Beall’s List, 2015)? Jsou to snad povolené
ztráty, náhoda nebo dřívější nedopatření při tvorbě Beallova seznamu? Narážíme na problém
moci, která je spojena s tímto seznamem. Ten, kdo má možnost do tohoto seznamu přidávat
a odebírat z něj časopisy či vydavatele (v současnosti je to pouze J. Beall), dokáže poškodit či
zničit pověst, koho bude chtít (nejenom nyní, ale i do budoucna). To je také důvodem určité
opatrnosti při používání tohoto seznamu, která je na místě. Nebezpečí „diktatury“ tohoto
seznamu může vést až k cenzurnímu chování (knihoven, indexovacích databází, vysokých
škol aj.), což může poškozovat i kvalitní časopisy snažící se poctivě o rozvoj vybrané vědecké
oblasti.
Příkladem může být chybné zanesení egyptského vydavatelství Hindawi, které je také
uvedeno v asociaci OASPA3, do zmiňovaného seznamu a jeho pozdější odstranění (Butler,
2013; Crawford, 2014). Crawford v tomto ohledu upozorňuje, že se na tento seznam mohou
dostat i časopisy, které mají na svých webových stránkách uveden popis ve špatné angličtině.
Jiným případem je vydavatelství Dove Medical Press, které bylo nejdříve přijato jako kvalitní
a prověřené vydavatelství asociací OASPA – jedná se o tzv. white list, tedy seznam kvalitních
vydavatelství. Později bylo vyloučeno kvůli vážným chybám v rámci recenzního řízení
(Berger & Cirasella, 2015), načež bylo opět v září 2015 do této asociace přijato.
Zatím, naštěstí a zřejmě i díky svému charakteru, predátorské časopisy neprosákly do
univerzitních knihoven ve větším rozsahu – viz studie (Nelsona & Huffman, 2015). Naopak je
3 Open Access Scholarly Publishers Association, viz jejich webové stránky www.oaspa.org
186 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
určitě ve větším počtu najdeme v databázích jako je DOAJ4 či ERIH Plus5 (sporadicky ve
Scopusu a Web of Science). Zejména posledně jmenovaný má velmi slabá a pouze formální
kritéria pro zařazení – správce databáze ERIH Plus na zde popisovaný fenomén zatím příliš
nereagoval. Naopak DOAJ se k tomuto problému postavila a provádí masivní přeregistrování
všech časopisů registrovaných před změnou pravidel (březen 2014), tak aby musela plnit nové
podmínky a co nejvíce se předešlo indexaci predátorských časopisů. DOAJ tak můžeme
označit za hlavního hráče v oblasti tvorby tzv. white listů (Berger & Cirasella, 2015).
V databázi Scopus se také objevily časopisy chovající se predátorsky, přičemž jsou
individuálně odstraňovány, nicméně dříve získaná data jsou ve Scopusu zachována
– příkladem je vydavatelství IDOSI, kde bylo v roce 2014 vyřazeno šest jejich časopisů6.
V případě Web of Science tkví nebezpečí zejména ve formě různých podvodných (hijacked)
časopisů tvářících se jako ty, co byly (a v současnosti už nejsou) či jsou indexovány v této
databázi7. Není nám známo, zda v této věci vlastník dané databáze Thomson Reuters nějak
postupuje. Fenoménem napodobování prestižních časopisů se zabývá kupříkladu článek (Tin
et al., 2014) a objevují se i první řešení (Asadi et al., 2016). Přesto i v prostředí
impaktfaktorových časopisů najdeme predátory. Článek (Djuric, 2015) popisuje praxi jednoho
časopisu indexovaného ve Web of Science, jež odpovídá predátorskému chování – články
byly bez recenzního řízení publikovány a za toto publikování byl vybírán poplatek.
Aby si predátorská vydavatelství a časopisy upevnily svoji „vědeckou pozici“, využívají
pochybné scientometrické portály8, které udělují časopisům vlastní indexy. Tyto indexy mají
často v názvu slovní spojení „impakt faktor“ – příkladem je např. Global Impact Factor,
Journal Impact Factor nebo Universal Impact Factor. Je zde tedy jasná snaha parazitovat na
zaběhnutém termínu známém z databáze Web of Science. Sekundárním problémem je, že se
do těchto indexů hlásí i jinak poctivé OA časopisy, neboť jsou zde pouze formální podmínky
pro přijetí. Tím také posilují „prestiž“ těchto databází. Blíže se touto problematikou zabývají
kupříkladu články (Jalalian, 2015; Sohail, 2014). Druhý způsob, jak se tyto časopisy „zasazují
do vědeckého kontextu“, je lákání vědců a akademických pracovníků do redakčních rad
těchto časopisů. Predátorské časopisy tak mají „krytí“ pro svoji činnost a participují na
renomé daných lidí (mnohdy kapacit ve svém oboru).
První studií zabývající se komplexně vývojem a charakteristikami tohoto svébytného trhu
mezi roky 2010 až 2014 z globální perspektivy je (Shen & Björk, 2015). Autoři studují vlastní
výběrový vzorek, který reprezentuje 11 873 časopisů, které vydává 966 vydavatelů, jež jsou
označeni za predátorské dle (Beall’s List, 2015) k 1. září 2014. Mezi nejzajímavější výsledky
studie (Shen & Björk, 2015) patří:
4 Directory of Open Access Journals, další informace jsou na k dispozici zde: www.doaj.org/
5 European Reference Index for the Humanities and the Social Sciences, další informace
jsou uvedeny na webu European Science Foundation.
6 Pro lepší představu uvádíme časopis World Applied Sciences Journal, který byl indexován v letech 2011-2014, přičemž
za toto období zařadil do Scopusu více než 5000 článků s mohutným nárůstem počtu publikovaných článků v letech 2012
a 2013. Většina jeho citací pochází z jiných časopisů vydavatelství IDOSI.
7 Příkladem je parazitování časopisu Asian Journal of Animal and Veterinary Advances (ISSN 1996-3289) na časopisu s
naprosto stejným názvem, který byl však indexován v letech 2008-2012 ve Web of Science (ISSN 1683-9919).
8 Lze oprávněně předpokládat, že některé z těchto scientometrických portálů jsou (zprostředkovaně) zakládány predátorskými
vydavatelstvími.
187 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Z těchto téměř 12 000 časopisů bylo aktivních pouze cca 8 000. Pro srovnání
v databázi DOAJ bylo registrováno v květnu 2014 na 9 700 OA časopisů, přičemž 26
% z nich mělo poplatek za publikování (Morrison et al., 2015).
Dle jejich odhadu bylo v roce 2010 publikováno 53 000 článků v těchto časopisech,
nicméně v roce 2014 jich bylo již 420 000 článků. Pro srovnání obdobné množství,
tedy téměř půl milionu článků za rok 2014, vydaly časopisy registrované v DOAJ.
Pokud bychom tyto časopisy chtěli rozdělit dle vědeckých disciplín, tak mezi prvních
pět tematických celků patří: obecné (multidisciplinární), inženýrství, biomedicína,
sociální vědy a podnikání a ekonomie. První tři ale oproti ostatním dominují.
Průměrný počet zveřejněných článků na jeden časopis za rok vzrostl z 30 v roce 2010
na 53 v roce 2012, přičemž na tomto čísle se počet pro další roky stabilizoval.
U národnosti autorů takto publikovaných článků dominují Indové (35%), Nigerijci
(8%) a Američané (6%). Většina autorů je z Asie a Afriky.
Průměrné poplatky za zveřejnění článku se liší dle velikosti vydavatele. Autoři však
upřednostňují ty s nižšími poplatky a v celkovém průměru se jedná o částku
v přepočtu přibližně 5 000 Kč. Velcí vydavatelé mají poplatek i přibližně 21 000 Kč
za zveřejnění jednoho článku. Do roku 2012 dominovali zejména velcí vydavatelé,
jejichž portfolio mělo více než 100 časopisů. V posledních třech letech trh ovládli
středně velcí vydavatelé (s portfoliem 10-99 časopisů), jejich průměrný poplatek je
přibližně 3000 Kč.
Průměrná doba od zaslání k publikování článku jsou přibližně 3 měsíce. Což může být
ovlivněno i vyčkáváním na platbu před samotným vydáním.
Je velmi překvapivé, že právě autoři z rozvojových zemí v Asii a Africe mají finanční
prostředky, aby mohli platit tak vysoké poplatky za publikování. Pokud se podíváme na jinou
studii (Solomon & Björk, 2012) zabývající se zdroji financování poplatků za publikování
v OA časopisech vybraných z databáze DOAJ, pouze 10 % ze všech poplatků platí autoři
z vlastních finančních prostředků. Zbytek pochází tedy z grantů a institucionální podpory. Dle
této studie 39 % autorů, kteří takto publikovali, je z rozvojových států. Samozřejmě vedle OA
časopisů mohou autoři z rozvojových zemí publikovat zdarma v komerčních časopisech, které
mají omezený přístup pro čtenáře (např. skrze poplatek za stažení článku). Vidíme, že
nedostatek finančních prostředků není pro tyto autory kruciální problém. Naopak se zřejmě
jedná o tlak dané vědecké komunity spolu s nastavením systému financování výsledků
výzkumu a vývoje, stejně jako je tomu často i ve vyspělých zemích. Jak uvádí kvalitativní
studie (Omobowale et al., 2014) zaměřená na nigerijské akademické prostředí – Nigerijci dle
(Shen & Björk, 2015) tvoří 8 % všech autorů publikujících v predátorských časopisech – mezi
dva hlavní důvody, proč Nigerijci publikují v takových časopisech, patří: (1) tlak
představitelů univerzit, aby jejich akademičtí pracovníci publikovali v zahraničních
časopisech, (2) vysoká náročnost respektive obtížnost publikovat svůj článek v tzv. západních
časopisech, což pomyslně otevírá možnosti pro trh predátorských časopisů.
Ačkoli se slovo „predátorské“ používá v zahraniční literatuře téměř výhradně v souvislosti
s časopisy a vydavatelstvími, jsou opomíjeny další činnosti, které mají podobné rysy.
Můžeme tedy mluvit o predátorském chování, které postihuje i další oblasti spojené
s akademickým životem. Predátorské chování nejčastěji postihuje:
- Vydavatele časopisů, kteří inkasují poplatky za zveřejňování v režimu OA – viz
(Beall’s List, 2015).
- Knižní vydavatele, kteří aktivně spamují nejčastěji mladé vědecké pracovníky, kdy
takto vydané „odborné“ publikace vycházejí bez recenzního řízení k obsahu publikace
a minimálních nákladech (např. Lambert Academic Publishing lákají / spamují autory
188 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
zejména na publikování disertačních či diplomových prací). Nově se jedná také o
podvržené nabídky, které se tváří, jako by pocházely z prestižního vydavatelství.
- Pořadatele hromadných virtuálních konferencí, kde neprobíhá fyzické setkání
účastníků ani regulérní recenzní řízení příspěvků, a přesto je vybíráno vložné.
Blíže rozebereme poslední dva případy. Prvním jsou knižní vydavatelství typu „vanity press“,
které dovolují komukoli publikovat cokoli za určitý poplatek. Využívají možnosti digitálního
tisku na vyžádání od 1 kusu. Nejedná se tedy o skutečnou monografii s nákladem v počtu
stovek kusů, která by mohla mít vědecký dopad. Výše uvedený příklad Lambert Academic
Publishing je nebezpečný také tím, že vydělává na zaslání fyzické kopie autorovi, kdy tento
autor může následně nechat nakoupit tyto knihy kupříkladu do univerzitní knihovny. Studenti
pak mohou tyto nekvalitní či pochybné materiály užívat pro svoje studium či vlastní
akademické práce. Druhou oblast tvoří soukromá vydavatelství jednotlivců či organizací,
která mohou publikovat opět pochybný obsah nebo pouze vlastní knihy v kusových
nákladech. Ani v této oblasti nelze zcela generalizovat a tvrdit, že každé takové jednání je
špatné.
Méně probádanou a často tiše tolerovanou aktivitou jsou masové virtuální (elektronické)
konference, kde autor zašle článek, zaplatí poplatek za publikování ve sborníku (vložné) a
dostane přístup do elektronického systému, kde může vzdáleně komunikovat s dalšími
účastníky ve dny konání konference. Dané příspěvky často procházejí pouze formální, ale
nikoli obsahovou kontrolou v rámci rigorózního recenzního řízení. Také v České republice
najdeme takové konference pořádané nejčastěji akademickým sdružením lidí napojených
přímo na různé české univerzity – z institucionální či grantové podpory jsou tímto způsobem
vyváděny statisíce až miliony korun. V zahraničí je bohužel běžné, že tyto elektronické
konference pořádají či na nich participují také vysokoškolské instituce.
2.1 Nadproduktivní věda
Pojem „nadproduktivní věda“ zajímavým způsobem tematizují Stöckelová a Vostal (2015).
Exponenciální nárůst publikací ve vědecké sféře dle jejich slov „souvisí se zdánlivým
paradoxem moderní společnosti, která zůstává relativně stabilní, jen pokud je dynamická
(pokud roste).“ Onu „logiku růstu a zrychlování“ zasazují autoři po bok dalších moderních
principů, jako je individualizace nebo komodifikace. A právě pojem komodifikace se
s otázkou na „nadprodukci“ a (ne)kvalitu vědeckých výstupů pojí velmi úzce, neboť se lze
ztotožnit s tvrzením Liessmanna (2009), že pro redukci vědění (poznání a poznávání) na zboží
(službu), kterou pojmenovává jako „kapitalizaci ducha“, nezbývá na samotnou vědu místo.
V jedné pasáži své známé publikace „Teorie nevzdělanosti“ Liessmann (2009, str. 58) hovoří
o dnešní posedlosti „falešnou představou, že posuzovat znamená kvantifikovat.“ Tuzemské
podmínky dobře popisuje Štech, který dává za příklad „Metodiku hodnocení výsledků
výzkumu, vývoje a inovací“, přičemž konstatuje, že při jejím „bližším prozkoumání vidíme,
k jak rozmanitým a umným strategiím nikoli jen elaborace podob výzkumné práce, ale
zejména vykazování jejích výsledků to vedlo. A je tomu tak na všech typech škol.“
(Dvořáčková et al., 2014, str. 14) Štech hovoří o připisování autorů k publikacím, o taktice
variace pořadí autorů, o dělení výzkumných zpráv na více výstupů nebo o situacích
hraničících s kompilací, resp. s plagiátorstvím v případě profesních oborů. Při hodnocení
vědecké práce pak mnohdy dochází k „redukci kvality na citační ohlas, případně dokonce na
pouhou kvantitu výstupů“ (Dvořáčková et al., 2014, str. 186). Uvedené fenomény vysvětluje
Lears (2015) jako výsledek manažerského přístupu ve vědě a vzdělávání. Lears (2015, str.
118) v této souvislosti mimo jiné poukazuje na závislost akademických pracovníků na
krátkodobých pracovních závazcích, kterou vidí jako „příznačnou pro manažerskou
189 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
perspektivu a její důraz na okamžité zisky.“ Learsem kritizovaný manažerský pohled je
rovněž v rozporu s tím, co Brandt (2015, str. 143) považuje za jádro univerzity, totiž
s „kritickým, autonomním zacházením s různými tématy bádání a výuky.“
O souvislosti „nadproduktivní vědy“ s ekonomizací ve vědě hovoří v podobných intencích
i Stöckelová a Vostal (2015), když uvádějí, že „kvazitržní étos současného hodnocení souvisí
s upevňováním podnikatelsky orientovaného manažerismu a správy vědeckého provozu
obecně. Asi nejviditelnější proměnou je plíživá, ale systematická redukce smyslu vědy
a poznání ve vztahu ke společnosti na výrobní prostředek, kdy jsou výzkumné instituce
a univerzity se svými aktivitami pojímány primárně jako další součásti ekonomiky… Český
kafemlejnek, podobně jako řada jiných zahraničních systémů hodnocení, prohlubuje to, čemu
někteří kritici říkají posedlost kvantitou, kdy více je vždy automaticky lépe: více publikací
v impaktovaných časopisech (tedy časopisech vedených v databázi soukromé společnosti
Thomson Reuters), více grantových peněz, více citací. Akademici tak tráví velké množství
času vytvářením potřebných vykazatelných indikátorů/bodů, vyráběním excelentních
životopisů (CV), vyplňováním formulářů.“ Uvedený „nezodpovědný“ přístup k vědecké práci
přináší problémy nejen samotné vědě či vědecké obci, nýbrž resultuje v nebezpečí hrozící
široké veřejnosti, na která se zaměříme v části 2.2.
Akademické a vědecké pracovníky vědomě a systematicky publikující v predátorských
časopisech můžeme i na základě sporu popsaného v části 3 nazývat „upíry“, neboť zneužívají
nastavený systém financování a podpory a doslova jej vysávají. Takoví lidé se snaží
maximalizovat svůj „zisk“, pročež se uchylují nejen k neustálému předělávání stále stejného
příspěvku, ale díky charakteru predátorských časopisů mohou využít i cyklický
autoplagiatorismus k maximalizaci počtu svých výstupů. Predátorské časopisy totiž často po
několika málo letech náhle zanikají – např. z důvodů, že splnily svůj účel, již nevydělávají,
jsou nechvalně známé či je na ně negativní zpětná vazba – nebo se jinak transformují. Jedná
se tedy o velmi živé prostředí. Aktivní autor tak může vzít svůj dříve publikovaný článek (či
hůře i článek někoho jiného) z již „mrtvého“ predátorského časopisu, změnit název a abstrakt
a tento článek dále publikovat v jiném živém predátorském časopise. I když na Internetu
najdeme odkazy či metadata o dřívějším článku, tyto informace se omezují v naprosté většině
na název a abstrakt. Původní plný text článku bývá dostupný pouze na webových stránkách
daného časopisu, které již nefungují. Tito „upíři“ doufají, že se ztratí v publikační záplavě
článků vydávaných elektronickými časopisy. Bohužel nezbývá než konstatovat, že současné
podmínky hrají v jejich prospěch.
Určitým řešením by bylo vytvářet institucionální repozitáře, kam by měli autoři povinnost
vkládat všechny příspěvky (postačují pracovní či autorské verze) afilované k dané instituci
v elektronické podobě. Kdokoli z této instituce by k nim měl přístup a mohl by upozornit na
různé formy neetického jednání.
2.2 Nová nebezpečí pro současnou společnost
První články zmiňující potenciální nebezpečí ukrývající se v publikační masovosti
predátorských vydavatelství vyšly v lékařských a teprve následně v knihovnických
časopisech, viz (Beall, 2013; Crawford, 2014; Shen & Björk, 2015; Grgić, 2015). Tito
predátoři s sebou totiž přinášejí až životu nebezpečné negativní konsekventní jevy. Uveďme
tři nejdůležitější:
1) Úvodníky i důležité články a studie o predátorech vychází v lékařských časopisech –
např. (Nahai, 2015; Shen & Björk, 2015; Nicoll, 2015; Flanagan, 2015; Beall, 2013) –
a upozorňují na nebezpečí, že běžný lékař na základě takového článku, který neprošel
190 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
rigorózním recenzním řízením, může léčit své pacienty. Vedle přímého nebezpečí pro
lékařství a zdravotnictví existuje nebezpečí i pro další vědní oblasti jako biologie,
chemie či fyzika, kde hrozí spíše finanční škody, kdy se výzkumníci na základě
takového článku nebo souboru článků vydají špatným směrem a „promrhají“ přidělené
finanční prostředky z grantu.
2) Tyto mnohdy pseudovědecké články mohou přebrat populárně-vědecké časopisy jako
je např. 21. století a šířit tak nevědomě nepravdivé informace. Navíc čím
překvapivější je „závěr“, tím je zajímavější pro čtenáře těchto populárně-vědeckých
časopisů.
3) Veřejnost predátorské vydavatele nevědomky dotuje, když jsou autoři článků
systematicky publikujících v predátorských časopisech placeni z veřejných zdrojů
výzkumnými institucemi a jejich takto publikovaný výzkum je dotován granty.
Problémem je, že takové články zpravidla nemají žádnou přidanou hodnotu jak pro
veřejnost tak odborníky, ba naopak mohou mít nebezpečné negativní konsekvence.
Žijeme v době bezprecedentní dostupnosti informačních zdrojů. Tato skutečnost však klade
na jednotlivce nové nároky, pokud jde o schopnost s těmito zdroji (potažmo informacemi)
pracovat. Kromě nutnosti (neustálého) rozvoje znalostí (zejména o problematice, v rámci
které potřebuje něco řešit, rozhodovat se) tvořících nutný základ individuální interpretace
skutečnosti roste zejména potřeba kriticky (systémově) myslet – viz (Řezníček, Čermák,
2014). Nejen psychiatr Spitzer (2014), který ve svém titulu „Digitální demence“ popisuje vliv
médií na zmenšování hloubky zpracování informace, ale například také autor zabývající se
aplikací informačních technologií Carr (2011) však poukazují na neblahou skutečnost, že jsou
mnozí právě díky snadné dostupnosti informací (dat), kterou umožňují moderní technologie,
„líní přemýšlet“, neboť je jim „vše potřebné“ jednoduše bez námahy „naservírováno.“ Tento
„přepych“ však může u daného konkrétního člověka vést bez přemíry nadsázky ke ztrátě
smyslu pro realitu (Řezníček, Smutný, 2011), neboť se dotyčný stává pouhým pasivním
konzumentem mediálního obsahu (mediální reality). Zde lze vysledovat implikace i do oblasti
vědy, resp. vědecké práce. Šíření „nekvalitních“ vědeckých výstupů, které je dnes mnohem
snazší než v minulosti, může být nebezpečné nejen v případě „děl“ z oblasti lékařství. Jistě by
šlo jmenovat více oborů a jejich témat, kde by šíření nepravdivého či různě
desinterpretovaného obsahu mohlo mít fatální důsledky. Edukovat v informační gramotnosti
je potřeba nejen ty, kdo vědecké výstupy vytvářejí, ale také jejich „konzumenty“, resp. ty,
kteří budou využívat jejich interpretace (více v rámci diskuse v části 4).
3 Za etické publikace
V současnosti je velmi živě diskutován spor spojený s predátorskými časopisy a neetickými
publikačními praktikami na Univerzitě Karlově v Praze. Na jaře 2015 se přišlo na to, že se
některým zaměstnancům institutu IKSŽ9 na FSV, UK v Praze zvýšil počet publikovaných
článků v časopisech, načež se zjistilo, že některé tyto články vycházely v takových
časopisech, které je možno označit jako predátorské (Hajek et al., 2015). Ačkoli Ústřední
knihovna UK v Praze na problém s predátory upozorňovala na svých webových stránkách
(ÚK UK, 2014), vedení tohoto institutu se ocitlo ve zcela nové situaci, která nebyla do té
doby nijak postižena (např. v předpisech univerzity, pravidly nebo opatřením děkana).
U jednoho zaměstnance byla shledána i další závažná (etická) pochybení – články vycházely
9 Institut komunikačních studií a žurnalistiky
191 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
ve spoluautorství s neexistujícím člověkem (tzv. falešné autorství10). Postupem času vznikl
spor, který daleko přesahuje problematiku článků v predátorských časopisech – např. že
mohlo docházet k autoplagiátorství, že za tuto pochybnou publikační činnost byli zaměstnanci
odměňováni desítkami tisíc korun, případně další nekalé praktiky, kdy mohlo být zneužíváno
dobré jméno Univerzity Karlovy v Praze k vlastnímu obohacování.
Představu o rozsahu tohoto sporu si lze udělat z následujících publicistických článků Jak
vysát rozpočet na vědu do poslední kapky, který vyšel na webu E15 Euro (Novotný, 2015)
nebo Predátoři a upíři aneb horor vědeckých publikací, který vyšel v Deníku Referendum
(Komm, 2015). Tento spor má v současnosti tři hlavní aktéry: Wadima Strielkowského
(Strielkowski, 2015), UK v Praze (FSV UK, 2015; Končelík, 2015) a iniciativu zaměstnanců
IKSŽ Za etické publikace a svobodu kritiky na IKSŽ (Hajek, et al., 2015; Transparency
International, 2015). Vyjádření a pohledy jednotlivých stran na tento spor lze najít na daných
odkazech11. V následujícím textu jsme vycházeli z veřejně dostupných zdrojů, přičemž naším
cílem je poukázat na problémy a paradoxy, se kterými se v souvislosti s probíraným tématem
potýkají jak autoři, tak instituce.
Z tohoto rozsáhlého sporu nás zajímá chování již bývalého zaměstnance IKSŽ Wadima
Strielkowského (autor) z doby, kdy byl ještě zaměstnancem na jedné straně, a IKSŽ
respektive UK v Praze na straně druhé (instituce). Dr. Strielkowski má velmi kvalitní
publikační výstupy, přičemž desítky jeho článků jsou indexovány v databázích Scopus a Web
of Science. Vedle toho však publikoval velké množství svých článků v predátorských
časopisech (Novotný, 2015; Hajek, et al., 2015). Vysoký počet těchto článků nasvědčuje
tomu, že se nejedná o omluvitelné jednání z důvodu neznalosti, kdy bylo uveřejněno několik
málo náhodných publikací. Naopak to připomíná spíše systematické vyhledávání těchto
predátorských časopisů, které mají velmi nízké etické i publikační standardy a zveřejní, cokoli
jim kdokoli pošle. Jako příklad uveďme článek uvedený v RIV12 databázi z roku 2013 „How
to Stop a Vampiric Infection? Using Mathematical Modeling to Fight Infectious Diseases“
nebo jiný článek13 „Intertemporal Model of Co-Existence of Two Rival Species: A Case
of Vampires and Humans Co-Habitation“ vydaný v roce 2012.
Autorem obou článků je Wadim Strielkowski, přičemž k publikování v predátorských
časopisech si dokonce vymyslel neexistující spoluautorku Emily Welkins a předstíral afilaci k
prestižním zahraničním univerzitám jako University of Strasbourg nebo University of
Cambridge (Hajek et al., 2015), čímž je vědomě poškozoval. Ve svém prohlášení
(Strielkowski, 2015), kde prezentuje svoji verzi sporu, je tato skutečnost zlehčována tím, že se
10 Jak bude dále uvedeno, jednalo se spíše o dvojité autorství, kdy jeden autor vystupoval v článcích pod svým jménem
a zároveň pod svým pseudonymem. Tento přístup je však absurdní a poškodil zahraniční univerzity.
11 Za předpokladu, že blog zaetickepublikace.webnode.cz opravdu založil dr. Strielkowský. V době vydání článku nebyl
důvod myslet si opak.
12 Identifikační kód výsledku v RIV databázi je RIV/00216208:11230/13:10194049. Je vhodné zde dodat, že autor vědomě
zanesl tento výsledek do databáze RIV jakožto vědecký výsledek ze specifického výzkumu na UK v Praze.
13 Z pochopitelných důvodů žádný z těchto článků nechceme přímo citovat. V tomto případě se jedná o článek v Modern
Economy z roku 2012 (str. 826-831), jehož autory jsou Wadim Strielkowski, E. L. a Emily Welkins. Publikován byl v rámci
predátorského vydavatelství Scientific Research Publishing (SCIRP), dle (Beall’s List, 2015).
192 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
jedná o jeho registrovaný pseudonym a celé to byla vlastně jenom legrace14. Nepopiratelně se
však skrze tento svůj pseudonym nepravdivě afiloval k těmto univerzitám. V oficiálním
prohlášení fakulty je uvedeno, že „vedení FSV UK se důrazně distancuje od eticky
problematických aktivit PhDr. Wadima Strielkowského, Ph.D.“ (FSV UK, 2015) Všemi
těmito pochybeními se v současnosti zabývá Etická komise, UK v Praze (FSV UK, 2015),
která však zasedne až v roce 2016 – viz odpověď děkana FSV, UK v Praze na otevřený dopis
Transparency International (Končelík, 2015).
Ohledně velkého množství svých článků v predátorských časopisech argumentuje: „Ze strany
IKSŽ jsem nebyl osobou odpovědnou za kvalitu publikací a vědecký výkon pracoviště nikdy
upozorněn na žádný problematický bod a neproběhlo ani žádné školení o etice publikační
činnosti, kde by byl např. definován pojem ‚predátorské časopisy’.“ (Strielkowski, 2015)
Bohužel je to pravda, neboť jeho chování nebylo v rozporu s tehdejšími předpisy dané
instituce. Nejedná se ani o nezákonné chování. Predátorské časopisy navíc nejsou nijak
postiženy v Metodice hodnocení výsledků výzkumných organizací a hodnocení výsledků
ukončených programů15, která je platná pro léta 2013 až 2015. Avšak zásadní otázkou je, zda
se máme takto chovat všichni anebo ctít vyšší akademické principy. Pokud je tedy masivní
publikování v predátorských časopisech přípustné (neboť není veřejně odsouzené či
zakázané), tak jediné, co lze oprávněně vytknout dr. Strielkowskému, je jeho přístup
k používání svého pseudonymu Emily Welkins. Dodejme, že dr. Strielkowský vlastní také
firmu Univerzitní servis, s.r.o., která vydává vlastní časopisy jako např. European Review
of Social Sciences; Czech Journal of Social Sciences, Business and Economics; International
Economics Letters.
Podívejme se, jak se z tohoto eticky pochybného chování jednoho zaměstnance (autora) stává
postupně závažný systémový institucionální problém. Nejedná se totiž o jediného pracovníka
IKSŽ, který v takových časopisech publikoval. Úspěšnost tohoto jednotlivce při své masové
publikační činnosti, která kromě své masovosti nevypadala na první pohled podezřele,
inspirovala i další. Zřejmě nevědoma si plně, o jaké časopisy se jedná, tak v roce 2015
v predátorských časopisech publikovala i ředitelka IKSŽ. Později k tomu uvedla, že kdyby
věděla, co ví teď, nepublikovala by v nich a dále zažádala o vyřazení dvou starších výstupů
z RIV databáze a dalších ze systému evidence publikační činnosti na UK v Praze (AS FSV
UK, 2015). Nebezpečím je ono strhnutí dalších lidí k praxi, která do té doby nebyla oficiálně
vyhodnocena jako špatná. Navíc tito další lidé nemusejí o problematice predátorských
vydavatelství a časopisů nic vědět a pouze „napodobují“ činnosti, které jsou obecně pozitivně
přijímány danou komunitou.
Pokud by bylo toto chování uplatňováno dlouhodobě a stále více lidí by se začalo chovat
stejným způsobem, může dojít až k rezistenci vůči případné vnitřní zpětné vazbě či kritice
této činnosti. V případě uvedeného sporu je tato kritika shrnuta na webu (Hajek et al., 2015),
za kterým stojí část zaměstnanců IKSŽ. Dle jejich mínění však IKSŽ stále stojí před zásadním
krokem otevřeně přiznat, k čemu docházelo, a explicitně odsoudit neetické praktiky, které
budou důležitým mementem pro ostatní vysokoškolské instituce v ČR. UK v Praze nebyla
14 "Posléze jsem své fiktivní alter ego použil jako spoluautorku v několika svých článcích (tři z nich se objevily v databází
Scopus). Bylo to spíš z legrace (uznávám, že se možná jednalo o nepromyšlený vtip), ale mám za to, že jsem tímto nikoho
nepoškodil (už vůbec ne českého daňového poplatníka nebo Unverzitu Karlovu). (...) Myslím si, že etický problém v
akademických publikacích nastává v případě plagiátorství (opsaní cizích prací a textů). V případě fiktivních autorů (á la Jára
Cimrman) postačí pousmání a corrigendum." (Strielkowski, 2015)
15 Tato metodika je volně dostupná na webu www.vyzkum.cz
193 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
v této věci nečinná a provedla od vypuknutí problému řadu opatření dle vyjádření děkana
FSV UK v Praze (Končelík, 2015):
Dne 15. 6. 2015 začalo šetření podnětu části zaměstnanců na podezření z neetických
publikačních praktik dr. Strielkowského.
Byla nově přijatá Pravidla publikační činnosti na IKSŽ FSV, UK v Praze platná ode
dne 20. 8. 2015, kde jsou již tzv. predátoři zmiňováni (Němcová Tejkalová, 2015).
Dne 25. 8. 2015 proběhla schůzka vedení IKSŽ, kde byly prezentovány výsledky
šetření. Neetické praktiky však byly jednoznačně odmítnuty.
Vedení IKSŽ v září 2015 požádalo o vyjmutí dvou sporných publikací
dr. Strielkowského uvedených v RIV databázi.
Od září 2015 projednává podnět skupiny zaměstnanců na dr. Strielkowského také
Etická komise UK v Praze.
Dne 18. 11. 2015 bylo ředitelkou IKSŽ svoláno k tématu etiky publikování setkání
akademické obce IKSŽ.
Dne 1. 12. 2015 se vedení FSV, UK v Praze distancovalo od neetických publikačních
postupů ve svém prohlášení (FSV UK, 2015). Dále proběhla rozsáhlá diskuze
jednotlivých problémů i celého sporu na Akademickém senátu FSV UK v Praze, který
se usnesl na následujícím (AS FSV UK, 2015): „AS FSV UK děkuje za otevření
diskuse o kvalitě publikací na fakultě a vítá záměr vedení FSV UK stanovit pravidla
zajišťující etiku publikační činnosti. AS FSV UK zdůrazňuje nutnost diskutovat
o problémech fakulty v rámci institucí akademické samosprávy a jejich kontrolních
orgánů a odsuzuje negativní medializaci FSV UK ze strany aktérů sporu. AS FSV UK
apeluje na jednotlivé aktéry na IKSŽ, aby spolupracovali na uzavření sporu.“
Na druhou stranu, díky tomuto sporu bude UK v Praze zřejmě první vysokoškolskou institucí
v ČR, která ve svých předpisech a pravidlech publikování bude řešit problematiku
predátorských časopisů. Doufejme, že účastníci svůj spor brzy uzavřou. V této názorné
ukázce vidíme, že dokud instituce jasně neřeknou, že určité chování je nevhodné, tak
odpovědí autorů, kteří vědomě a systematicky publikují v predátorských časopisech, bude ta,
že to není nikde zakázané.
O nebezpečí souvisejícím s predátorskými časopisy a vydavatelstvími vyšly články v mnoha
impaktfaktorových časopisech, např. (Sohail, 2014; Nicoll, 2015; Nahai, 2015; Shen & Björk,
2015; Flanagan, 2015), kde je Beallův seznam označován (alespoň doposud) za první pokus
podchytit tento nový fenomén – viz také jeho článek v prestižním časopisu Nature (Beall,
2012). Jedná se tedy o téma, které opravdu trápí současnou vědeckou a akademickou
komunitu na celém světě. Ačkoli ve světě tento problém rezonuje už téměř tři roky, v ČR na
něj očividně připraveni nejsme – ať už se jedná o autory nebo instituce. Uvedený spor bude,
doufejme, dostatečnou výstrahou pro další vysoké školy a akademické pracovníky. Tito by se
více než doposud měli zamyslet nad podstatou své publikační činnosti vzhledem k vážnosti
své pozice, a dále nad tím, kde a co publikují.
Na závěr této části si každý čtenář musí ujasnit sám, zda postačuje se řídit zákony či
aktuálními předpisy a pravidly dané univerzity, nebo zda je potřeba se řídit i podle určitých
morálních hodnot – viz diskuze ze zasedání Akademického senátu FSV, UK v Praze (AS FSV
UK, 2015).
194 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
4 Diskuse a návrhy na opatření
V ohrožení nejsou pouze jednotlivci, ale také reputace jednotlivých vysokoškolských
institucí. Ty musejí své akademické pracovníky poučit o přijatelném a nepřijatelném
(etickém) chování při publikování vědeckých článků, sborníkových příspěvků a knih (např.
povinným školením, vydáním a propagováním příručky o nástrahách publikování16). V tomto
ohledu vyzývá i sám Beall (2015) v jednom ze svých posledních článků ke změnám
hodnocení na úrovni jednotlivých akademických institucí (nečekat tedy, až se plošně změní
hodnocení výsledků kupříkladu v daném státě, ale začít na nižší institucionální úrovni).
Řešené téma bude určitě v příštích letech rezonovat v akademické sféře nejen v souvislosti
s udělováním vědecko-pedagogických hodností vysokoškolským pedagogům (např. uznávání
publikací při habilitačním řízení), ale zejména při odměňování publikačních aktivit
jednotlivých akademických pracovníků. Je potřeba, aby tyto instituce především ve vlastním
zájmu co nejdříve stanovily mantinely pro své pracovníky a nemotivovaly je k publikování
v predátorských časopisech. Naopak je potřeba systematicky motivovat tak, aby se tito
pracovníci rozvíjeli v kontextu evropsky pojímané vědy na světové úrovni.
Na první pohled by v zájmu vysokoškolských institucí mohlo být také aktivní odmítání
nežádoucích publikací a jejich vyřazování z exportu do RIV databáze a s tím spojené
vytváření zakázaných (tzv. black listy) nebo naopak povolených seznamů časopisů či
vydavatelů (tzv. white listy). Avšak jak bylo poukázáno výše, nelze vždy a s naprostou
jistotou říci, že určitý časopis je predátorský. V prosinci 2015 přišel český spolek Fórum Věda
žije!, z.s. s iniciativou Antipredátor17, kde nabízí nejen vlastní black list, nýbrž také přehled
českých výzkumných institucí a přehled článků v predátorských časopisech, které tyto
instituce v posledních letech uplatnily v RIV databázi (Komm, Vojtková, Dvořáček, 2015).
Tento přehled je zatím značně neúplný a bude se dále rozšiřovat, přesto již nyní jsou na tomto
seznamu stovky článků uplatněných v RIV databázi. I v českém kontextu můžeme očekávat
studie vycházející z RIV databáze a Beallova nebo jiného seznamu, kde budou porovnávány
jednotlivé vysoké školy či výzkumná pracoviště. Proto je nutné již nyní zavádět patřičná
opatření v daných organizacích, a reagovat tak dříve, než tato potřeba začne být akutní.
Je třeba však také upozornit, že ani striktní používání Beallova seznamu (Beall’s List, 2015)
či jiného seznamu nic nezaručuje, neboť mezi „zakázané“ časopisy může být zařazeno
periodikum neprávem, případně v něm může zůstat, i když napravilo svá pochybení (např. při
recenzním řízení), jak jsme demonstrovali na dvou vydavatelstvích (Dove Medical Press
a Hindawi). Tyto seznamy by měly být zejména orientační.
Naopak veškeré institucionální snahy by měly být směřovány na akademické pracovníky –
poskytnout jim potřebné informace o predátorských časopisech a adekvátně je motivovat
k určitému chování. Určité chování by však nemělo být vynucované, neboť bychom naráželi
na možné potlačování akademické svobody, kterou je nutné na vysokých školách dodržovat.
Vedle motivace jednotlivců jde zejména o to, aby profesoři a docenti ze své pozice
uznávaných kapacit byli vzorem pro ostatní členy vědecké komunity podílející se na
publikační činnosti (odborní asistenti, asistenti, doktorandi). Jde o to vytvářet pozitivní
sociální tlak vědecké komunity dané instituce na své jednotlivé členy. Právě o chování
jednotlivců celý tento problém je. Na straně jednotlivců je podstatné mít své vlastní pevné
16 Jak se stalo již zvykem na zahraničních univerzitách – viz např. Ryerson University, University of Western Australia
nebo University of Manchester.
17 Podrobnosti zde: antipredator.vedazije.cz
195 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
etické zásady a odpovědnost vůči své pozici na vysoké škole, tak aby neztratila svou vážnost.
Zde se opět vracíme k naznačenému tématu, resp. implicitně položené otázce, zda je
vysokoškolské studium možno pojímat jako komoditu a jeho výsledkem je diplom či
certifikát, nebo zda by mělo být také o kultivaci člověka „jako osobnosti“, tedy o celkovém
osobnostním rozvoji včetně etické dimenze apod. Z předchozího textu je názor autorů tohoto
příspěvku čtenáři jistě patrný.
V tuto chvíli asi jediným způsobem, jak mohou akademici pomoci k pozitivní změně, je, že
jako jednotlivci budeme pečlivě individuálně prověřovat každý nový časopis či vydavatelství,
u kterého chceme publikovat, neboť právě tímto způsobem můžeme predátory vyhladovět a ti
začnou postupně ukončovat svou existenci. Vedle toho jsou potřeba také institucionální kroky
a tlak světové vědecké komunity zejména na kolegy z rozvojových zemí. V globální
perspektivě to tedy bude běh na dlouhou trať.
Dále se nabízí otázka: Jak se zachovat k těm, kteří několik svých článků (v naprosté většině
nevědomě a omylem) publikovali v predátorských časopisech? Je potřeba opět zdůraznit, že
se jedná o nový fenomén, o kterém většina nejen akademických pracovníků neměla a často
stále nemá žádné ponětí. Dle počtu publikovaných článků daného pracovníka je vhodné
zjistit, zda se nejednalo o systematickou a vědomou činnost. Dále zohlednit, zda od té doby,
co byl o tomto problému daný pracovník poučen, se jeho jednání opakovalo. Ve sporných
případech by mohla rozhodnout příslušná etická komise, která by měla být tvořena zejména
lidmi mimo danou instituci. Nelze však bezhlavě perzekuovat každého, kdo publikoval svůj
článek v predátorském časopisu, který se pak za danou instituci exportoval do RIV databáze
a tím pomyslně poškodil dobré jméno své instituce. Je třeba se vyhnout „procesům
s čarodějnicemi“ a zaměřit se na to, jak tomuto předcházet do budoucna a budovat
dlouhodobě udržitelnou vědu na kvalitní úrovni. Měli bychom najít pochopení, že každý se
může nevědomky ocitnout v této situaci. Není na místě své kolegy hned odsuzovat, jen je
nutné, aby publikování v predátorských časopisech nebylo nebo se z toho nestalo
systematické a vědomé jednání.
Připusťme i krajní scénář, že každý, i největší odpůrce publikování v predátorských
časopisech se může do stejné situace v budoucnu dostat. K tomu může dojít v případě, kdy
v současnosti stále ještě prestižní časopis začne v budoucnu uplatňovat predátorské chování
a bude vložen na seznam predátorských časopisů. Viz příklad v (Djuric, 2015), kdy se
takového chování dopouštěl časopis v uznávané vědecké databázi Web of Science, kde autor
očekává, že dané časopisy prošly rigorózním přijímacím řízením, jsou pod přísným dohledem
provozovatele této databáze a nehrozí tedy nebezpečí publikování v predátorském časopisu.
Je tedy naprosto na místě si také archivovat veškeré recenzní posudky k jednotlivým
publikovaným článkům pro možnost budoucí evaluace.
Dodejme, že články v takových časopisech by neměly být uznávány při řízení k udělování
vědecko-pedagogických hodností vysokoškolským pedagogům. V případě, že článek vyšel
v časopisu, který byl přidán na „seznam“ až později, měl by být takový článek důsledně
přezkoumán příslušnou komisí z hlediska kvality. Shrneme-li výše uvedené, pak navrhujeme
následující „protiopatření“ na úrovni organizační i individuální:
Škola by měla pozitivně motivovat (např. odměnami) akademické pracovníky, aby
publikovali především v tzv. indexovaných časopisech – Web of Science, Scopus a
tzv. Pozitivní seznam (Seznam recenzovaných neimpaktovaných periodik vydávaných
v ČR). Jak jsme uvedli výše, není to ale úplnou zárukou, neboť někteří predátoři již
pronikli i do těchto indexů. Dalším problémem je v současnosti snadno infikovatelná
databáze ERIH Plus.
196 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Škola by měla negativně motivovat akademické pracovníky kupříkladu tím, že za
„neindexované“ články v časopisech není žádná odměna a v případě zvyšování
kvalifikace (doktorské studium, habilitační řízení a řízení ke jmenování profesorem)
budou tyto články buď odmítnuty, nebo zvlášť zkoumány příslušnou komisí (nejen
z hlediska odbornosti, ale také dalšího možného neetického chování).
Škola by měla také poskytovat možnost se poradit s odborníkem v této oblasti (např.
informačním odborníkem, knihovníkem).
Škola by měla vytvořit repozitář otevřený pro všechny členy akademické obce, kam
by měli mít všichni autoři povinnost vkládat plné texty všech publikovaných výstupů
afilovaných na danou školu v elektronické podobě, jak je tomu běžné v zahraničí
(postačují i autorské či pracovní verze odeslané do recenzního řízení, tak aby se
neporušila další licenční ujednání). Akademici by se tak mohli lépe vzájemně
kontrolovat a rychleji odhalovat neetické či nepatřičné chování v dané vědecké
komunitě.
Škola by měla připravit krátkou příručku, kde by shrnovala znaky predátorského
časopisu (vydavatelství) a dále uvedla rady, jak identifikovat nestandardní chování
časopisu při recenzním řízení. Toto může být spojené i se školením zaměstnanců.
Cílem je, aby se jednotlivec vyvaroval zaslání článku do podezřelého periodika,
a v případě, že tak učiní, aby měl možnost odstoupit po nestandardním recenzním
řízení jakožto varovném znaku.
Pokud se jednotlivec rozhodne publikovat v zahraničním „neindexovaném“ časopisu,
měl by preferovat časopisy vydávané přímo vysokými školami a nikoli komerčními
vydavatelstvími či spolky. Sníží tím riziko, že se bude jednat o predátorský časopis.
Každá vědecká komunita zabývající se určitou tématikou má své hlavní představitele.
Jednotlivec by se však neměl spoléhat pouze na to, že když v určitém časopise
publikuje světově uznávaný představitel nebo jeho dobrý kolega, tak se jedná
o „bezpečný“ časopis. I přesto je třeba daný časopis podrobit pečlivému zkoumání.
Obdobně opatrně by se měl jednotlivec chovat i v případě vyhledávání zdrojů pro své
publikace, neboť citováním článků v predátorských časopisech autorovi na prestiži
nepřidá a naopak pomůže predátorským vydavatelům. Rešeršní práci obecně by měla
být věnována větší pozornost a větší prostor.
Vzhledem k tomu, že se jedná ve světovém měřítku o byznys v miliardách korun (Shen
& Björk, 2015), lze očekávat, že se bude vyvíjet i stále rafinovanější přístup predátorských
vydavatelství a časopisů k oslovování autorů o možnostech publikování. Současným trendem
mezi predátorskými vydavatelstvími je snižování poplatků za publikování (Shen & Björk,
2015), neboť jejich konkurenční prostředí se zahušťuje. Mezi další (očekávatelné) trendy
řadíme zejména:
Vytváření kvalitních webových prezentací, které budou vypadat moderně a jaké mají
renomované časopisy18.
Jak bude klesat poplatek za uveřejnění, mohou střední a velká vydavatelství nabízet
interdisciplinární publikační balíčky (např. 2+1 článek zdarma).
Predátorské časopisy se budou dále snažit dostat se do regionálních (např. Polska
Bibliografia Naukowa, ERIH Plus) i světových indexů (např. DOAJ, Scopus).
18 Nyní téměř všechny predátorské časopisy vypadají, jakoby byly „dělané na koleně“. Konkurenční výhodou pro ně může
být přejít na lákavější design po vzoru renomovaných OA časopisů a vydavatelství jako jsou cogentoa.tandfonline.com nebo
plos.org, případně využívání moderních a robustních publikačních systémů jako je např. Ambra.
197 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Predátorské časopisy či jejich vydavatelé se budou snažit vytvořit paradox, který
zmate návštěvníka, např. jeden časopis predátorského vydavatelství se na základě
rigorózního přijímacího procesu dostane do Scopusu, avšak ostatní desítky časopisů
daného vydavatelství se budou chovat predátorsky.
Predátorské časopisy mohou (nechat) vytvořit články, které budou vypadat, jakoby je
napsaly kapacity v příslušné oblasti, a tím zmást návštěvníka, který si tak může
vytvořit „falešný“ názor (to může být odhaleno křížovou kontrolou s osobní webovou
stránkou dané vědecké kapacity).
Masivní nábory vědeckých kapacit do redakčních rad predátorských časopisů. Mnohé
z těchto časopisů měly či mají redakční rady tvořené neexistujícími lidmi.
Je třeba se mít tedy stále na pozoru a ověřovat nevyžádané informace o možnostech
publikování zasílané na e-maily.
Vidíme, že se jedná o systémový problém, který nebude lehké v dohledné době zcela
uspokojivě vyřešit. Dle mínění autorů se blížíme do bodu velké změny či hluboké krize
v současnosti pojímaného vědeckého výzkumu, jeho sdílení a prezentace – a to nejenom
v České republice, ale i ve světě. Nyní jsme stále pouze na počátku problému, který se dotýká
vědeckých komunit po celém světě. Je to boj zřejmě na několik příštích let. České
vysokoškolské instituce by však měly reagovat na tento stav již nyní. Důvodem je, kromě již
řečeného, i připravovaná IPN metodika 2017+19, kde bude velmi pravděpodobně uplatněno
mezinárodní posouzení kvality výstupů dané organizace. V případě velkého množství článků
v predátorských časopisech lze tedy očekávat menší finanční příspěvek ze strany státu.
Poslední oblast, kterou se tato problematika dotýká, jsou „poctiví“ vydavatelé a v současnosti
světově uznávané indexační databáze odborné recenzované literatury. Lze očekávat, že tato
oblast, která je nyní plná spíše pasivních hráčů, rozporů či paradoxů, se bude postupem času
konsolidovat a jasně vymezovat vůči predátorským časopisům a jejich vydavatelům.
Kupříkladu otázka, která nyní trápí vydavatele, respektive zodpovědné editory, je, zda
vyškrtávat autorům články uvedené v predátorských časopisech ze seznamu použité literatury,
a tedy de facto provádět cenzuru? A obdobné to je i v případě mezinárodních indexovacích
databází, jako jsou např. DOAJ, ERIH Plus, Scopus či Web of Science. Některé z nich jsou
již takovými časopisy zamořeny, jiné proti nim bojují, a proto se nabízí otázek hned několik:
Zda nějak postihovat již indexované časopisy, když budou články v nich uveřejněné
vycházet z článků v predátorských časopisech? A tím vlastně sekundárně potvrzovat
jejich kvalitativní aspekty.
Zda vyřazovat již indexované časopisy chovající se nově predátorsky? Scopus již toto
aktivně činí.
Zda indexovat i dříve predátorské časopisy (nyní již nikoli) a v současnosti naplňující
kritéria pro přijetí k indexování do dané databáze?
Zda automaticky odmítat žádosti o indexaci od vydavatelů, kteří mají predátorské
aktivity v jakékoli formě?
Jak se zachovat a jaké jsou možnosti obrany při hijackingu vydávaného prestižního
časopisu?
19 Viz souhrnná studie (MŠMT, 2015). Podrobné informace o dané metodice
naleznete zde: metodika.reformy-msmt.cz
198 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Avšak nejdůležitější a prvotní otázkou pro všechny dotčené strany, na kterou jsou navázány ty
další výše vyřčené, je: Kdo a jak bude určovat, že se jedná o predátorský časopis, vydavatele
či predátorské chování? A tím jsme opět na začátku.
Autorská poznámka:
Vzhledem k tomu, že mnohé webové stránky, na které odkazuje v souvislosti s neetickými
praktikami zejména zdroj (Hajek, et al., 2015), jsou mimo provoz, upravené nebo nedostupné,
doporučujeme čtenářům využít službu Wayback Machine na Archiv.org, kde jsou starší verze
těchto webových stránek k dispozici v původním znění.
Seznam použitých zdrojů
AS FSV UK. (2015). Zápis a usnesení ze zasedání AS FSV UK ze dne 1. 12. 2015. Retrieved from: https://intranet.fsv.cuni.cz/FSVINT-2521-version1-2015_12_01_zapis_ze_zasedani_a.pdf
Asadi, A., Rahbar, N., Asadi, M., Asadi, F., & Paji, K.K. (2016). Online-Based Approaches to Identify Real Journals and Publishers from Hijacked Ones. Science and Engineering Ethics. doi: 10.1007/s11948-015-9747-9 (článek v tisku)
Bartošek, M. (2009). Open access – otevřený přístup k vědeckým informacím. Úvod do problematiky. Zpravodaj ÚVT MU, 20(2), 1-7.
Beall’s List. (2015). Beall’s List: Potential, possible, or probable predatory scholarly open-access publishers. Retrieved from: http://scholarlyoa.com/publishers/
Beall, J. (2015). Predatory journals and the breakdown of research cultures. Information development, 31(5), 473-476. doi: 10.1177/0266666915601421
Beall, J. (2013). Medical Publishing Triage – Chronicling Predatory Open Access Publishers. Annals of Medicine and Surgery, 2(2), 47-49. doi: 10.1016/S2049-0801(13)70035-9
Beall, J. (2012). Predatory publishers are corrupting open access. Nature, 489(7415), 179-179. doi: 10.1038/489179a
Berger, M., & Cirasella, J. (2015). Beyond Beall’s List: Better understanding predatory publishers. College & Research Libraries News, 76(3), 132-135.
Bláhová, D. (2013). Přínos, hrozby a možný vývoj otevřeného publikování (Open Access) jako nové formy vědeckého sdílení informací. ITlib: Informačné technológie a knižnice, 13(4), 26-32.
Bohannon, J. (2013). Who's Afraid of Peer Review? Science, 342(6154), 60-65. doi: 10.1126/science.342.6154.60
Brandt, R. (2015). K čemu ještě univerzity? A jaké? In: Jirsa, J. et al, Idea university (pp. 136-158). Praha: Academia.
Burešová, I. (2015). Predátorští vydavatelé – hrozba pro Open Access. Informace – zpravodaj Knihovny AV ČR, 5(2-3). Retrieved from: https://www.lib.cas.cz/casopis-informace/predatorsti-vydavatele-hrozba-open-access/
Butler, D. (2013). Investigating journals: The dark side of publishing. Nature, 495, 433–435. doi: 10.1038/495433a
Carr, N. (2011). The Shallows: How the internet is changing the way we think, read and remember. London: Atlantic Books.
Crawford, W. (2014). Ethics and Access 1: The Sad Case of Jeffrey Beall. Cites & Insights, 14(4), 1-14.
199 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Djuric, D. (2015). Penetrating the Omerta of Predatory Publishing: The Romanian Connection. Science and Engineering Ethics, 21(1), 183-202. doi: 10.1007/s11948-014-9521-4
Dvořáčková, J., Pabian, P., Smith, S., Stöckelová, T., Šima, K., & Virtová, T. (2014). Politika a každodennost na českých vysokých školách: etnografické pohledy na vzdělávání a výzkum. Praha: Sociologické nakladatelství.
Flanagan, J. (2015). Predatory Publishers: Authors Beware. International Journal of Nursing Knowledge, 26(1), 1. doi: 10.1111/2047-3095.12069
FSV UK. (2015). Vyjádření FSV UK ve věci neetických publikačních praktik. Retrieved from: http://www.fsv.cuni.cz/FSVTEMP-1837.html
Grgić, I. H. (2015). Open access – Deus ex machina for publishing scholarly journals? Libellarium: Journal for the research of writing, books, and cultural heritage institutions, 8(2). doi: 10.15291/libellarium.v0i0.228
Hajek, R. et al. (2015). Za etické publikace a svobodu kritiky na IKSŽ. Retrieved from: https://zaetickepublikace.wordpress.com/
Jalalian, M. (2015). The story of fake impact factor companies and how we detected them. Electron Physician, 7(2), 1069–1072. doi: 10.14661/2015.1069-1072
Knecht, P. (2013). Už jste se setkali s predátorem? Pedagogická Orientace, 23(3), 277-278.
Knihovna UTB. (2015). Kde publikovat. Knihovna UTB ve Zlíně. Retrieved from: http://www.utb.cz/knihovna/veda-a-vyzkum/kde-publikovat
Komm, M. (2015). Predátoři a upíři aneb horor vědeckých publikací. Deník Referendum. Retrieved from: http://denikreferendum.cz/clanek/21850-predatori-a-upiri-aneb-horor-vedeckych-publikaci
Komm, M., Vojtková, M., Dvořáček, L. (2015). Do systému hodnocení vědeckých výsledků pronikly predátorské časopisy. Fórum Věda žije! Retrieved from: http://vedazije.cz/sites/default/files/TZ_antipredator_v4.pdf
Končelík, J. (2015). Reakce na Otevřený dopis ze dne 19. listopadu 2015. Retrieved from: http://www.transparency.cz/wp-content/uploads/Odpov%C4%9B%C4%8F-d%C4%9Bkana.pdf
Laakso, M., Welling, P., Bukvova, H., Nyman, L., Björk, B-C., Hedlund, T. (2011). The Development of Open Access Journal Publishing from 1993 to 2009. PLoS ONE, 6(6), e20961. doi: 10.1371/journal.pone.0020961
Lázňovský, M. (2015). Akademická „žumpa“ vynáší ročně přes miliardu korun, tvrdí studie. Technet.cz. Retrieved from: http://technet.idnes.cz/pavedecke-casopisy-vydelavaji-des-/veda.aspx?c=A151002_150910_veda_mla
Lears, J. (2015). Radikální odkaz tradice: výuka svobodných umění v manažerské době. In: Jirsa, J. et al, Idea university (pp 106-121). Praha: Academia.
Liessmann, K. P. (2009). Teorie nevzdělanosti: omyly společnosti vědění. Praha: Academia.
Morrison, H., Salhab, J., Calvé-Genest, A., & Horava, T. (2015). Open Access Article Processing Charges: DOAJ Survey May 2014. Publications, 3, 1-16. doi: 10.3390/publications3010001
MŠMT. (2015). Metodika hodnocení ve výzkumu a vývoji a zásady financování. Praha: Ministerstvo školství, mládeže a tělovýchovy. Retrieved from: http://metodika.reformy-msmt.cz/metodika-hodnoceni-a-zasad-financovani-vystupy
Nahai, F. (2015). The Rise of Predatory Journals: What Difference Does It Make?. Aesthetic Surgery Journal, 35(8), 1042-1043. doi: 10.1093/asj/sjv085
Nelsona, N., & Huffman, J. (2015). Predatory Journals in Library Databases: How Much Should We Worry? The Serials Librarian: From the Printed Page to the Digital Age, 69(2), 169-192. doi: 10.1080/0361526X.2015.1080782
Němcová Tejkalová, A. (2015). Pravidla publikační činnosti pro Institut komunikačních studií a žurnalistiky FSV UK. Retrieved from: http://iksz.fsv.cuni.cz/IKSZFSV-402-version1-pravidla_publikacni_cinnosti.pdf
200 ACTA INFORMATICA PRAGENSIA Volume 04 | Number 02 | 2015
Nicoll, L. H. (2015). Predatory Publisher Statement. CIN – Computers, Informatics, Nursing, 33(2), 43-45. doi: 10.1097/CIN.0000000000000138
Novotný, J. (2015). Jak vysát rozpočet na vědu do poslední kapky. E15 Euro, (49). Retrieved from: http://euro.e15.cz/archiv/jak-vysat-rozpocet-na-vedu-do-posledni-kapky-1252838
Omobowale, A. O., Akanle, A., Adeniran, I., Olayinka, K. (2014). Peripheral scholarship and the context of foreign paid publishing in Nigeria. Current Sociology, 62(5), 666-684. doi: 10.1177/0011392113508127
Řezníček, V., & Čermák, R. (2014). The importance of thinking in the field of education for the „information age”. In System approaches'14. Systems thinking and global problems of the world (pp. 5-9). Praha: Oeconomica.
Řezníček, V., & Smutný, Z. (2011). Změna komplexity, datová přesycenost a role znalosti. In Systémové přístupy '11 – Systémové myšlení jako změna paradigmatu (pp. 128–131). Praha: Oeconomica.
Shen, C., & Björk, B-C. (2015). ‘Predatory’ open access: a longitudinal study of article volumes and market characteristics. BMC Medicine, 13(230). doi: 10.1186/s12916-015-0469-2
Skůpa, J. (2015). Zlatá cesta Open Access. Portál knihoven VUT v Brně. Retrieved from: https://www.vutbr.cz/knihovny/openaccess/gold
Sohail, S. (2014). Of Predatory Publishers and Spurious Impact Factors. Journal of the College of Physicians and Surgeons Pakistan, 24(8), 537-538.
Sokal, A. D. (1996). A Physicist Experiment with Cultural Studies. Lingua Franca. 6(4), 62–64.
Solomon, D.J., & Björk, B-C. (2012). A study of open access journals using article processing charges. Journal of the American Society for Information Science and Technology, 63(8), 1485-1495. doi: 10.1002/asi.22673
Spitzer, M. (2014). Digitální demence: jak připravujeme sami sebe a naše děti o rozum. Brno: Host.
Stöckelová, T., & Vostal, F. (2015). Texty bez čtenářů aneb Horečná nehybnost vědy. Časopis HOST. Retrieved from: http://casopis.hostbrno.cz/aktualni-rocnik/2015/06-2015/texty-bez-ctenaru-aneb-horecna-nehybnost-vedy
Strielkowski, W. (2015). Za etické publikace (pravdivá) Fakta o publikační činnosti na IKSŽ FSV UK. Retrieved from: http://zaetickepublikace.webnode.cz/
Tin, L., Ivana, B., Biljana, B., Ljubica, I. B., Dragan, M., Dušan, S. (2014). Predatory and fake scientific journals/publishers – A global outbreak with rising trend: A review. Geographica Pannonica, 18(3), 69-81.
Transparency International. (2015). Shoda okolností, nebo whistleblowing? Retrieved from: http://www.transparency.cz/shoda-okolnosti-nebo-whistleblowing/
ÚK ČVUT. (2015). Predátorské časopisy. Ústřední knihovna ČVUT v Praze. Retrieved from: http://knihovna.cvut.cz/veda/predatorske-casopisy/
ÚK UK. (2014). Predátoři: Nenechte se polapit predátory! A napálit podvodným časopisem! Ústřední knihovna Univerzity Karlovy v Praze. Retrieved from: http://knihovna.cuni.cz/open-access/zakladni-informace/predatori/
Call for paper / Informace pro autory
Detailed information about the scope of the journal and its sections including the review process
can be found here. Templates for the articles are available on the journal website.
Podrobné informace o zaměření časopisu a jednotlivých sekcích včetně průběhu recenzního
řízení získáte zde. Šablony pro psaní příspěvků jsou k dispozici na webových stránkách.
June issue / Červnové číslo
Deadline 27th March 2016 / Termín uzávěrky 27. března 2016
December issue / Prosincové číslo
Deadline 16th October 2016 / Termín uzávěrky 16. října 2016
Acta Informatica Pragensia
Publisher
University of Economics, Prague
Faculty of Informatics and Statistics
nám. W. Churchilla 4, 130 67 Praha 3
Editor-in-Chief
Stanislava Mildeová
e-mail: [email protected], tel.: +420 224 095 474
Layout
Daniel Hamerník & Zdeněk Smutný
The journal Acta Informatica Pragensia
is open access and has no charge
for article publishing.
Abstracting & Indexing
European Reference Index for the Humanities and the Social Sciences (ERIH Plus), Research Papers
in Economics (RePEc), Open Archives Initiative (OAI), Directory of Open Access Journals (DOAJ),
Bielefeld Academic Search Engine (BASE), OCLC WorldCat, Google Scholar, Open Academic
Journals Index, Academic Journals Database, ResearchBib Journal Database, National Library of the
Czech Republic (WebArchiv project).
The journal Acta Informatica Pragensia is also included in the government list
of peer-reviewed journals published in the Czech Republic.
General partner University of Economics, PragueGenerální partner Vysoké školy ekonomické v Praze
http://aip.vse.cz