lafuente, c. y poza c. (2011) apuntes de metodología y técnicas de investigacion (20!03!11)
DESCRIPTION
metodologia de investigacionTRANSCRIPT
1
APUNTES DE
METODOLOGÍA Y TÉCNICAS DE INVESTIGACIÓN
Carmen Lafuente
Carlos Poza
ÍNDICE:
MÓDULO 1: METODOLOGÍA Y DISEÑO DE UNA INVESTIGACIÓN CIENTÍFICA
Capítulo 1. Método científico y tipología
Capítulo 2. Diseño de una investigación científica
MÓDULO 2: INVESTIGACIÓN CUALITATIVA
Capítulo 3. Introducción a la metodología y técnicas cualitativas
Capítulo 4. Entrevistas en profundidad
Capítulo 5. Grupos de discusión
Capítulo 6. Método Delphi
MÓDULO 3: INVESTIGACIÓN CUANTITATIVA
Capítulo 7. Introducción a la metodología y técnicas cuantitativas
Capítulo 8. Encuesta por muestreo
Capítulo 9. Tratamiento básico de datos
Capítulo 10. Inferencia estadística y contrastes de de hipótesis
Capítulo 11. ANOVA y regresión lineal múltiple
Capítulo 12. Análisis discriminante y regresión logística
Capítulo 13. Análisis factorial
Capítulo 14. Análisis cluster
Capítulo 15. Modelos de ecuaciones estructurales
2
MÓDULO 1:
METODOLOGÍA Y DISEÑO
DE UNA INVESTIGACIÓN CIENTÍFICA
3
CAPÍTULO 1
Método científico y tipología
1. Introducción
Las ciencias sociales son disciplinas que analizan el comportamiento y actividades de
los seres humanos, describen y explican científicamente la conducta, la evolución y la
relación entre los individuos de una sociedad.
El estudio del comportamiento humano se remonta a la época greco-romana, y
aunque no se puede hablar de un conocimiento científico organizado, los estudios de
Platón y Aristóteles serían las primeras aportaciones a las ciencias sociales en el
mundo antiguo. Desde sus inicios los científicos han realizado una investigación tanto
pura o teórica (su propósito fundamental es el de desarrollar teoría mediante el
descubrimiento de amplias generalizaciones o principios) como aplicada o práctica
(depende de los descubrimiento y aporte teóricos de la pura y busca contrastar la
teoría con la realidad) sobre el funcionamiento cotidiano de la sociedad, han
investigado sobre el comportamiento de los grupos sociales, sobre el poder y las
relaciones entre el gobierno y los ciudadanos, sobre la producción y el intercambio de
bienes y servicios entre los agentes sociales,... En los siglos XVIII-XX es cuando se
produce el auténtico desarrollo de las ciencias sociales, entre ellas la Economía.
Las Ciencias Económicas, desde no hace mucho, han comenzado a desarrollar
métodos propios para generar conocimiento. La investigación económica utiliza en su
análisis la inducción, la deducción, la síntesis,... de forma conjunta como una técnica
de investigación.
En este capítulo se realiza una breve exposición de las estrategias investigadoras más
utilizadas en Economía para generar conocimiento científico.
2. Metodología de la investigación
La metodología es la teoría que ofrece técnicas y métodos generales de investigación.
La metodología de la investigación hace referencia a los pasos y procedimientos que
se deben seguir para llevar a cabo una investigación en una determinada área o
especialidad. En este sentido, la metodología representa la manera de organizar el
4
proceso de investigar, de controlar los resultados y de presentar soluciones a
problemas. Propone el método y las técnicas, esto es, la manera de utilizar el método
de forma efectiva para generar conocimiento.
Cuando hablamos de investigar nos referimos a averiguar o descubrir alguna cosa.
Cuando investigamos intentamos responder a una pregunta o hipótesis para aumentar
el conocimiento o la información de algo desconocido. En este proceso se pueden
generar dos tipos de conocimiento en función de si la investigación es o no científica.
Cuando la investigación no es científica se genera conocimiento empírico, para
algunos autores o vulgar para otros. Este tipo de conocimiento se obtiene por el azar,
por la experiencia, por instinto, por los sentidos. Es un conocimiento ametódico y
asistemático que no se somete a prueba.
Si la investigación es científica se genera conocimiento científico. “El conocimiento
científico o ciencia es el resultado de una investigación científica realizada de acuerdo
con el método de investigación científico” (Sierra, 1986). El conocimiento científico da
a conocer las causas que generan el fenómeno. Proporciona cuál es la causa que lo
produce y el motivo por el cual no puede ser de otro modo, esto es, sabemos porque
demostramos. Un conocimiento para que sea científico debe cumplir una serie de
requisitos: que sea racional, sistemático, exacto, verificable y fiable (Bunge, 1981). Por
su parte, Díaz y Heler (1985) apuntan las siguientes características:
- Crítico. Debe justificar sus conocimientos y dar pruebas de su verdad. En
ningún caso, el conocimiento científico se considera que sea definitivo,
siempre está sujeto a revisión.
- Sistemático. Es ordenado, es un conjunto de ideas conectadas entre sí.
- Explicativo. La ciencia formula teorías que dan lugar a leyes generales que
explican hechos particulares y predicen comportamientos. Son
conocimientos útiles.
- Verificable. Se centra en fenómenos susceptibles de ser comprobados
experimentalmente o al menos contrastados experiencialmente (de manera
que demuestren su adecuación, su utilidad).
- Metódico. Los conocimientos científicos no se adquieran al azar, sino que
son fruto de rigurosos procedimientos (observación, reflexión,
contrastación, experimentación, etc.).
5
- Objetivo. No depende del sujeto que realiza la observación, el experimento
o propone el modelo. Aunque actualmente, se cuestiona la objetividad
absoluta.
- Comunicable. Debe utilizar un lenguaje científico, unívoco en términos y
proposiciones, y que evite las ambigüedades.
- Provisorio. El saber científico debe estar en permanente revisión para que
así pueda evolucionar.
La metodología de la investigación propone el método y las técnicas para llevar a cabo
una investigación científica, es decir, proporciona el procedimiento general (método) y
los procedimientos de actuación concretos (técnicas), para llevar a efecto las distintas
etapas del método.
3. El método científico
El método científico es una estrategia, es una forma, es un camino para generar
conocimiento científico o ciencia. A grandes rasgos, el método científico es un
conjunto de procedimientos para conceptualizar un problema, plantear hipótesis y
seleccionar técnicas y herramientas para generar conocimiento.
Según Fontela (1990) al intentar clasificar los enfoques de la metodología científica, se
identifican frecuentemente tres procesos o métodos:
1) el enfoque inductivo y empírico, basado sobre la observación y apoyado en
el consenso de los observadores;
2) el enfoque deductivo, basado sobre la aplicación de instrumentos de lógica
racional a un conjunto de presupuestos fundamentales, y
3) el enfoque sintético, caracterizado por una interacción permanente entre
deducción e inducción, entre teoría y realidad observada.
El método inductivo fue introducido por Francis Bacon a comienzos del siglo XVII. En
términos generales consiste en establecer enunciados universales ciertos a partir de la
experiencia. Este enfoque recibió un importante impulso a finales del siglo XIX y
mediados del siglo XX con el desarrollo de la Estadística.
6
Las primeras consideraciones del método deductivo se derivan de la obra de
Descartes en 1675, “El discurso del método”. Descartes utilizaba la deducción y las
matemáticas como punto de referencia para desarrollar una teoría. El método
deductivo genera conocimiento formulando hipótesis básicas y deduciendo
posteriormente sus consecuencias con la ayuda de las subyacentes teorías formales.
Ambos métodos, el inductivo y el deductivo, utilizan la lógica y llegan a una conclusión.
Ambos son susceptibles de contrastación empírica. Aunque el método deductivo es
más propio de las ciencias formales (matemáticas, física, etc.) y el inductivo de las
experimentales (ciencias naturales y ciencias sociales), nada impide la aplicación
indistinta de un método científico a una u otra teoría.
La diferencia fundamental entre el deductivo y el inductivo es que, el primero aspira a
demostrar, utilizando la lógica pura, la conclusión en su totalidad a partir de unas
premisas, de manera que se garantiza la veracidad de las conclusiones, si no se
invalida la lógica aplicada. El método inductivo crea leyes a partir de la observación de
los hechos, mediante la generalización del comportamiento observado.
En la práctica, generalmente, cuando investigamos en ciencias sociales, no puede
hablarse de una estrategia investigadora inductiva o deductiva en estado puro. En este
sentido, Sierra Bravo (2006) señala que el método científico es a la vez, inductivo y
deductivo. Es inductivo cuando realiza una clasificación sistemática de los datos
obtenidos de la observación de la realidad y es deductivo cuando establece conceptos
e ideas derivados de otros conceptos e ideas enunciados anteriormente.
En términos generales podemos decir que el método en la investigación social es una
estrategia que utiliza la inducción, deducción y la síntesis para adquirir conocimiento
de la realidad social.
4. Tipos de investigación: cualitativa y cuantitati va
A lo largo del tiempo, se ha debatido desde distintas corrientes filosóficas (empirismo,
positivismo, fenomenología, estructuralismo,..) sobre los métodos existentes de
investigación y sobre la idoneidad de unos u otros para investigar en las ciencias
sociales.
Como se comentó en el epígrafe 3, el método puede presentar distintas modalidades,
pero, si entendemos que el método en la investigación social es una estrategia que se
7
emplea para adquirir conocimiento de la realidad, entonces debemos buscar aquellas
estrategias investigadoras en las que exista rigor y conexión entre la teoría y las
técnicas. En este sentido, es posible desarrollar dos estrategias o enfoques, el
cualitativo y el cuantitativo.
Ambos enfoques comparten estrategias generales comunes como observar y evaluar
fenómenos, aunque cada una presenta sus propias características.
El enfoque cualitativo trata de explorar e identificar la naturaleza y características de la
realidad que se estudia y evita la cuantificación de los hechos. Utiliza técnicas como la
entrevista y los grupos de discusión. No se suelen plantear hipótesis. El proceso de
investigación no presenta una secuencia establecida.
El enfoque cuantitativo trata de recopilar datos de las variables que definen el
fenómeno, cuantifica los hechos. Utiliza técnicas y herramientas de la estadística para
la recopilación y tratamiento de datos. Se suelen plantear hipótesis. El proceso de
investigación es secuencial.
Es bastante habitual utilizar ambas estrategias para desarrollar una misma
investigación.
En el epígrafe siguiente se expone un tipo de diseño de un proceso de investigación
por etapas, propio de una investigación cuantitativa. Sin embargo, en el módulo 3 de
este mismo documento también se exponen técnicas propiamente cualitativas que,
junto con la investigación cuantitativa, ofrecería un carácter mixto a la investigación.
8
CAPÍTULO 2
Diseño de una investigación científica
1. Introducción
El diseño (plan o programa) de la investigación se puede definir como el plan global de
investigación que intenta dar de una manera clara respuestas a las preguntas
planteadas en la misma.
El plan de investigación que aquí se presenta recoge ocho etapas, ordenadas de
forma secuencial, para dar respuesta a cada una de las preguntas formuladas en el
proyecto de investigación:
1. Planteamiento del problema de investigación: ¿qué fenómeno vamos a
investigar?
2. Objetivos de la investigación: ¿qué meta perseguimos con el desarrollo de
nuestra investigación?
3. Justificación de la investigación: ¿por qué investigamos en este tema y
cuál es el alcance de nuestros resultados?
4. Marco teórico y conceptual (estado del arte): ¿qué y quienes han
investigado sobre el tema objeto de estudio?
5. Variables e hipótesis: ¿qué variables definen el fenómeno que
investigamos y qué relación existente entre ellas queremos validar?
6. Metodología: ¿cómo y qué medios vamos a utilizar para llevar a cabo
nuestra investigación?
7. Conclusiones: ¿hemos conseguido los objetivos propuestos? ¿qué nuevo
conocimiento o metodología aporta nuestra investigación?
8. Bibliografía: ¿qué documentación hemos utilizado para el desarrollo de
nuestra investigación?
9
2. Planteamiento del problema de investigación
El punto de partida de una investigación es la elección del tema y la definición del
problema a investigar. El tema es el origen de la investigación y nace de la intuición,
de la experiencia y/o de la observación de la realidad. El tema se expresa mediante
una frase y normalmente relaciona dos o más áreas o conceptos. No existen reglas
fijas para encontrar el tema de investigación, Ramírez (2006) plantea algunos criterios
para seleccionar el tema de estudio:
• Escoger algún tema sobre el que ya se posee información.
• Seleccionar un tema concreto y accesible, un tema sobre el que exista
suficiente bibliografía y del que se puedan obtener datos fácilmente.
• Buscar un problema de investigación que resulte de interés.
Otros autores plantean otros criterios como son la experiencia en el tema y tener
conocimientos para su manejo.
Una vez que hemos elegido el tema de nuestro proyecto debemos realizar un
planteamiento del problema de investigación, es decir, debemos enunciar, describir y
delimitar el problema en el que queremos investigar.
El problema se puede formular de manera declarativa o interrogativa. En el primer
caso se expresa a forma de propósito (Ej. La investigación pretende mostrar la
importancia del papel del fundador en el crecimiento de una empresa familiar). En el
segundo caso se expresa formulando una pregunta (Ej. ¿Es importante el papel del
fundador en la fase de crecimiento de una empresa familiar?).
Es conveniente formular, junto con la pregunta que recoge el tema general de la
investigación, una serie de preguntas que ayuden a transformar el tema general en
problemas más concretos y más fáciles de tratar. De esta forma, surgirán problemas
específicos de investigación, de entre los cuales podremos seleccionar aquellos que
sean viables y sean de nuestro interés.
Ejemplo:
Pregunta general: ¿Cuáles son los elementos clave que generan valor agregado en una empresa?
Preguntas específicas: ¿Son los mismos para todos los tipos de empresa? ¿Cómo podemos identificarlos
y medirlos? ¿Se pueden medir de manera aislada o dentro de un contexto interrelacionado? ¿Se pude
probar el impacto de los elementos intangibles en el desempeño y el éxito de una organización? ¿Es
10
posible establecer un marco de trabajo práctico con el cual se puedan gestionar los intangibles
estratégicos?
(Torres, 2008)
La descripción del problema permite conocer todos los hechos relacionados con el
problema de investigación. Cuando lo describimos debemos presentar los
antecedentes teóricos y/o empíricos, las teorías y los supuestos básicos en los que se
apoya el enunciado del problema.
El problema debe enunciarse de forma clara y concisa, es decir, debe ser delimitado.
La delimitación supone establecer el tiempo de realización, fijar los espacios físicos y/o
geográficos dónde se va a centrar la investigación y determinar los conceptos y
recursos disponibles para su realización. Una delimitación adecuada del tema es una
garantía de la viabilidad de la investigación.
El planteamiento de un problema de investigación exige una concepción previa de la
naturaleza de la realidad que queremos estudiar. Una revisión bibliográfica en el área
de estudio y la consulta a expertos en la materia pueden resultar de gran ayuda en
esta primera etapa del proceso de investigación.
3. Objetivos de la investigación
Una reflexión y estudio sobre el origen, naturaleza y características del tema de
investigación revelará aspectos importantes para perfilar la idea inicial del problema
objeto de estudio y será de utilidad para formular los objetivos perseguidos en el
trabajo.
Un objetivo es un fin, un resultado al que van dirigidas todas las actividades a llevar a
cabo en nuestra investigación. Se pueden distinguir dos tipos de objetivos, el objetivo
general y los objetivos específicos o instrumentales. El objetivo general debe
responder al tema de investigación. Se recomienda que en la investigación haya un
solo objetivo general que defina el propósito del trabajo. Dos o más objetivos
generales podrían indicar que se van a realizar dos o más investigaciones. Los
objetivos específicos o instrumentales son las acciones, los pasos intermedios para la
consecución del objetivo general. Son un desglose del objetivo general e indican las
partes en las que se va a dividir la investigación.
11
Los objetivos deben ser formulados con claridad utilizando verbos fuertes expresados
en infinitivo. Deben ser concretos, medibles y seguir un orden lógico.
Ejemplo:
Objetivo general: Desarrollar un modelo integrador de elementos intangibles que sirva, por un lado, como
base teórica para futuras investigaciones y por otro lado, como marco de trabajo para la gestión de
recursos y capacidades claves en el desempeño empresarial.
Objetivos específicos:
• Identificar con base a la literatura relevante, un conjunto de elementos genéricos que son
considerados como los elementos intangibles claves en la creación de valor en las
empresas de la economía actual.
• Desarrollar un modelo conceptual que integre los elementos intangibles identificados,
estableciendo una estructura causal que, en última instancias, los vincule con el
desempeño.
• Probar el modelo conceptual a través de una muestra de empresas en México utilizando
técnicas y herramientas estadísticas que permitan explorar posibles relaciones entre
elementos intangibles e identificar diferencias en las acumulaciones y desempeño entre
empresas familiares y no familiares, así como identificar elementos distintivos con base en
el tamaño, edad o sector en el que operan.
(Torres, 2008)
4. Justificación de la investigación
Justificar una investigación consiste en expresar las razones por las que se lleva a
cabo el estudio. Debemos explicar por qué es conveniente y cuáles son los beneficios
que se esperan con el conocimiento obtenido, es decir, debemos demostrar por qué la
investigación es necesaria e importante en el área en la que se centra nuestro estudio.
Una investigación se inicia con algún propósito en un área de conocimiento
determinada, por lo tanto, su realización debe ser de utilidad por diferentes motivos.
Hernández et al. (2006) indican algunos criterios, formulados como preguntas, para
evaluar la utilidad de una investigación:
• Conveniencia: ¿para qué sirve la investigación?
• Relevancia social: ¿qué alcance o proyección social tiene?
12
• Implicaciones prácticas: ¿ayudará a resolver algún problema real?
• Valor teórico: Con la investigación ¿se llenará algún vacío del
conocimiento? ¿la información que se obtenga servirá para revisar,
desarrollar o apoyar una teoría? ¿se podrá conocer en mayor medida el
comportamiento de una o de diversas variables o la relación entre ellas?
¿se pueden sugerir ideas, recomendaciones o hipótesis para futuros
estudios?
• Utilidad metodológica: ¿la investigación puede ayudar a crear un nuevo
instrumento para recopilar o analizar datos? ¿sugiere cómo estudiar mejor
una población?
5. Marco teórico y conceptual
Siguiendo a Hernández et al.:
“El marco teórico es un compendio escrito de artículos, libros y otros documentos que describen el
estado pasado y actual del conocimiento sobre el problema de estudio. Nos ayuda a documentar
cómo nuestra investigación agrega valor a la literatura existente” (Hernandez et al., 2006).
Estos mismos autores destacan las siguientes funciones del marco teórico:
1. Ayuda a prevenir errores que se han cometido en otros estudios.
2. Orienta sobre cómo habrá de realizarse el estudio. Al acudir a los
antecedentes nos podemos dar cuenta de cómo se ha tratado un problema
específico de investigación: qué clases de estudios se han efectuado, con
qué tipo de participantes, cómo se han recolectado los datos, en qué
lugares se han llevado a cabo, qué diseños se han utilizado. Aun en el
caso de que desechemos los estudios previos, éstos nos orientarán sobre
lo que queremos y lo que no queremos para nuestra investigación.
3. Amplía el horizonte del estudio o guía al investigador para que se centre en
su problema, para evitar desviaciones del planteamiento general.
4. Documenta la necesidad de realizar el estudio.
5. Conduce al establecimiento de hipótesis o afirmaciones que más tarde
habrán de someterse a prueba en la realidad, o bien, nos ayuda a no
establecerlas por razones bien fundamentadas.
6. Inspira nuevas líneas y áreas de investigación.
13
7. Provee de un marco de referencia para interpretar los resultados del
estudio. Aunque podemos no estar de acuerdo con dicho marco o no
utilizarlo para interpretar nuevos resultados, es un punto de referencia.
Para elaborar el marco teórico y conceptual comenzamos con la revisión bibliográfica
que consiste en recopilar y consultar aquella información local, nacional y/o mundial
que está relacionada con nuestro tema de investigación.
De todos los artículos, libros y documentos recopilados y consultados,
seleccionaremos aquellos que puedan proporcionarnos datos e ideas que sean de
utilidad para el desarrollo de nuestro marco de referencia.
La bibliografía consultada debe ser debidamente referenciada a lo largo de toda la
investigación. Es importante diferenciar la aportación del investigador del resto de
ideas, conceptos y teorías extraídos de las fuentes consultadas. En la tabla 1 se
muestra cómo citar dentro del texto siguiendo las normas Harvard.
Tabla 1. ¿Cómo citar dentro del texto?
Si el nombre del autor ocurre de forma
natural en la frase
Ej. De acuerdo con Becker (1975), el capital humano es la
acumulación (stock) de conocimiento, competencias,...
Si el nombre del autor no ocurre de forma
natural en la frase
Ej. El capital humano representa el conocimiento y
habilidades de una persona, las cuales le permiten realizar
acciones únicas y novedosas (Coleman, 1988)
Cuando se citan varias obras del mismo
autor publicadas en el mismo año
Ej. En materia de gerencia social es imprescindible
mencionar las contribuciones de Klisberg (1993b).
Si hay dos autores Ej. Según Mill y Morrison (1985), las necesidades son una
combinación de anhelos de los que el consumidor puede
ser o no consciente
Si hay más de dos autores Ej. Cals et al. (1993) proponen…
Si se desconoce el nombre del autor o no
figura
Ej. Un artículo reciente (Anon 1993) afirmaba que…
Si se cita una fuente citada en otra obra Ej. Un estudio de Smith (1960 citado por Jones 1994 p. 24)
demostraba que…
Las citas literales de menos de tres líneas
(dentro del texto entre comillas)
Ej. …“La ciencia es una empresa dedicada a averiguar”
(Babbie, 1999, p. 71)
Las citas literales de más de tres líneas
(párrafo aparte y sangrado)
Ej. “En el proceso seguido para la determinación de
hipótesis se pueden distinguir dos pasos principales: a)
hallar el aspecto, relación o factor que pueda dar solución a
la cuestión investigada, y b) expresar dicho aspecto,
relación o factor en forma adecuada susceptible de
verificación”.
Fuente: Normas Harvard
14
La documentación recopilada proporciona una síntesis del contexto general de nuestro
tema de estudio. A partir de este contexto desarrollamos el estado del arte
exponiendo, explicando y contrastando las teorías y estudios empíricos que existen
sobre el fenómeno objeto de estudio.
Las teorías y las comprobaciones empíricas aplicables a nuestra investigación nos
permiten detectar qué conocimiento existe sobre el tema en el que estamos trabajando
y también nos ayuda a descubrir qué vacíos queremos llenar con nuestro proyecto.
No siempre existen teorías y/o estudios empíricos en los que nos podamos basar para
el desarrollo del marco teórico. En estos casos nos limitaremos a extraer aspectos
relevantes de estudios previos que están relativamente relacionados con nuestro
tema.
La literatura consultada también debe proporcionarnos información suficiente para
elaborar el contexto conceptual en el que se considera el problema de investigación.
Debemos desarrollar los conceptos operativos, explicativos e implícitos del problema
(Ej. Conceptualizar el término de innovación. Concepto de empresa familiar.)
6. Variables y Formulación de hipótesis
Las variables son cualidades, propiedades o rasgos observables de los elementos del
estudio científico. Las variables son de gran importancia en el método científico
porque las clasificamos y agrupamos, las relacionamos y, las estudiamos y las
interpretamos. Las variables participan en todas las fases del proceso, por esto,
debemos definirlas con un alto grado de especificación (Lafuente y Marín, 2008).
Se pueden considerar distintos tipos de variables si atendemos a los siguientes
criterios de clasificación:
• Según la naturaleza: de acuerdo este criterio, las variables pueden ser
cualitativas o cuantitativas. Las primeras se refieren a características cuya
observación proporciona un dato no numérico (Ej. Las formas de
constitución de una empresa). Las variables cuantitativas son
características cuya observación proporciona un dato numérico (Ej. La
propensión exportadora de las PYMES españolas; El tamaño de las
empresas según volumen de ventas)
15
• Según la posición que relaciona a las variables: se distingue entre
variables dependientes y variables independientes. Las variables
dependientes son aquellas cuyo comportamiento viene determinado por el
comportamiento de otra u otras variables. Las variables independientes
son las variables que se proponen en la investigación para explicar la
razón de ser de la variable dependiente. Intentamos descubrir que tipo de
asociación o influencias ejercen las variables independientes sobre la
variable dependiente (Ej. Queremos explicar cómo influye la innovación,
variable independiente, en los beneficios de las empresas, variable
dependiente).
Las hipótesis de investigación o hipótesis de trabajo son “explicaciones tentativas del
fenómeno investigado que se formulan como proposiciones” (Hernández et al., 2006).
Una hipótesis, por lo tanto, es una afirmación tentativa. No es un hecho. Son
afirmaciones de una variable o sobre la relación existente entre dos o más variables
que deben ser sometidas a prueba. En este sentido, la hipótesis debe ser formulada
de tal forma que pueda ser potencialmente aceptada o rechazada, es decir debe estar
sujeta a una comprobación empírica.
En una investigación se pueden formular dos o más hipótesis, aunque en algunas
ocasiones no se incluyen hipótesis de trabajo, es el caso de investigaciones
exploratorias y el de investigaciones cualitativas.
Las hipótesis surgen del planteamiento del problema, de la intuición y de la revisión de
la literatura realizada. El marco teórico y conceptual dan fundamento y justificación a
las hipótesis de trabajo, a priori validan las relaciones entre variables recogidas en la
afirmación, aunque estas relaciones sólo serán aceptadas o rechazadas cuando se
realice el adecuado análisis de datos, es decir, cuando hayan sido objeto de
comprobación empírica.
Existen distintas clasificaciones de hipótesis según los criterios establecidos.
Hernandez et al. (2006) distinguen cuatro tipos de hipótesis según el alcance de la
investigación: descriptivas, correlacionales, de diferencia de grupos y causales.
En las hipótesis descriptivas se formula un pronóstico sobre el comportamiento de una
variable.
Hi: Las exportaciones de las PYMES españolas crecerán un 5% el próximo año
16
En las hipótesis correlacionales se establecen relaciones entre dos o más variables y
se indica en qué dirección están asociadas sin estableces una relación causa-efecto
entre ellas.
Hi: Existe una relación positiva entre innovación y competitividad.
En las hipótesis de diferencia entre grupos se comparan grupos. En este tipo de
hipótesis, el investigador se limita a indicar que existen diferencias entre dos o más
grupos de interés. Si dispone de bases, de información suficiente, además puede
indicar la dirección de las diferencias entre grupos.
Hi: Las empresas familiares siguen un proceso de internacionalización distinto a de las no familiares (sólo
se establece que hay diferencias).
Hi: Las empresas no familiares se inician antes en el proceso de internacionalización que las empresas
familiares (se establece la dirección de la diferencia).
Por último, en las hipótesis causales se establece una relación causa-efecto entre las
variables. Se realiza una afirmación sobre el efecto que provoca sobre una variable
(variable dependiente), el comportamiento de otra u otras variables (variables
independientes).
Hi: La innovación tecnológica aumenta la productividad de las empresas (una variable independiente).
Hi: La innovación tecnológica y la motivación aumentan la productividad (dos variables independientes).
7. Metodología
En este apartado de metodología especificaremos la forma y el procedimiento
ordenado que seguiremos para conseguir los objetivos propuestos.
La metodología presenta los métodos y técnicas para la investigación. Toda
investigación nace con un propósito, por tanto, es necesario indicar que tipo de
investigación vamos a realizar ya que cada tipo de investigación exige un
procedimiento metodológico distinto.
Los tipos más comunes y útiles de investigación según su propósito son la
exploración, descripción y explicación.
Una investigación es exploratoria cuando se realiza para descubrir aspectos
fundamentales de un problema determinado, del cual se tienen dudas o no se ha
17
abordado antes. Suelen ser investigaciones sobre temas de los que existe poca
información. Según Babbie (1999), los estudios exploratorios se hacen con tres
objetivos:
1. Satisfacer la curiosidad del investigador y su deseo de un mayor
conocimiento,
2. Probar la viabilidad de un estudio más extenso y
3. Desarrollar los métodos que se aplicarán en un estudio posterior.
Una investigación es descriptiva cuando tiene como propósito contar, detallar las
propiedades y características de una realidad concreta. El investigador observa la
realidad y luego la describe.
Las investigaciones exploratoria y descriptiva suelen ser la base para desarrollar otras
investigaciones más profundas.
Por último, una investigación es explicativa cuando su propósito va más allá de la
mera descripción del fenómeno objeto de estudio. En este tipo de investigación se
explica el por qué del fenómeno y se indica cómo se relacionan las variables que lo
definen.
Normalmente, las investigaciones suelen presentar los tres tipos de propósitos,
exploración, descripción y explicación.
Una vez que hemos señalado qué tipo de investigación estamos realizando, estamos
en disposición de indicar la fuente y los medios utilizados para obtener los documentos
y los datos en los que nos hemos apoyado para desarrollar nuestra investigación.
También debemos mostrar las técnicas y herramientas aplicadas y su idoneidad en el
tratamiento de datos.
Los documentos y los datos se pueden obtener de fuentes primarias o de fuentes
secundarias.
Las fuentes primarias son fuentes de información de primera mano. Las tesis, los
libros, artículos de revista, monografías y manuscritos se consideran fuentes primarias
para obtener documentos. Cuando nos referimos a datos obtenidos en fuentes
primarias nos referimos al uso de medios como la entrevista, los grupos de discusión y
18
la encuesta. Es decir, medios que nos permiten obtener datos específicos para nuestra
investigación.
Hablamos de fuentes secundarias para la obtención de documentos cuando nos
apoyamos en resúmenes o documentos que compilan la información recogida en las
fuentes primarias. Hablamos de datos obtenidos en una fuente secundaria cuando
utilizamos cuadros estadísticos que ya han sido elaborados por instituciones para el
desarrollo de estudios distintos a nuestra investigación.
Recopilados los datos debemos indicar qué técnicas hemos utilizado para su
tratamiento. La estadística y la econometría nos proporcionan abundantes técnicas y
herramientas para el análisis descriptivo y explicativo de una o más variables.
8. Conclusiones y futuras líneas de investigación
El apartado de conclusiones no debe ser un resumen de la investigación realizada.
Debemos señalar qué logros hemos conseguido y cómo los hemos conseguido.
Explicaremos qué significado tienen los resultados respecto a los objetivos propuestos
y, si en la investigación hemos planteado hipótesis, indicaremos cuáles se han
validado y cuáles se han rechazado al ser contrastadas con la realidad observada.
Debemos, además, indicar las limitaciones de nuestra investigación y sugerir líneas de
acción de acuerdo a los resultados obtenidos.
En este apartado también se incluyen las limitaciones de nuestra investigación y se
sugieren nuevas propuestas de investigación. Una tesis doctoral, además, de llenar
un pequeño vacío en el área de estudio elegida, permite descubrir nuevos problemas
susceptibles de investigar que deben proponerse como futuras líneas de investigación.
9. Bibliografía
Este apartado recoge toda la documentación utilizada para el desarrollo de la
investigación.
En la tabla 2 se hace una propuesta, siguiendo las normas Harvard, de cómo
referenciar la documentación consultada.
19
Tabla 2. ¿Cómo preparar las Referencias Bibliográf icas?
Libros Ej. BABBIE, E (1999). Metodología de la investigación. México,
Thomson
Colaboración capítulo en un libro Ej. Goodall, B. 1992. “Environmental Auditing for Tourism”. En: C.
Cooper y A. Lockwood, eds. Progress in Tourism, Recreation and
Hospitality Management. London: Belhaven Press, 60-74.
Artículo en una revista Ej. Nelson, R. y Winter, G. (1982). “The Shumpeterian Tradeoff
Revisited”. The American Economic Review. Vol. 72, Iss.1, p 114-
132.
Conferencia Ej. Witt, C. y, Wright, P. 1990. Tourist Motivation: Life after Maslow.
En: P. Johnson y B. Thomas, eds. Proceedings of Tourism Research
into the 1990s, Durham University, 10-12 Diciembre 1990. Durham:
Durham University, 1-16.
Publicación de una institución Ej. OCDE. (1992). The key Relationships. Paris.
Tesis Ej. Torres Padilla, A.(2008). Un Modelo Integrador para el Manejo
de Elementos Intangibles y Creación de Valor en la Empresa: el
caso de Empresas Familiares y no Familiares en México. Tesis
doctoral (PhD). Universidad Antonio de Nebrija, Facultad de
Ciencias Sociales.
Fuentes electrónicas
Trabajos individuales e.g Holland, M. (1996). Harvard System [en linea]. Poole,
Bournemouth University. Disponible en:
http://www.bournemouth.ac.uk/service-
depts/lis/LIS_Pub/harvardsyst.html [Fecha de consulta 15 Apr 1996].
Revistas electrónicas e.g.Korb, K.B. (1995). Persons and Things: Book Review of
Bringsjord on Robot-Consciousness. Psycoloquy [en linea], 6 (15).
Disponible en:
gopher://wachau.ai.univie.ac.at:70/00/archives/Psycoloquy/95.V6
/0162 [Fecha consulta 17 Jun 1996].
Foros de discusión y listas de
correo
e.g. Brack, E.V. (2 May 1995). Re: Computing Short Courses. Lis-
link [en linea]. Disponible en: [email protected] [Fecha
consulta 17 Apr 1996].
Correos electrónicos personales
(E-mail)
e.g.Lowman, D. ([email protected]). (4 Apr 1996).
RE>> ProCite and Internet Refere. E-mail to P. Cross
Fuente: Normas Harvard
20
MÓDULO 2:
INVESTIGACIÓN CUALITATIVA
21
CAPÍTULO 3
Introducción a la metodología y técnicas cualitativ as
1. Introducción
La metodología cualitativa es un método de investigación que tiene como principal
objetivo explorar las relaciones sociales y describir la realidad tal y como la
experimentan los individuos. Está muy orientada a las ciencias sociales.
La diferencia entre el análisis cuantitativo y el cualitativo tiene su origen en la distinción
entre positivismo y hermenéutica. El positivismo se basa en el análisis estadístico de
los datos recogidos por medio de estudios y experimentos descriptivos y comparativos.
Asume que solo el conocimiento obtenido a través de medidas y de identificaciones
objetivas puede presumir de poseer la verdad. La hermenéutica, por su parte,
representa una reacción contra esa rigidez del positivismo respecto a ciertos tipos de
problemas sociales. En lugar de explicar las relaciones causales por medio de hechos
objetivos y análisis estadísticos, utiliza un proceso interpretativo más personal en
orden a comprender la realidad. Este contraste queda claramente descrito en el
esquema de Plummer (1983):
Tabla 3. Metodología cualitativa vs metodología cuantitativa
Dos planteamientos
Humanista Positivista
Focos de estudio Únicos, ideográficos
Centrados en lo humano
Lo interior, subjetivo
Significado, sentimiento
Generales y nomotéticos
Centrados en la estructura
Lo exterior, objetivo
Cosas, sucesos
Epistemología Fenomenología
Relativista
Perspectivista
Realista
Absolutista esencialista
Lógico positivista
Tarea Interpretar, comprender
Describir, observar
Explanación causal
Medir
Estilo Suave, cálido
Imaginativo
Válido, real, rico
Duro, frío
Sistemático
Fiable, replicable
Teoría Inductiva, concreta
Cuenta historias
Deductiva y abstracta
Operacionalismo
Valores Comprometida ética y
políticamente
Neutral ética y políticamente
Pericia y Elites
22
Igualitarismo
Fuente: Plummer (1983) en Ruiz Olabuénaga (2007)
2. Características de los métodos cualitativos
- Su objetivo es la captación y reconstrucción de significado. Si una investigación
pretende captar el significado de las cosas (comportamientos, actos…) más bien
que describir los hechos sociales, se puede decir que entra en el ámbito de la
investigación cualitativa.
- Su lenguaje es básicamente conceptual y metafórico. Si una investigación utiliza
los conceptos, las metáforas, las viñetas, las narraciones en lugar de los
números, los test estadísticos, los algoritmos, las tablas y las fórmulas
estadísticas, es investigación cualitativa.
- Su modo de captar la información no es estructurado sino flexible y
desestructurado. Si en una investigación se prefiere recoger información a través
de la observación o de la entrevista en profundidad más bien que mediante
experimentos o encuestas estructuradas masivas, entra en el ámbito de la
metodología cualitativa.
- Su procedimiento es más inductivo que deductivo. Si en lugar de partir de una
teoría y unas hipótesis perfectamente elaboradas y precisas prefiere partir de los
datos para intentar reconstruir un mundo cuya sistematización y teorización
resulta difícil, entra en el ámbito de la metodología cualitativa.
- La orientación no es particularista y generalizadora sino holística y
concretizadora. Si en vez de intentar generalizar de una muestra pequeña a un
colectivo grande cualquier elemento particular de la sociedad, la investigación
pretende captar todo el contenido de experiencias y significados que se dan en
un solo caso, ésta entra en la esfera de la metodología cualitativa.
23
3. El diseño cualitativo
La investigación con técnicas cualitativas está sometida a un proceso de desarrollo
similar al de la investigación de naturaleza cuantitativa. Las fases de la investigación
serían1:
- Definición del problema
La definición del problema se orienta a encontrar lo que constituye el foco central de
todo análisis cualitativo: la búsqueda de significado. Y esa definición de significado
debe ser abierta en muchos sentidos. Es abierta en cuanto a su contenido, puesto que
el investigador desconoce de entrada su naturaleza precisa; en cuanto a su
comprensión, porque es susceptible de inesperadas ramificaciones; y en cuanto a la
profundidad, densidad y extensión.
A diferencia del modo como las técnicas cuantitativas definen su problema, creando
una condición de pureza situacional cuyo ideal es el laboratorio o control estadístico,
las cualitativas lo hacen introduciéndolo lo más posible en la situación. Más aún, la
definición del problema siempre es provisional, porque la tarea central del análisis
cualitativo es averiguar si la definición está bien definida.
Por tanto, definir no es delimitar, rodear, circunscribir con precisión un problema, sino
situarse, orientarse, sumergirse, acercarse, contactar con el núcleo, el foco, el centro
del mismo.
- Diseño de trabajo
Tras la definición del problema es preciso elaborar un diseño o proyecto de trabajo. Un
diseño que, a diferencia del trabajo cuantitativo, es solamente provisional y sometido a
probables cambios. Digamos que el diseño en la investigación cualitativa se relaciona
con las siguientes características: flexibilidad (la toma de decisiones probablemente se
altere durante la investigación), provisionalidad (las decisiones pueden ser temporales
pero siempre han de ir guiadas por los conocimientos de la experiencia anterior, y de
la bibliografía consultada), totalidad (visión holística y global del fenómeno a estudiar),
y proximidad (no se debe perder el contacto directo con la realidad inmediata).
1 Nótese que el objetivo de estas fases no es redundar la información que se ofrece en el capítulo 2 de estos apuntes, sino servir de hilo conductor para comprender mejor cómo se estructura una investigación cualitativa, con sus peculiaridades.
24
El diseño abarca y comprende todos los pasos de los que consta una investigación. Se
podría resumir en los siguientes elementos:
a) Esquema teórico: fijación de la estrategia que se va a seguir a lo largo de la
investigación. La estrategia de una investigación cualitativa va orientada a
descubrir, captar y comprender una teoría, una explicación, un significado, del
mismo modo que la de una cuantitativa va más orientada a contrastar,
comprobar, demostrar la existencia de una teoría previamente formulada. La
primera impone un contexto de descubrimiento y de exploración al paso que la
segunda de comprobación y de contraste.
b) Diseño muestral: la tendencia del análisis cuantitativo a generalizar y
universalizar sus descubrimientos le obliga a estudiar, en principio, a todos los
casos o a seleccionar unos cuantos casos representativos (muestra) del
colectivo general. Por el contrario, los análisis cualitativos, habitualmente,
estudian un individuo o una situación, unos pocos individuos o unas reducidas
situaciones, con el propósito no de generalizar algún aspecto concreto sino de
profundizar en ese mismo aspecto.
c) Codificación del lenguaje: toda observación realizada por un investigador ha de
ser traducida a símbolos de modo que pueda ser conservada e intercambiada.
Existen dos formas de codificación: a través del concepto y a través del
número. En la investigación cualitativa prima el concepto (descripciones y
viñetas literarias) y en la cuantitativa el número (tablas y test estadísticos).
d) Control de elementos espurios: las técnicas cualitativas no pueden ser puestas
en práctica sin que sean previstas técnicas de veracidad, de autenticidad y, en
general, de control de calidad.
Lofland (1984) afirma que la metodología cualitativa, al primar la comprensión
directa del mundo social, afronta menos problemas de validez que la
metodología cuantitativa, sin embargo, al margen de la interpretación subjetiva,
toda información cualitativa debe afrontar el problema de su verdad objetiva y
de si constituye una descripción acertada de un hecho, actitud o creencia de la
vida real. Este mismo autor propone el siguiente test de garantía de calidad
para reforzar la fiabilidad de una investigación cualitativa:
25
Tabla 4. Test de garantía de calidad
Inmediatez de la información ¿El relato está basado en percepción directa o
procede de información de segunda mano?
¿Sugiere esto alguna preocupación especial?
Situación espacial del informante Aunque sea de primera mano, la información
puede estar sesgada por la defectuosa
accesibilidad del informante
Situación social del informante Sesgadora de su capacidad de juicio, propensión a
falsificar, distorsionar o limitar la información
Error y sesgo en provecho propio Grado en el que los propios valores e intereses
pueden viciar el relato del informante
Errores previstos manifiestos del informante De acuerdo a la experiencia propia, ¿hasta qué
punto mis observaciones o las del informante son
fiar? Él o yo ¿hemos cometido en el pasado algún
error notable en la apreciación de los datos?
Consistencia interna del reportaje ¿Existen contradicciones internas en cuanto al
desarrollo espacial temporal, o en la participación
de unos u otros protagonistas?
Consistencia externa Acuerdo o desacuerdo entre diferentes
informantes. ¿Existen suficientes informantes
neutrales para poder fiarse de ellos? Si hay
desacuerdo, ¿se ha establecido algún sistema de
cotejo?
Fuente: Lofland (1984)
e) Comprobación: antes de iniciar la recogida de datos es necesario comprobar
que: se cuenta con que se ha localizado el núcleo del fenómeno que se quiere
estudiar, se dispone de un conocimiento teórico de situaciones o experiencias
similares que sirvan de orientación, se haya formulado una selección
condicionada de focos temáticos, informantes y situaciones por su valor
estratégico para conferir información, y se hayan adoptado medidas de
precaución para garantizar la calidad de la información recogida.
- Recogida de datos
Las tres técnicas más importantes de recogida de datos en los estudios cualitativos
son: la entrevista, la observación y la lectura. Son los tipos de investigación más
relevantes.
La entrevista es la herramienta metodológica preferida por los investigadores
cualitativos. Esta suele ser practicada en su modalidad abierta y no estructurada,
26
entendida como una conversación controlada por el arte de saber formular preguntas y
de saber escucharlas.
La entrevista no es una herramienta mecánica sino que está fundamentalmente
influenciada por el entrevistador y por sus características, así como por el entrevistado
y su contexto.
La observación es la segunda herramienta favorita para la recogida de información. Es
entendida y practicada como la entrada a una situación social, unas veces como parte
de la misma y otras, como simple espectador, y la inspección sistemática de lo que en
ella ocurre.
La lectura de documentos que conservan un fenómeno social pasado, es el tercer
modo de recoger información. Todo escrito puede ser leído e interpretado como una
interacción social pasada, sin olvidar, que esta lectura es una construcción social y
política ella misma, en la que interviene, no sólo el creador original del documento,
sino el investigador que lo lee posteriormente e interpreta.
En resumen, las técnicas de recogida de información más usualmente utilizadas son:
Tabla 5. Formas más difundidas de recoger informac ión
Entrevista Observación Lectura
En profundidad Etnográfica Análisis de contenidos
(escritos, audiovisuales…)
De grupo Etnometodológica Biografías (auto y asistida)
Delphi (en ocasiones se
incluye dentro de “De grupo”)
Participativa-No participativa Circept (lenguaje metafórico)
Fuente: Ruiz Olabuénaga (2007)
- Análisis de los datos
En este apartado se dan las mayores diferencias entre los métodos cuantitativos y los
cualitativos. Los primeros analizan datos fundamentalmente mediante la constatación
de parámetros y asociaciones. Utilizan algoritmos tales como medias, desviaciones,
ratios, coeficientes así como test de correlación, de regresión, de diferencia
significativa, etc. Por el contrario, los segundos analizan los datos mediante
narraciones, viñetas y relatos cuyo ideal es la interpretación de las interpretaciones de
los sujetos que toman parte en una acción social. Y si bien es cierto que la
investigación cualitativa no se somete a ningún esquema rígido de procedimientos y
27
normas, también lo es que diferentes autores han ido presentando métodos de análisis
al mismo tiempo que llevaban sus estudios concretos (como por ejemplo, el Método
Delphi).
- Conclusiones
Siguiendo las instrucciones de Saravia (2006), las conclusiones resumen todo el
trabajo de investigación realizado y presentan la estructura completa del proceso. Esto
es:
1. Introducción: descripción razonada de todo el documento. Sirve de visión
panorámica. Se presenta una descripción de la estructura del informe.
2. Justificación: es retomada del proyecto pero revisada estéticamente.
3. Planteamiento del problema: ídem que en el punto anterior.
4. Objeto de estudio: ídem.
5. Cuestiones a responder mediante la investigación: se derivan de las preguntas
de investigación presentadas en el proyecto y sirven de base para los
objetivos.
6. Objetivos: no es necesario señalar exactamente el texto de la investigación,
puesto que los objetivos han podido ser ajustados a lo largo del proceso
respecto de los objetivos presentados al inicio, aunque no modificados en su
intención original.
7. Marco teórico: contiene los capítulos que resumen la revisión documental
realizada. Igualmente aporta los antecedentes teórico-conceptuales y
empíricos que sostienen la investigación. En los estudios cualitativos el marco
teórico es referencial sobre la realidad analizada y no ejerce como base de
operacionalización de variables.
8. Metodología de la investigación: describe el tipo de investigación elegida (en
este caso, cualitativa), su fundamentación, el método de estudio, población y
muestra, estrategias de recogida de información y técnicas de análisis de datos
en su caso.
9. Presentación y discusión de resultados: sintetiza los principales hallazgos
dándole una interpretación teórica.
28
10. Conclusiones: incluye lo esencial de todo el proyecto, haciendo hincapié en las
aportaciones realizadas.
11. Referencias bibliográficas: citación de las fuentes utilizadas siguiendo la
normativa internacional2.
Antes de adentrarnos en las técnicas cualitativas más utilizadas en las ciencias
sociales, sobre todo, en el campo de la economía y de la empresa, es necesario, para
tener una visión más amplia de los métodos cualitativos existentes, realizar una breve
descripción de las técnicas que se encuentran dentro de la observación y de la lectura.
Para ello nos vamos a apoyar en el cuadro anterior “Formas más difundidas de
recoger información”, que fue elaborado por Ruiz Olabuénaga (2007):
OBSERVACIÓN:
1. Etnográfica: es el estudio directo de personas o grupos durante un cierto
período para conocer su comportamiento social y revelar las explicaciones que
sustentan dicho comportamiento, utilizando la observación directa, cuando el
investigador participa directamente, o indirecta, cuando no participa en el
fenómeno que se observa.
2. Etnometodológica: se refiere a la investigación empírica de los métodos que
utiliza la gente para dar sentido y producir la actividad social cotidiana. Estudia
los procesos de constitución de la realidad a través de la observación. Es
utilizada principalmente en sociología.
3. Participativa – No participativa: la observación participativa es una técnica
utilizada en las ciencias sociales en donde el investigador comparte con los
investigados su contexto, experiencia y vida cotidiana. En el caso de la no
participativa, el investigador no forma parte del grupo a estudiar y, además, en
ocasiones, su presencia es desconocida por los investigados.
LECTURA:
1. Análisis de contenidos: es el modo de recoger información, más amplio,
universalizado y rico. Incluye textos escritos, grabados, pintados, filmados;
propios o ajenos; espontáneos o preparados previamente; documentos
2 El método más utilizado en el campo de las ciencias sociales y, especialmente, en el área de las ciencias económicas y empresariales es el Método Harvard, tratado en páginas previas.
29
personales; fichas de contenidos. No se puede hablar directamente con el
texto, pero puede ser interpretado. Parte del principio de que examinando
textos es posible conocer no sólo su significado, sino información sobre su
modo de producción.
2. Biografías: es la historia de la vida de una persona desde su nacimiento hasta
su muerte, expone los acontecimientos significativos y logros más importantes.
3. Circept: consiste en que todas las analogías despertadas por un concepto, una
idea o un instrumento, se ordenan de forma circular, de tal forma que aquellas
que se encuentran próximas entre sí, guardan mucha más relación que las que
se encuentran alejadas.
A continuación se procede a desarrollar el método preferido por los investigadores
cualitativos: la ENTREVISTA. Dentro de la cual, como se sabe, se pueden diferenciar:
las entrevistas en profundidad, las entrevistas en grupo y el método Delphi.
30
CAPÍTULO 4
Entrevistas en profundidad
1. Concepto
Es una técnica de obtener información, mediante una conversación profesional con
una o varias personas para un estudio analítico de investigación o para contribuir en
los diagnósticos o tratamientos sociales.
La entrevista en profundidad implica un proceso de comunicación, en el transcurso del
cual, entrevistador y entrevistado, pueden influirse mutuamente. Como se comentó en
el capítulo 3, es fundamentalmente una conversación en la que y durante la que, se
ejercita el arte de formular preguntas y escuchar respuestas.
Lejos de ser un intercambio espontáneo comprende un proceso un tanto artificial a
través del cual el entrevistador genera una situación concreta –la entrevista- que
implica una situación única.
Existen diferentes tipos de entrevista, desde la más común, la entrevista individual
hablada, hasta la entrevista de grupo, o las desarrolladas por correo o telefónico, de
forma estructurada y controlada o libre. Tres características pueden diferencias las
entrevistas:
a) Las entrevistas sostenidas con un solo individuo (individual) o con un grupo de
ellas (de grupo).
b) Las entrevistas que cubren un amplio espectro de temas (biográficas) o las
monotemáticas.
c) Las entrevistas dirigidas (estructurada) en las que el actor lleva la iniciativa de
la conversación o aquellas en la que el entrevistador sigue un esquema general
y flexible de preguntas, en cuanto a orden, contenido y formulación de las
mismas (no estructurada).
31
Tabla 6. Diferencias entre las entrevistas estruct urada y no estructurada
La entrevista estructurada La entrevista no estructurada
La entrevista
- Pretende explicar más que comprender
- Busca minimizar los errores
- Adopta el formato estímulo/respuesta,
suponiendo que a una respuesta correcta el
entrevistado contesta la verdad
- Obtiene con frecuencia respuestas racionales,
pero pasa por alto la dimensión emocional
- Pretende comprender más que explicar
- Busca maximizar el significado
- Adopta el formato de estímulo/respuesta sin
esperar la respuesta objetivamente verdadera,
sino subjetivamente sincera
- Obtiene con frecuencia respuestas
emocionales, pasando por alto la racionalidad
El entrevistador
- Formula una serie de preguntas con una serie
de respuestas prefijadas entre las que elegir
- Controla el ritmo de la entrevista siguiendo un
patrón estandarizado y directo
- No da explicaciones largas del trabajo
- No altera el orden ni la formulación de
preguntas
- No permite interrupciones ni intervención de
otras personas en las respuestas
- No expresa su opinión personal a favor o en
contra. Su papel es neutral
- No interpreta el sentido de las preguntas, sólo
da las explicaciones previstas
- Nunca improvisa el contenido o forma de las
preguntas
- Establece una relación equilibrada que implica
familiaridad al mismo tiempo que
impersonalidad
- Adopta el estilo de oyente interesado pero no
evalúa las respuestas oídas.
- Formula preguntas sin esquema fijo de
categorías de respuesta
- Controla el ritmo de la entrevista en función de
las respuestas del entrevistado
- Explica el objetivo y motivación del estudio
- Altera con frecuencia el orden y forma de las
preguntas, añadiendo nuevas si es preciso
- Permite interrupciones e intervención de
terceros si es conveniente
- Si es requerido no oculta sus sentimientos ni
juicios de valor
- Explica cuanto haga falta del sentido de las
preguntas
- Con frecuencia improvisa el contenido y la
forma de las preguntas
- Establece una relación equilibrada entre
familiaridad y profesionalidad
- Adopta el estilo del oyente interesado pero no
evalúa las respuestas
El entrevistado
- Todos los entrevistados reciben el mismo
paquete de preguntas
- Las escuchan en el mismo orden y formato
- Cada entrevistado recibe su propio conjunto de
preguntas
- El orden y formato puede diferir de uno a otro
Las respuestas
- Son cerradas al cuadro de categorías
preestablecido
- Grabadas conforme al sistema de codificación
previamente establecido
- Son abiertas por definición, sin categorías de
respuestas preestablecidas
- Grabadas conforme a un sistema de
codificación flexible y abierto a cambio en todo
momento
Fuente: Ruiz Olabuénaga (2007)
32
La entrevista en profundidad más habitual es la de carácter individual, holístico y no
directivo. Individual porque se entiende que la conversación se desarrolla entre
entrevistador-entrevistado únicamente (aunque repita su entrevista con otro sujeto);
holístico porque no sólo se ajusta al tema central sino que hace una panorámica hacia
otros aspectos; y no directivo porque, aunque la entrevista en profundidad siempre se
desarrolla bajo control y dirección del entrevistador, permite cierta flexibilidad en
cuanto al contenido y forma de desarrollar la entrevista. Pero no equivale a una
conversación exclusivamente abierta, ni a prescindir de un guión orientador.
Por último, se presentan las principales ventajas e inconvenientes de las entrevistas
en profundidad:
Tabla 7. Ventajas e inconvenientes de las entrevis tas en profundidad
Ventajas Inconvenientes
- Riqueza informativa: intensiva, holística,
contextualizada y personalizada
- Posibilidad de indagación por derroteros no
previstos incluso
- Flexibilidad, diligencia y economía
- Contrapunto cualitativo de resultados
cuantitativos
- Accesibilidad a información difícil de observar
- Preferible por su intimidad y comodidad
- Factor tiempo (con matices)
- Problemas potenciales de reactividad,
fiabilidad y validez
- Falta de observación directa o participada
- Carencia de las ventajas de la interacción
grupal
Fuente: Vallés (1997)
2. Fases
1. Preparación.
La preparación de las entrevistas en profundidad tiene en cuenta al guión de
entrevista, la selección de entrevistados y otros preparativos.
- El guión de la entrevista: contiene los temas que deben cubrirse, de acuerdo
con los objetivos informativos de la investigación. Se trata de un esquema con
los puntos a tratar, pero que no se considera cerrado y cuyo orden no tiene que
seguirse necesariamente.
- La selección de entrevistados: ¿a quiénes?, ¿a cuántos? y ¿cuántas veces?,
no son preguntas fáciles de contestar. Valles (1997) ofrece un conjunto de
33
ideas y criterios para resolver los casos prácticos de estudio que se puedan
plantear.
a) Aproximación al universo de entrevistados potenciales a través de las
fuentes disponibles (estadísticas censales, estudios previos y
experiencia del investigador).
b) En ocasiones se opta por la realización de entrevistas en profundidad a
sólo algunos tipos o perfiles sociológicos, basando la selección de
entrevistados en criterios de marginalidad, de normalidad o de
excelencia.
c) La selección de entrevistados puede también apoyarse en la
clasificación de éstos en tres tipos generales: claves, especiales y
representativos.
d) También a través de criterios de naturales práctica. Las preguntas
criterio podrían ser: ¿Quiénes tienen la información relevante?,
¿quiénes son más accesibles física y socialmente?, ¿quiénes están
más dispuestos a informar? y ¿quiénes son más capaces de comunicar
la información con precisión?
e) Y respecto al problema de a cuántos, se propone acudir al principio de
saturación, que es cuando no se encuentran datos adicionales donde el
entrevistador pueda desarrollar propiedades de la categoría. Conforme
va viendo casos similares una y otra vez el investigador adquiere
confianza empírica de que una categoría está saturada.
- Otros preparativos: aquí se incluyen aspectos como la selección del
entrevistador apropiado (características externas y de personalidad), las
condiciones materiales (tiempo, lugar y registro) de la entrevista así como las
labores de contacto y presentación (“preparar el terreno” para la entrevista).
2. Realización
Existen diferentes tácticas para la realización de las entrevistas:
a) Tácticas que pueden avanzarse en el guión de entrevista: consiste en trazar un
esquema que anticipen los modos de abordar el tema central y las cuestiones
34
secundarias. Supone tener listas preguntas de amplio espectro, para motivar al
entrevistado, etc.
b) Tácticas del entrevistador en la situación de entrevista: forman parte del oficio y
pericia del entrevistador, que las improvisa durante la realización de la
entrevista. Se pueden distinguir:
- Táctica del silencio. Muy útil si se sabe emplear en el momento adecuado.
- Tácticas de animación y elaboración. Conjunto de observaciones, ruidos y
gestos para lanzar un mensaje determinado.
- Táctica de reafirmar y repetir. Repetición de expresiones manifestadas por
el entrevistado para invitarle a que prosiga.
- Tácticas de recapitulación. Invitar al entrevistado a relatar de nuevo alguna
trayectoria de su vida.
- Tácticas de aclaración. Pedir más detalle al entrevistado.
- Táctica de cambiar de tema. Cuando se quiere tratar algún asunto
pendiente o para introducir un asunto delicado.
- Táctica de la post-entrevista. Una vez concluida la entrevista formal, se
puede hablar amigablemente con el entrevistado para que guarde un buen
recuerdo o para detectar algún tipo de información que el entrevistado se
ha guardado durante la entrevista.
3. Tratamiento
Este último paso se relaciona con el análisis y presentación de la información
obtenida. Se propone la elaboración de un índice así como una síntesis del trabajo
realizado. En el manual de Valles (1997) se utilizan algunos ejemplos prácticos de
cómo se puede estructurar la información extraída de una entrevista en profundidad.
35
3. Aplicabilidad
Suele ser de especial utilidad en determinadas circunstancias, como por ejemplo:
- Temas confidenciales o enojosos.
- Situaciones de normativa social rígida.
- Comportamientos complejos.
- Entrevistas a profesionales o directivos.
- Temas que afectan a competidores de un mismo sector.
36
CAPÍTULO 5
Grupos de discusión
1. Concepto
Antes de adentrarnos específicamente en esta técnica conviene conocer la estructura
de los métodos de entrevista grupal, que es donde se encuentran los grupos de
discusión y otras técnicas afines.
Frey y Fontana (1993) clasificaron las entrevistas grupales de la siguiente manera:
a) Grupos de discusión: técnica muy utilizada en el campo de la investigación de
mercados. Tiene carácter exploratorio puesto que se busca la familiarización
con el tema, se prueban cuestionarios, se valoran las reacciones a un
producto, etc. El lugar habitual de realización es en escenarios formales de
entrevista. Y el estilo de moderación es semidirigido o dirigido, siendo el
formato de la entrevista algo estructurado.
b) Tormenta de ideas o brainstorming: técnica que pone su acento en la
creatividad y generación de nuevas ideas, a partir de un tema o cuestión que el
entrevistador o moderador plantea a un grupo de personas. Tiene carácter
exploratorio. El lugar de realización puede ser tanto en escenarios formales
como naturales, el moderador adopta una posición pasiva y no existe una
estructuración de preguntas.
c) Método Delphi3: técnica dirigida a expertos donde las entrevistas suelen
realizarse sin que se vean físicamente los miembros del grupo. Generalmente,
el investigador hace una primera ronda de entrevistas individuales con cada
miembro. Luego, en sucesivas rondas de entrevista individual, ofrece a cada
entrevistado un resumen de las respuestas dadas por los otros miembros del
grupo, por si quieren ajustar sus respuestas y hacerlas converger al consenso
del grupo.
Este método es utilizado con propósitos de desarrollar pronósticos de sucesos
y tendencias futuros basados en la opinión de expertos. También para diseñar
estrategias y toma de decisiones.
3 Por su importancia en el campo de las ciencias económicas y empresariales se ha desarrollado un capítulo específico de este método grupal.
37
Se caracteriza por la formalidad y por el estilo dirigido y estructurado.
d) Grupos de discusión sin moderador: técnica de entrevista grupal que suele
surgir espontáneamente. Estas conversaciones informales suelen darse
cuando el investigador va buscando, sobre el terreno, a entrevistados
potenciales y los encuentra agrupados, en su ambiente, en mayor o menor
número. Esa conversación en grupo, informal e in situ constituye la entrevista
grupal natural o sin moderador.
Los grupos de discusión han sufrido a lo largo de los años variaciones y
combinaciones con otras técnicas que han mejorado su capacidad de extraer
información. Por ejemplo, la técnica ha sido utilizada de manera tradicional pero
también ha evolucionado hacia una serie de nuevos usos basados en la devolución de
la información al grupo. O su utilización autosuficiente, donde la propia técnica de
forma casi autónoma extrae información del grupo, son proyectos que dependen
solamente de grupos de discusión; o su utilización combinada, donde pueden
interactuar con otras técnicas cualitativas (entrevistas en profundidad, análisis
documental, observación directa, etc.) o con técnicas cuantitativas (encuestas, muy
típico del marketing).
En cualquiera de sus formas se presentan las principales ventajas e inconvenientes de
los grupos de discusión:
Tabla 8. Principales ventajas e inconvenientes de los grupos de discusión
Ventajas Inconvenientes
- Economía de tiempo y dinero: ventajas
tradicionales revisadas
- Flexibilidad: utilizable en el estudio de
diversidad de temas, con personas y
ambientes diversos (pero precisa de mayor
espacio y coordinación que las entrevistas en
profundidad)
- Las bazas de la interacción grupal: efectos de
sinergia, bola de nieve, efecto audiencia,
estimulación, seguridad y espontaneidad en
grupo
- Artificialidad en relación con las técnicas de
observación participada
- Inconvenientes (clásicos) de la interacción
grupal: problemas de generalización, sesgo,
comparabilidad, deseabilidad
- Inconvenientes de la interacción grupal
ortodoxa o tradicional: límites para la
investigación-acción-participativa; necesidad
del complemento de técnicas grupales
alternativas o afines
Fuente: Vallés (1997)
38
2. Fases
1. Preparación.
La preparación de los grupos de discusión tiene en cuenta las decisiones muestrales
sobre la composición de los grupos y otros preparativos.
- Decisiones muestrales: ¿cuántos grupos se forman? y ¿cómo se componen?
Son decisiones muestrales que, en parte, se toman al proyectar el estudio y, en
parte, se completan durante el trabajo de campo.
Como en las entrevistas en profundidad, en los grupos de discusión no se
persigue la representación estadística, sino la representación tipológica y
social, de acuerdo con los objetivos de la investigación y las limitaciones de
medios y tiempo (se recomienda entre 6 y 10 participantes). Por tanto, el
número de grupos y su composición dependerá de dos criterios básicos:
a) Heterogeneidad entre grupos: orienta la selección de participantes y su
distribución en grupos, tratando de reproducir conversaciones
relevantes, según los propósitos del estudio. Para hacerlo operativo, se
precisa de la noción de saturación.
b) Economía: introduce las constricciones de tiempo y dinero.
- Otros preparativos: aquí se incluyen aspectos como, cómo se va a contactar
con los participantes (surge la figura del “contactador” para aliviar al
investigador de esta tarea tan ardua. El mayor problema surge en el proceso
de captación o convocatoria de los participantes de los grupos, para ellos se
propone utilizar las redes personales y sociales, evitar revelar información al
participante que pudiera influir en sus respuestas posteriores y evitar la
participación de amigos con el fin de rodear los riesgos de la preexistencia del
grupo) y cuál va a ser el lugar de reunión (en principio, el lugar debería ser
neutral con respecto al tema a tratar y con las características de las personas
convocadas. Se habla de evitar espacios cuya imagen pueda llevar a
reacciones esteriotipadas que afecten al discurso del grupo, evitar
disposiciones de sillas y mesas que dificulten la conversación del grupo. En
general, el lugar debe equilibrar las necesidades de los participantes y del
investigador: accesibilidad y condiciones para la grabación).
39
2. Realización
En este apartado se presta especial atención al papel del moderador, haciendo alusión
a las actuaciones de los participantes en la reunión.
Sirva el siguiente esquema para resaltar los puntos principales de la realización de los
grupos de discusión:
- Provocación inicial y puesta en marcha de la discusión grupal. No basta con
poner el tema sobre la mesa, es necesario generar interés en discutirlo.
Además, se debe trascender de la dinámica pregunta-respuesta hacia la
interacción grupal característica de esta técnica. El moderador no debe dar su
opinión sino insistir en que el grupo tome la palabra.
- Provocación continuada. Aunque el moderador no interviene en la discusión, sí
interviene en su catalización, deshaciendo bloqueos y controlando en cierto
modo su desarrollo. Supone tareas de animación y mantenimiento de la
discusión, el moderador es el motor del grupo. Tiene la función de pedir
aclaraciones y reformulaciones, realizar interpretaciones, cambiar de tema y
extraer conclusiones.
3. Tratamiento
Este último apartado se relaciona con el análisis y presentación de la información
obtenida. Y dado el propósito exploratorio de la mayoría de los estudios con grupos de
discusión, suele resultar apropiado, una simple descripción narrativa, esto es,
organizar la información dándole sentido.
Por último, Krueguer (1991) ofrece una clasificación de tipos de informe relacionados
con los grupos de discusión:
- Modelo de datos directos: consiste en introducir el tema central y a
continuación presentar todos los comentarios de los participantes clasificados
por temas o subtemas.
- Modelo descriptivo: consiste en una descripción resumida seguida de citas
ilustrativas. Supone mayor grado de elaboración.
40
- Modelo interpretativo: en este caso, el analista ofrece citas ilustrativas seguidas
de las interpretaciones correspondientes. Sobre la base de síntesis del modelo
descriptivo se añade un esfuerzo interpretativo de mayor calado.
En el manual de Valles (1997) se utilizan algunos ejemplos prácticos de cómo se
puede estructurar la información extraída de los grupos de discusión.
3. Aplicabilidad
- Técnica muy utilizada en el marketing y en los estudios de mercado.
- Los grupos de discusión pueden dar buenas ideas acerca de las preferencias y
actitudes de los consumidores sobre un producto o servicio determinado,
aunque no sería concluyente dado su carácter exploratorio.
- Es especialmente útil cuando se desconocen las variables que definen el
fenómeno de estudio.
- En muchas ocasiones, también, se emplea como prueba piloto o pretest, antes
del diseño de un cuestionario.
41
CAPÍTULO 6
Método Delphi
1. Concepto
Linstone y Turoff (1975) definen la técnica Delphi como un método de estructuración
de un proceso de comunicación grupal que es efectivo a la hora de permitir a un grupo
de individuos, como un todo, tratar un problema complejo.
Un Delphi consiste en la selección de un grupo de expertos a los que se les pregunta
su opinión sobre las cuestiones referidas a acontecimientos del futuro. Las
estimaciones de los expertos se realizan en sucesivas rondas, anónimas, al objeto de
tratar de conseguir consenso, pero con la máxima autonomía por parte de los
participantes. Por tanto, la capacidad de predicción de esta técnica se basa en el juicio
intuitivo emitido por un grupo de expertos.
El método Delphi procede por medio de la interrogación a expertos con la ayuda de
cuestionarios sucesivos, a fin de poner de manifiesto convergencias de opiniones y
deducir eventuales consensos. La encuesta se lleva a cabo de una manera anónima
(actualmente es habitual realizarlo vía correo-e o cuestionarios web) para evitar los
efectos de los líderes. El objetivo de los cuestionarios sucesivos es disminuir el
espacio intercuartil precisando la mediana (búsqueda de consenso: baja dispersión).
Las preguntas se refieren a las probabilidades de realización de hipótesis o de
acontecimientos. La calidad de los resultados depende en gran medida del
cuestionario y de la elección de los expertos.
En su conjunto, el Delphi permitirá prever las transformaciones más importantes que
puedan producirse en el fenómeno analizado en el transcurso de los años.
2. Fases
1. Formulación del problema
Es trascendental definir con precisión el campo de investigación puesto que la elección
de los expertos está supeditada al hecho de que todos posean la misma noción de
este campo.
42
Sobre la elaboración del cuestionario, las preguntas deben ser precisas, cuantificables
e independientes.
2. Elección de expertos
El experto será elegido por su capacidad de encarar el futuro y posea conocimientos
sobre el tema consultado.
Los expertos son aislados y sus opiniones recogidas por vía postal o electrónica y de
forma anónima, así se obtendrá una opinión real, no influenciada por el resto del
grupo.
3. Elaboración y lanzamiento de los cuestionarios
Los cuestionarios se elaborarán de manera que faciliten la respuesta de los
consultados. Preferentemente las respuestas habrán de poder ser cuantificadas y
ponderadas. Con frecuencia se recurre a respuestas categorizadas (Sí/No; Muy de
cuerdo/De acuerdo/Indiferente/En desacuerdo/Muy en desacuerdo) y, después, se
tratan en términos porcentuales tratando de ubicar a la mayoría de los consultados en
una categoría.
Se formularán preguntas relativas al grado de ocurrencia (probabilidad) y, de
importancia (prioridad).
4. Desarrollo práctico y explotación de resultados
El cuestionario es enviado a un número determinado de expertos (el grupo final4 ha de
ser entre 25 y 30). Y va acompañado por una nota de presentación con las finalidades,
el espíritu del Delphi, así como las condiciones del desarrollo de la encuesta (plazo de
respuesta, garantía de anonimato…). En ocasiones, en cada cuestión, puede
plantearse que el experto evalúe su propio nivel de competencia (útil para las
ponderaciones).
4 Hay que tener en cuenta las no respuestas y abandonos que se producen en el proceso.
43
El objetivo de los cuestionarios sucesivos5 es reducir la dispersión de las opiniones y
precisar la opinión media consensuada. En la segunda ronda, los expertos son
informados de los resultados de la primera consulta de preguntas y deben dar una
nueva respuesta y sobre todo deben justificarla en el caso de que sea notablemente
distinta con respecto al grupo. Si fuera necesario, en el curso de la tercera ronda se
pide a cada experto comentar los argumentos de los que disienten de la mayoría. Y un
cuarto turno de preguntas, permite la respuesta definitiva: el consenso y la dispersión
de opiniones (intervalos intercuartiles y desviación típica).
Algunas recomendaciones…
- Grabación de los resultados en una base de datos, para operar con ellos y
realizar gráficos y tablas.
- Obtención de los principales resultados. Los principales estadísticos que se
calcularán serán medidas de tendencia central y dispersión: media, mediana,
moda, máximo, mínimo, cuartiles y desviación típica. La desviación señala el
grado de discrepancia o consenso de las respuestas.
- Lanzamiento de dos rondas. En la formulación más teórica del método Delphi,
se requiere realizar tres o más rondas a los expertos a fin de reducir el espacio
intercuartílico; sin embargo, en Astigarraga (2003) se hace alusión a la
suficiencia de un Delphi con dos rondas pero siguiendo algunos criterios:
Objetivo del lanzamiento y tratamiento de la segunda ronda.
a) Remitir y hacer partícipes de la información obtenida a todos aquellos
que han colaborado en el estudio con la aportación de su conocimiento
y opiniones.
5 Aunque la formulación teórica del método Delphi comprende varias etapas sucesivas de envíos de cuestionarios, en buena parte de los casos puede limitarse a dos rondas, lo que según la experiencia no afecta a la calidad de los resultados. Como es sabido, el objetivo de los cuestionarios sucesivos es disminuir el espacio intercuartil, esto es cuánto se desvía la opinión del experto de la opinión del conjunto, precisando la mediana, de las respuestas obtenidas. La finalidad de la primera ronda (primer cuestionario) es calcular el espacio intercuartil. La segunda suministra a cada experto las opiniones de sus colegas, y abre un debate para obtener un consenso en los resultados y una generación de conocimiento sobre el tema. Cada experto argumentará los pros y los contras de las opiniones de los demás y de la suya propia. Con la tercera se espera un mayor acercamiento a un consenso.
44
b) Confirmar los resultados obtenidos en la consulta inicial. De hecho, la
experiencia indica que las variaciones respecto a los resultados iniciales
son mínimas en éste tipo de estudios.
Metodología para el lanzamiento y tratamiento de la segunda ronda.
a) Se selecciona la media o la mediana de las respuestas a las preguntas
de la primera ronda.
b) Se solicita a los expertos que indiquen su acuerdo o desacuerdo con
dicha media.
c) Se pide a los expertos que no se hallan de acuerdo con la media que
argumenten sus razones.
d) Se calcula la nueva media o mediana, y a los expertos que se muestren
de acuerdo se les fijará el valor de la media anterior.
Los valores propuestos por los expertos que siguen manteniendo
valores diferentes de la media, sirven para elaborar escenarios
alternativos o formular hipótesis de futuro alternativas.
Elaboración de informe.
a) Los resultados más destacados de la encuesta, las tablas estadísticas y
las incidencias del trabajo de campo se recogen en un informe
específico.
3. Aplicabilidad
La utilización del método Delphi ofrece casi la certeza de obtener un consenso en el
desarrollo de los cuestionarios sucesivos. Además, la información recogida en el curso
de la consulta acerca de acontecimientos, tendencias, rupturas determinantes en la
evolución futura del problema estudiado es normalmente abundante.
Finalmente, esta técnica puede utilizarse indistintamente tanto en el campo de la
tecnología como en el de las ciencias sociales (economía y empresa, gestión,
estrategia, etc.).
45
No obstante, conviene ser consciente de algunas de las posibles limitaciones con las
que el investigador se puede enfrentar al utilizar este método. En ocasiones se revela
largo, costoso, fastidioso e intuitivo más que racional. También, la posición presionante
del investigador es discutible puesto que sólo los expertos que se salen de la norma
deben justificar su posición. Cuando muchas veces, precisamente, esa posición
divergente es más interesante que la del consenso. Por último, no se toman en
consideración las posibles interacciones entre las hipótesis consideradas, esto es lo
que conduce en ocasiones a implementar los métodos de impactos cruzados.
46
MÓDULO 3:
INVESTIGACIÓN CUANTITATIVA
47
CAPÍTULO 7
Introducción a la metodología y técnicas cuantitati vas
1. Introducción
La metodología cuantitativa es aquella que permite la obtención de información a partir
de la cuantificación de los datos sobre variables. Este tipo de investigación logra sus
conclusiones a través de la relación numérica entre variables, y así poder realizar
generalizaciones y producir datos objetivos.
Dicho de otro modo, la investigación cuantitativa es la que analiza diversos elementos
que pueden ser medidos y cuantificados. Toda la información se obtiene a base de
muestras de la población, y sus resultados son extrapolables a todo el universo, con
un determinado nivel de error y nivel de confianza.
Su racionalidad está fundamentada en el positivismo. Tiene un profundo apego a la
tradicionalidad de la Ciencia y utilización de la neutralidad valorativa como criterio de
objetividad, por lo que el conocimiento esta fundamentado en los hechos.
De este modo, dado que la investigación cuantitativa se relaciona con el tratamiento
de variables métricas, según el número de variables que escojamos, el análisis podrá
ser de un tipo u otro. Si el análisis emplea una única variable, el análisis se denomina
univariante (distribuciones de una variable, media, mediana, moda, etc.); si el análisis
utiliza dos variables, el análisis se denomina bivariante (correlaciones, análisis de la
varianza, regresiones simples, etc.); y si se analizan simultáneamente más de dos
variables, el análisis puede ser considerado como un análisis multivariante (análisis
factorial, análisis cluster, regresión múltiple, etc.).
En este tipo de análisis es donde nos vamos a detener a lo largo de este módulo. Las
técnicas del análisis multivariante están siendo ampliamente aplicadas a la industria,
administración y centros de investigación de ámbito universitario. Este interés
creciente en el área de las ciencias sociales no se da por casualidad, ya desde hace
tiempo los estadísticos Hardyck y Petrinovich indicaron que:
“El análisis de los métodos multivariantes predominará en el futuro y dará por resultado cambios
drásticos en el modo en que los investigadores piensan sobre los problemas y en cómo diseñan
sus investigaciones. Esos métodos hacen posible plantear preguntas específicas y precisas de
considerable complejidad…Se pueden preservar las correlaciones naturales entre las múltiples
48
influencias sobre el comportamiento y se pueden estudiar estadísticamente los efectos aislados
de esas influencias sin provocar el típico aislamiento de esos individuos o variables” (Hardyck y
Petrinovich, 1976).
Para realizar análisis multivariante, los investigadores utilizan diversos programas de
estadística, tales como el SPSS, GRETL, SAS o AMOS, entre otros. Este tipo de
software ha puesto a disposición de cualquier investigador interesado el acceso a
todos los recursos necesarios para resolver un problema multivariante de casi
cualquier dimensión.
2. Características de los métodos cuantitativos
- Su objetivo es la inferencia más allá de sus datos. A partir de una muestra
representativa trata de elevar las conclusiones al universo, respetando siempre
unos niveles mínimos de error.
- Su lenguaje es numérico. Si una investigación se apoya en los números, los
test estadísticos, los algoritmos, las tablas y las fórmulas estadísticas, es
investigación cuantitativa.
- Su modo de captar la información es estructurado, penetrante y controlado. Si
en una investigación se prefiere recoger información mediante experimentos o
encuestas estructuradas masivas, entra en el ámbito de la metodología
cuantitativa.
- Su procedimiento es deductivo. Si una investigación parte de una teoría y unas
hipótesis perfectamente elaboradas y precisas para conseguir sus objetivos,
entraría en el ámbito de la metodología cuantitativa. Como ya se indicó en el
primer módulo de este documento, se pasa de lo general a lo particular.
- La orientación es generalizadora. Ligado al primer punto, la investigación
cuantitativa intenta generalizar de una muestra pequeña a un colectivo grande
cualquier elemento particular de la sociedad.
49
3. Algunos conceptos importantes del análisis cuant itativo
Valor teórico.
Es una combinación lineal de variables con ponderaciones determinadas
empíricamente. Digamos que es el elemento a estudiar (ha de estar muy claro). El
investigador selecciona las variables, mientras que las ponderaciones se obtienen a
través de la técnica multivariante. Matemáticamente podría expresarse así:
Y (valor teórico) = ß0 + ß1 X1 + + ß2 X2 + ß3 X3 +…+ ßn Xn
Donde Xn es la variable observada y ß es la ponderación determinada por la técnica
multivariante.
El resultado es un valor único que representa una combinación de todo el conjunto de
variables que mejor se adaptan al objeto del análisis multivariante específico. En cada
caso, el valor teórico capta el carácter multivariante del análisis.
Escalas de medida.
La medida de una variable es importante para representar con precisión el concepto
de nuestro interés y es crucial en la selección del método de análisis multivariante
apropiado. Se distinguen:
- Datos no métricos (cualitativos): son atributos, características o propiedades
categóricas que identifican o describen a un sujeto. Por tanto, los números
asignados a los objetos no tienen más significado cuantitativo que indicar la
presencia o ausencia del atributo o característica bajo investigación. Dentro de
este tipo de datos se diferencia a su vez:
a. Escalas nominales: asigna números que se usan para etiquetar o
identificar sujetos u objetos. Ejemplos: sexo (hombre-mujer), estado civil
(soltero-casado) o raza (Caucasoide-Mongoloide-Negroide).
b. Escalas ordinales: son denominadas también cuasi-cuantitativas. Las
variables pueden ser ordenadas o clasificadas en relación a la cantidad
del atributo poseído. Ejemplos: clase social (alta-media-baja), nivel de
estudios (doctorado-master-grado) o hacerse una herida (leve-
moderada-grave).
50
- Datos métricos (cuantitativos): los sujetos pueden ser identificados por
diferencias entre grado o cantidad. Las medidas métricas (escala de intervalo y
escala de la razón) son las más apropiadas para casos que involucran cantidad
o magnitud. Se distingue entre:
a. Variable discreta: presenta separaciones o saltos en los valores que
puede tomar. Ejemplo: número de hijos (1-2-3-4-5-6)
b. Variable continua: puede adquirir cualquier valor dentro de un intervalo
especificado de valores. Ejemplo: altura (cm.) o masa (kg.)
Referencia temporal.
Para fines del análisis estadístico es importante tener en cuenta la referencia temporal
de los datos. Según este criterio se pueden distinguir tres tipos de datos:
• Series temporales. Son observaciones numéricas de las variables durante un
número de periodos de tiempo. Por ejemplo, se podrá medir el gasto en consumo
de un determinado bien en el período 1990-2010.
• Sección cruzada o corte transversal. Se trata de las observaciones de las variables
medidas en un momento determinado del tiempo correspondiente a una clase,
bien puede ser una Comunidad Autónoma, o una provincia, o una familia, etc.;
dependiendo del estudio que se esté realizando. Por ejemplo, se puede medir el
gasto en consumo de un determinado bien en las distintas CCAA en el año 2010.
• Panel de datos. Otro tipo de datos lo constituye la información acerca de un
conjunto de individuos, o provincias, etc., a través del tiempo. En este caso, por
ejemplo, se pueden obtener observaciones de gasto en consumo de un bien para
un grupo de familias en el periodo 1990-2010.
Error de medida.
Es el grado en que los valores observados no son representativos de los valores
verdaderos. El error de medida puede generarse por varias razones: errores de
entrada de datos, imprecisión en la medición de la variable o incapacidad de los
encuestados a proporcionar información precisa.
Por tanto, el objetivo del investigador debe ser reducir el error de medida. Según Hair
et al. (2007) el analista debe enfrentarse tanto con la validez como con la fiabilidad de
51
la medida. La validez es el grado en que la medida representa con precisión lo que se
supone que representa. Es imprescindible, por tanto, que exista un conocimiento
profundo de lo que se va a medir. Y la fiabilidad es el grado en que la variable
observada mide el valor verdadero y está libre de error, es lo contrario al error de
medida. En ocasiones se acude a la elaboración de indicadores para agregar escalas
y así emplear una medida compuesta que evite usar solo una única variable para
representar un concepto. Digamos que no se deja la fiabilidad plena a una única
respuesta sino en la de un conjunto de respuestas relacionadas. Ejemplo: al medir la
satisfacción podemos preguntarlo directamente o bien desagregar por tipos de
satisfacción.
Por último, debemos aclarar que los malos resultados de una investigación no siempre
se deben al error de medida, pero la presencia del error de medida es garantía de
distorsión en las relaciones observadas y hace menos potentes las técnicas
estadísticas.
Por ello, se recomienda evaluar la confiabilidad de los datos de los que se dispone,
sobre todo si no son oficiales sino generados mediante cuestionarios. Una forma de
hacerlo es calculando el Alfa de Cronbach, que determina la consistencia interna de
una escala analizando la correlación media de una variable con todas las demás que
integran dicha escala. Ofrece información aproximada sobre si los encuestados han
entendido las preguntas de un cuestionario. Cuanto más se acerque a uno su valor,
mejor, porque mayor consistencia tendrá los datos. Por encima de 0,7 podría
considerarse un nivel aceptable (George y Mallery, 1995).
Asimismo, también es recomendable evaluar la validez de los datos, es decir,
identificar si el proceso mide lo que se desea medir. Para ello, se puede utilizar el
coeficiente de Aiken, que toma valores entre 0 y 1. Es práctica general dar como
válidos los datos cuando dicho coeficiente supera el valor 0,6 o 0,7, pero es
aconsejable trabajar con niveles superiores (Aiken, 1996).
52
Gráfico 1. Validez y confiabilidad
Fuente: Fundación Polar
Significación estadística.
La inmensa mayoría de las técnicas multivariantes se basan en la inferencia
estadística de los valores de una población o la relación entre variables de una
muestra escogida aleatoriamente de esa población.
Para interpretar las inferencias estadísticas, el investigador debe fijar los niveles de
aceptación de error estadístico. El modo más común es determinar el nivel de
significación (α), que se define como la probabilidad de rechazar la hipótesis nula
cuando es cierta, es decir, la posibilidad de que la prueba muestra significación
estadística cuando en realidad no está presente (el conocido caso de un positivo
falso). Especificando un nivel alfa, el investigador fija los márgenes admisibles de
error. Normalmente se utiliza el 5%.
4. Tipos de técnicas estadísticas
La Estadística proporciona técnicas y herramientas para la recopilación y análisis de
datos del fenómeno en estudio. El análisis puede centrarse en el estudio de un sólo
factor o variable, en este caso se habla de análisis univariante. Las principales
técnicas de análisis univariante, son las medidas de tendencia o de posición (media,
mediana, moda y cuartiles), las medidas de dispersión (rango o recorrido, desviación
típica y coeficiente de variación de Pearson) y las medidas de inferencia (prueba t,
entre otras).
Cuando se realiza el análisis conjunto de dos o más factores del problema en estudio,
hacemos referencia al análisis multivariante. A continuación se exponen algunas de
las técnicas multivariantes más utilizadas en el campo de las ciencias sociales. La
mayor parte de ellas serán desarrolladas posteriormente en profundidad.
53
Tabla 9. Esquema de las principales técnicas multi variantes
Dependencia
- Regresión lineal múltiple
- Análisis discriminante
- Modelos de probabilidad lineal (regresión logística y probit)
- Modelos de ecuaciones estructurales Técnicas
estadísticas
multivariantes
Interdependencia
- Análisis factorial
- Análisis cluster
- Análisis de correspondencias múltiple
Fuente: Hair et al. (2007)
Regresión lineal múltiple
Técnica para explicar o predecir variables. Una variable dependiente métrica
relacionada con variables independientes métricas (muy habitual el uso de variables
ficticias6).
Análisis discriminante
Técnica para predecir variables cualitativas y distinguir entre grupos. Una variable
dependiente no métrica y variables independientes métricas (muy habitual el uso de
variables ficticias).
Modelos de probabilidad lineal (regresión logística y probit)
Técnica para predecir variables cualitativas y distinguir entre grupos. Una variable
dependiente no métrica y variables independientes métricas (muy habitual el uso de
variables ficticias).
Modelo de ecuaciones estructurales
Técnica de relaciones de causalidad simultánea. Varias variables dependientes
métricas, en ecuaciones distintas, relacionadas con variables independientes de
cualquier tipo. Es habitual el uso de variables latentes.
6 La codificación de una variable ficticia es una manera de transformar datos no métricos en métricos. Se asignan unos y ceros al sujeto, dependiendo de si cuenta o no con cierta característica. Por ejemplo, si un sujeto es hombre se le asigna 0 y si es mujer se le asigna 1, o al contrario.
54
Análisis factorial
Técnica de reducción de datos, enfocado a variables métricas. Variables originales se
aglutinan en factores. Útil para la construcción de indicadores.
Análisis cluster
Técnica para clasificar individuos en grupos no conocidos a priori. Se forman grupos
homogéneos dentro de sí y heterogéneos entre sí.
Análisis de correspondencias múltiple
Técnica de reducción de datos, parecida al análisis factorial pero orientada a variables
no métricas. Útil para elaborar indicadores.
55
CAPÍTULO 8
Encuesta por muestreo
1. Introducción
La investigación cuantitativa en ciencias sociales necesita como materia prima
información estadística. En este sentido, la estadística es una ciencia que proporciona
instrumentos para recopilar la información numérica que se obtiene de observar los
fenómenos de un colectivo o población y analizar la regularidad con la que ocurren.
Entendemos como población estadística o colectivo al conjunto de entes (personas,
animales o cosas) sobre las que se va a llevar a cabo la investigación estadística. Se
entiende que el estudio de una población, en la mayoría de los casos, no se pueda
realizar observando todos los elementos de la población por lo que será necesario
examinar sólo una parte de la misma. A este subconjunto de la población se le
denomina muestra.
Dentro de la estadística podemos distinguir dos ramas de interés: la estadística
descriptiva y la inferencia estadística. La estadística descriptiva tiene como objeto la
recogida, recopilación y reducción de los datos de una muestra o población a unas
pocas medidas descriptivas que permiten conocer las características existentes en ese
conjunto de datos. La Inferencia estadística tiene por objeto generalizar la información
proporcionada por una muestra a la población de donde ha sido extraída.
En una investigación estadística se pueden distinguir las siguientes etapas:
• Recopilación de datos: Definida la población y la/s característica/s a estudiar,
se debe proceder a la observación de la misma en los elementos
poblacionales. Los datos pueden obtenerse utilizando fuentes de datos
publicadas, a través de un experimento o a través de una encuesta por
muestreo.
• Depuración y exploración de datos: Recogidos los datos deben ser depurados
ya que de nada serviría aplicar procedimientos y técnicas científicas si la
información base es errónea.
• Tabulación y representación gráfica de datos: Su objeto es reducir el volumen
de la información de manera que sea manejable.
56
• Tratamiento de datos: Se trata de reducir la información contenida en las tablas
mediante el cálculo de las diferentes medidas de posición, dispersión,…de la
estadística descriptiva. Los resultados obtenidos del conjunto de datos
analizados se generalizarán a la población utilizando las técnicas y
herramientas que la inferencia estadística pone a nuestra disposición.
2. Recopilación de datos. Encuesta por muestreo
1. Concepto
En todas las investigaciones los datos se obtienen, por lo general, a partir de una
muestra de elementos y no sobre toda la población respecto a la cual se pretenden
aplicar los resultados. La muestra debe ser representativa de la población de dónde ha
sido extraída para poder generalizar los resultados obtenidos.
La encuesta por muestreo es una técnica estadística para recopilar datos, mediante la
consulta a una muestra de individuos que representa a la población o colectivo que
queremos investigar.
2. Fases
Podemos distinguir las siguientes fases:
• Definición de objetivos: los objetivos del análisis estadístico vendrán
determinados por los objetivos de la tesis doctoral. La consulta previa de
fuentes realizada y el desarrollo del marco teórico en las primeras etapas de la
investigación, nos permiten llegar a esta fase con un conocimiento de las
variables y de la población que queremos investigar.
• Diseño del plan de muestreo: “los planes de muestreo deben resolver
preguntas tales como ¿qué tipo de muestreo utilizar? ¿cuál es el tamaño
muestral idóneo?, ¿qué método debe emplearse para obtener la información
en campo? , ¿qué periodo de tiempo se emplea como referencia de la
información?, etc.” (Santos Peña, 1999).
En concreto, un plan de muestreo debe incluir:
Diseño del cuestionario: se pueden utilizar cuestionarios ya existentes y/o
elaborar uno específico para nuestra investigación. Antes de aplicar el
57
cuestionario debemos probar su validez y confiabilidad. En este sentido existen
pruebas de hipótesis como la prueba de Aiken para evaluar la validez y el alfa
de Cronbach para evaluar la confiabilidad. El cuestionario puede administrarse
de forma directa y personalmente por el entrevistador, telefónicamente, por
correo postal o utilizando procedimientos mixtos.
Ámbito temporal y demográfico: debemos indicar a que momento/s irán
referidos los resultados de nuestra investigación y a que ámbito sectorial y
espacial van dirigidos.
Tipo de muestreo: “El tipo de muestreo a implementar puede definirse como el
conjunto de reglas que hay que tener en cuenta para seleccionar los elementos
muestrales; unos tipos de muestreo pueden ser mejores que otros desde el
punto de vista de la precisión en las estimaciones, pero pueden tener un alto
coste de ejecución de los trabajos de recogida de la información, debiendo
optarse por la opción más eficiente” (Santos Peña, 1999). La muestra puede
obtenerse de forma aleatoria o de una forma dirigida. Dejando de un lado los
muestreos no probabilísticos, los principales métodos de muestreo
probabilístico son el muestreo aleatorio simple con o sin reemplazamiento, el
muestreo estratificado y el muestreo por conglomerados.
Determinación del tamaño de la muestra: el tamaño de la muestra viene
determinado por el tipo de muestreo seleccionado, por el error de muestreo y
por el nivel de confianza prefijado.
Selección de las unidades muestrales.
• Trabajo de campo: para recopilar la información, el entrevistador debe conocer
perfectamente el cuestionario y ser capaz de responder preguntas y
situaciones imprevistas.
3. Depuración y codificación de datos
Una vez que hemos recopilado los datos debemos codificarlos y grabarlos. Existen
diferentes programas estadísticos fáciles de utilizar para la grabación y tratamiento de
datos (Excel, SPSS, Statgraphics, etc.).
Antes de llevar a cabo el análisis de los datos es necesario garantizar que la
información proporcionada por los encuestados es correcta. Se trata de detectar y
58
corregir datos erróneos o irrelevantes para mejorar la calidad de los mismos antes de
ser codificados y tratados.
La codificación consiste en proporcionar códigos numéricos o alfanuméricos a las
preguntas del cuestionario para llevar un mejor seguimiento y control sobre las
variables.
59
CAPÍTULO 9
Tratamiento descriptivo de datos
1. Introducción
En este capítulo se muestran algunos de los procedimientos que proporciona la
estadística para medir, clasificar, analizar y resumir los datos recopilados en nuestra
investigación.
Un primer análisis estadístico consiste en resumir los datos recopilados en unas pocas
medidas, tablas y gráficos que describan el fenómeno que estamos investigando. Se
trata de organizar los datos y aplicar sencillas herramientas estadísticas para obtener
una visión resumida del problema en estudio. En capítulos posteriores se exponen
técnicas de inferencia y técnicas multivariantes para llevar a cabo un tratamiento más
avanzado de los datos, con el propósito de validar o rechazar las hipótesis de
investigación realizadas.
2. Tabulación y representaciones gráficas
Las tablas estadísticas y las representaciones gráficas son herramientas que facilitan
una interpretación rápida, desde un punto de vista cuantitativo, del fenómeno que
estamos investigando.
La tabulación consiste en agrupar y ordenar los datos mediante el uso de tablas. Las
tablas estadísticas se denominan distribuciones de frecuencias ya que recogen los
valores o categorías de las variables analizadas y el número de veces que se repite
cada valor o categoría de la variable (frecuencia absoluta). En las tablas también se
incluye la importancia que dicho valor o categoría tiene sobre el total de la muestra,
expresada en tanto por uno o en porcentaje (frecuencia relativa). La tabulación de una
sola variable proporciona información valiosa, pero suele resultar más interesante la
tabulación conjunta de dos o más variables, en este caso realizaremos una tabulación
cruzada que es una herramienta muy efectiva para detectar si existe o no alguna
relación entre dos o más factores.
La tabulación se puede aplicar a todo tipo de variable independientemente de la escala
de medición utilizada (escala nominal, ordinal, por intervalos y de la razón).
60
La representación gráfica de una variable es una representación visual de los datos
recogidos en las tablas. Existen múltiples formas de representación. “El uso de unas
u otras dependerá de a) la escala de medición de la variable, b) los objetivos y
aspectos relevantes del estudio y c) el público a quien se dirigen” (Ritchey, 2006).
Algunas formas de representar las distribuciones de frecuencias son:
Diagramas de barras: muestran de las frecuencias absolutas y los valores o
categorías de la variable sobre un sistema de ejes cartesianos. Estos diagramas se
utilizan para representar variables medidas en cualquier escala pero son variables
que presentan pocos valores (variables discretas).
Gráficos de sectores: circulares o de tarta, dividen un círculo en porciones
proporcionales según el valor de las frecuencias relativas. Puede utilizarse en
cualquier tipo de variable, pero normalmente se utiliza para variables nominales y
ordinales.
Pictogramas: o representaciones visuales figurativas. Son diagramas de barras en
los que las barras se sustituyen por dibujos alusivos a la variable de tamaño
proporcional a la frecuencia seleccionada.
Histogramas: es una representación específica para variables que toman muchos
valores (continuas) y con escala de medición de intervalos o de la razón.
Polígonos de frecuencias o de líneas: esta forma de presentación se utiliza para
variables en escala de intervalo y en escala de la razón. La representación se lleva
a cabo uniendo mediante líneas rectas los puntos de un diagrama cartesiano
correspondientes a cada valor o categoría de la variable y su frecuencia. El polígono
de frecuencias describe el movimiento de la variable.
Las tablas y gráficos son de gran apoyo para determinar la forma de la distribución y
para detectar la existencia de valores atípicos.
3. Medidas descriptivas en el análisis univariante
La tabulación y representación gráfica de datos que vimos anteriormente son
importantes para mostrar las propiedades esenciales del conjunto de observaciones,
representando un punto de partida en el proceso de toma de decisiones. Además, es
61
necesario conocer las medidas descriptivas que permiten resumir la extensa
información proporcionada por la tabla estadística en una serie de expresiones.
Buscamos, por tanto, una serie de valores que nos fijen el comportamiento global del
fenómeno a partir de los datos individuales recogidos en la información disponible.
Estos números, que reciben el nombre de características nos indican los rasgos más
importantes de las distribuciones de frecuencias, y se suelen clasificar en los
siguientes grupos: medidas de posición o promedios, medidas de dispersión y
medidas de forma.
Medidas de posición
Las medidas de posición o promedios pueden ser de tendencia central o no. Estas
medidas son unos valores alrededor de los cuales, con mayor o menor rigor, se
agrupan los valores de la variable. Para que un valor pueda ser considerado como
promedio se le exige, como única condición, que esté comprendido entre el menor y
el mayor valor de la variable. Los promedios vienen expresados en la misma unidad
de medida que la variable objeto de estudio.
Las principales medidas de tendencia central son la media, la mediana y la moda.
La media es el promedio más utilizado y se obtiene como la suma de todos los
valores dividida entre el número total de casos.
La mediana es el valor de la variable que divide a la distribución en dos partes
iguales. Cuando la dispersión del conjunto de datos o distribución es muy grande,
la información que proporciona la mediana es más fiable que la que proporciona la
media.
La moda es el valor de la variable que presenta mayor frecuencia.
Dentro de las medidas de tendencia no central, las más utilizadas son los cuartiles.
Los cuartiles son una generalización de la mediana y dividen a la distribución en
cuatro partes iguales. Existen tres cuartiles y el segundo coincide con la mediana.
62
Medidas de dispersión
Una vez que hemos estudiado los promedios, necesitamos saber con que fidelidad
llevan a cabo la representación de la distribución, esto depende de la relación que
exista entre los valores de la variable y el promedio, esto es, de la dispersión de la
distribución. Si todos los valores fueran iguales, la media, por ejemplo, coincidiría con
todos y cada uno de ellos, por lo que representaría fielmente a la distribución. A
medida que los valores individuales de la variable difieran del promedio, la
representatividad de éste será cada vez menor.
Resulta necesario para completar la información que pueda deducirse de un promedio,
acompañar a éste de uno o varios coeficientes que midan el grado de dispersión de la
distribución de la variable. Estos coeficientes son las medidas de dispersión. Las más
utilizadas son el recorrido y la desviación típica.
El recorrido es la diferencia entre el máximo valor de la variable y el menor. Viene
expresado en la misma unidad de medida que la variable.
La desviación típica es un indicador de la dispersión de los valores de la variable
respecto a la media. Esta medida, también se expresa en la unidad de medida de la
variable. El mínimo valor de la desviación típica es cero e indica que la distribución no
presenta dispersión (todos los valores son iguales). Cuanto mayor sea la desviación
típica, mayor es la dispersión y por lo tanto la media es menos representativa.
La escala de medición de la variable condiciona el uso de las medidas de posición y
de dispersión.
En la tabla 10 se recogen las medidas básicas para el análisis estadístico de una
variable de acuerdo a la escala de medición utilizada:
Tabla 10. Escalas de medición y estadísticos básico s
Variable cualitativa Variable cuantitativa Promedios y
medidas de
dispersión
Escala nominal Escala ordinal
Escala de
intervalo
Escala de la razón
Moda SI SI SI SI
Mediana NO SI SI SI
Media NO NO SI SI
Rango NO SI SI SI
Desviación típica NO NO SI SI
Fuente: elaboración propia
63
Medidas de forma
Con este tipo de medidas se trata de conocer la forma de la distribución. Los polígonos
de frecuencias son curvas que nos muestran la forma de la distribución y la
concentración de los valores, la asimetría y la curtosis, respectivamente. Las medidas
de forma son valores que nos indican el grado de asimetría y la curtosis sin necesidad
de tener que hacer su representación gráfica. Con esta información podremos
determinar, entre otras cosas, cuánto se parece nuestra distribución a la distribución
teórica normal o campana de Gauss.
4. Análisis bivariante
Después de realizar un análisis por separado de cada una de las variables que
describen el fenómeno en estudio, se procede a llevar a cabo una serie de cruces
entre variables con el fin de observar la relación entre ellas.
Con el análisis bivariante se pretende determinar si existe relación entre dos variables
y en cuantificar el grado de asociación entre las mismas. Las técnicas bivariantes más
utilizadas en investigación social son:
1) Tabulación cruzada o tablas de contingencia
2) Diagramas de dispersión
3) Correlación y regresión
Tabulación cruzada
La distribución de frecuencias de la variable bidimensional se presenta en una tabla
de doble entrada que recoge los valores de las variables (en cualquier escala de
medición) y el número de veces que se repite cada par de valores. Además, este tipo
de tablas proporcionan toda la información necesaria para poder realizar un análisis de
los datos de cada una de las variables por separado, estableciendo o no alguna
condición.
64
Tabla 11: Distribución de frecuencias de la variabl e bidimensional (X,Y)
yj
x i
y1 y2 … yh n i.
x1 n11 n12 … n1h n1.
x2 n21 n22 … n2h n2.
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
…
xk nk1 nk2 … nkh nk.
n. j n.1 n.2 … n.h n
Fuente: elaboración propia
La interpretación de esta tabla es muy sencilla. Así pues, el valor correspondiente a la
frecuencia nkh indicará el número de veces que simultáneamente se repite el valor k
en la característica X con el valor h en la característica Y. La frecuencia nk. indicará
las veces que se repite la característica k de la variable X independientemente de los
valores que tome la característica Y, y por tanto la frecuencia n.h se interpretará como
el número de veces que se repite el valor h de la característica Y independientemente
de los valores que tome la otra característica X. Por último, n será el tamaño muestral.
Diagramas de dispersión
Es un sistema de ejes cartesianos donde se representan los valores de dos
variables métricas (escala de intervalos y de la razón) con el objeto de visualizar si
existe o no asociación entre dichas variables. El diagrama de dispersión se
construye fácilmente y proporciona una buena descripción de la relación entre dos
variables.
Correlación y regresión
El análisis de correlación (la regresión se explica con detalle en el capítulo 11) se
utiliza para medir el grado de asociación entre dos variables. Si las variables son
métricas se utiliza el coeficiente de correlación lineal de Pearson. Para determinar el
grado de asociación entre variables expresadas en escalas de medición inferiores
(ordinales) se utiliza generalmente el coeficiente de Spearman o la Tau-b de
Kendall.
65
CAPÍTULO 10
Inferencia estadística. Contraste de hipótesis
1. Introducción
La inferencia estadística es una rama de la estadística que utiliza técnicas estadísticas
para extraer conclusiones respecto a una población a partir de los resultados
obtenidos mediante muestras. La inferencia estadística supone la generalización de
los resultados de la muestra a la población que representa. Esta extensión será válida
en la medida en que la muestra sea representativa de la población. Se trata de, a partir
de los resultados de una muestra, sacar conclusiones acerca de las características
de una población.
Estas características pueden ser parámetros en cuyo caso se hablará de inferencia
paramétrica. En otros casos se puede tener interés no sobre los parámetros de la
población si no sobre su distribución, en este caso se hablará de inferencia no
paramétrica.
Las inferencias sobre el valor de un parámetro poblacional desconocido (inferencia
paramétrica) se pueden obtener básicamente de dos maneras: a partir de estimación
(estimación puntual e intervalos de confianza) o bien a partir de contrastación de
hipótesis.
La estimación puntual consiste en obtener un único número calculado a partir del
estadístico o estimador obtenido como función de las observaciones muestrales, y que
se utiliza como estimación del parámetro poblacional desconocido.
La estimación por intervalos de confianza consiste en determinar dos extremos que
definen un intervalo sobre la recta real, el cual contendrá con una confianza prefijada
al verdadero valor del parámetro poblacional desconocido.
En la contrastación de hipótesis se formula una hipótesis sobre el verdadero valor del
parámetro poblacional desconocido, para a partir de la información proporcionada por
la muestra y con un nivel de confianza prefijado, rechazar o aceptar la hipótesis
formulada. La contrastación de hipótesis es una técnica que también se utiliza para
hacer inferencia no paramétrica.
66
En este capítulo, por su gran aplicabilidad en la investigación en ciencias sociales, se
va a desarrollar la contrastación de hipótesis como técnica de inferencia estadística.
2. Contrastación de hipótesis
Se entiende por hipótesis a la conjetura que se realiza sobre el acontecimiento de un
suceso y se designará como “contraste” o “test” de una hipótesis a la regla que permita
determinar la validez de dicha hipótesis.
Con esta técnica podemos realizar dos tipos de inferencia: la paramétrica (inferencia
sobre las características de la variable) y la no paramétrica (inferencia sobre la
distribución de las variables, sobre relación entre variables, etc.). La aplicación de la
primera exige el cumplimiento de una serie de condiciones (normalidad,
homocedasticidad e independencia) que muchas veces no se cumplen cuando se
investiga en ciencias sociales. La inferencia no parámetrica es un procedimiento que
puede resolver problemas estadísticos que no se han podido resolver con
procedimientos paramétricos.
Los pasos que se siguen para la prueba de hipótesis son:
1) Se establece una hipótesis nula H0 (es la suposición sobre la población que
se pone a prueba usando la evidencia muestral) y una hipótesis alternativa H1
(es la afirmación sobre la población que debe ser cierta si la H0 es falsa).
2) Determinar el estadístico de prueba apropiado.
3) Seleccionar el nivel de significación α (error que se puede aceptar).
4) Determinar la región crítica o región de rechazo. El conocimiento de la región
crítica permitirá decidir si se acepta o rechaza la hipótesis nula H0, en
función del estadístico de prueba elegido y del valor de significación α fijado.
5) Seleccionar aleatoriamente la muestra y calcular el valor del estadístico de
prueba o test estadístico.
6) Dar la regla de decisión. Si el valor calculado del estadístico cae dentro de la
región crítica, entonces se rechazará H0 y si el valor calculado cae dentro de
la región de aceptación, entonces no se puede rechazar o “se acepta” H0.
67
En los epígrafes siguientes se exponen de forma breve algunas de las pruebas más
utilizadas en una investigación social.
3. Pruebas paramétricas
Coeficiente de correlación de Pearson
Concepto
El coeficiente de correlación de Pearson es un indicador del grado de asociación lineal
entre dos variables (X e Y). Se simboliza con la letra “r” y toma valores entre 1 y -1. El
grado de dependencia lineal entre las variables es más fuerte cuando el coeficiente
está próximo a 1 ó a -1, de tal forma que cuando toma el valor 1 indica que la relación
entre las variables es positiva (ambas variables se mueven en la misma dirección). Si
el coeficiente de Pearson toma valor -1, la relación también es perfecta pero las
variables se relacionan de forma inversa (si una variable crece, la otra variable
decrece). Cuando el coeficiente es nulo, decimos que no existe correlación entre las
variables.
Hipótesis
H0: Las variables no están correlacionadas (r=0)
H1: Las variables están correlacionadas (r distinto de cero)
Distribución muestral
Chi-cuadrado de Pearson (χ2)
Supuestos
El coeficiente de correlación de Pearson se aplica a variables con escala de intervalos
y escala de la razón. Si las variables objeto de estudio son de escala ordinal se utiliza
el coeficiente de correlación de rangos de Spearman que sigue las mismas reglas que
el coeficiente de correlación de Pearson.
68
Prueba t de student
Concepto
La prueba “t” se utiliza para comparar si existe diferencia entre los valores medios de
dos grupos con relación a una variable de escala de intervalos y escala de la razón.
Hipótesis
H0: No existen diferencias significativas entre las medias de los dos grupos
considerados (las medias son iguales).
H1: Existen diferencias significativas entre las medias de los dos grupos considerados
(las medias son diferentes).
Distribución muestral
t de student
Supuestos
La prueba proporciona resultados fiables cuando garantizamos que se cumplen los
siguientes supuestos antes de su aplicación.
1. Los grupos son independientes entre sí, es decir, están formados por
elementos o individuos distintos.
2. La variable en cada grupo debe seguir una distribución normal (la
normalidad se puede contrastar utilizando la prueba de Kolmogorov-
Smirnov).
3. La escala de medición de la variable es de intervalos o de la razón.
4. Las varianzas de los grupos deben ser iguales. En la práctica “podemos
asumir que las varianzas poblacionales son iguales si la varianza de la
muestra de un grupo no es superior al doble del tamaño de la del otro
grupo” (Ritchey, 2006)
5. El tamaño de los grupos puede ser distinto
69
Contraste de hipótesis para la diferencia de propor ciones
Concepto
Es una prueba estadística para analizar si dos proporciones o porcentajes de dos
grupos difieren significativamente entre sí. Tiene aplicaciones muy similares a la
diferencia de medias.
Hipótesis
HO: No existen diferencias significativas entre las proporciones de dos grupos
(las proporciones son iguales).
H1: Existen diferencias significativas entre las proporciones de los dos grupos
considerados (las proporciones son diferentes).
Distribución muestral:
Distribución normal, N (0,1).
Supuestos:
1. Los grupos son independientes entre sí, es decir, están formados por
elementos o individuos distintos.
2. La variable en cada grupo debe seguir una distribución binomial
3. Se puede aplicar a variables expresadas en cualquier escala de medición.
4. Pruebas no paramétricas
La característica esencial de los contrastes no paramétricos es que para su
planteamiento no se requiere el conocimiento de la distribución de partida y por tanto
los estadísticos que se utilicen seguirán una distribución independiente de la
distribución de la población de partida.
70
Test de independencia (tablas de contingencia) (Ruiz-Maya, 2000).
Concepto
El test de independencia, cuando se analizan conjuntamente dos variables, tiene por
objeto probar la ausencia de asociación entre ellas, es decir, probar que el
comportamiento de una variable no informa sobre el de la otra.
Hipótesis
H0: Las variables son independientes, no están asociadas.
H1: Las variables son dependientes, están asociadas.
Distribución muestral:
Chi-cuadrado de Pearson (χ2)
Supuestos
1. Las variables pueden venir expresadas en cualquier escala de medición.
2. Los valores o formas de expresión de las variables deben poder ser
clasificados en grupos mutuamente excluyentes.
3. Según el criterio de Cochran (1959) el 80% de las clases deben tener un valor
teórico superior o igual a 5.
Test de Kolmogorov-Smirnov (Ruiz-Maya, 2000).
Concepto
El test de Kolmogorov-Smirnov permite contrasta si una muestra procede de una
población con un determinado modelo de distribución (normal, binomial, etc)
Hipótesis
H0: la muestra aleatoria procede de una población con una distribución de probabilidad
determinada.
H1: la muestra no procede de una población con ese tipo de distribución
71
Distribución muestral
Kolmogorov-Smirnov
Supuestos
1. Las variables deben expresarse, al menos, en escala ordinal.
2. De la población se toma una muestra aleatoria simple.
3. La función de distribución es continua.
72
CAPÍTULO 11
ANOVA y regresión lineal múltiple
Análisis de la varianza (ANOVA)
Concepto
El análisis de la varianza es una prueba de hipótesis que sirve para comparar varios
grupos respecto a una variable cuantitativa. Es un método que puede considerarse
una generalización de la prueba t para la diferencia de medias de dos grupos
independientes, es decir el ANOVA contrasta si existen diferencias o no entre las
medias de los diferentes grupos. El ANOVA puede considerarse como la base del
análisis multivariante. En el análisis de la varianza se distinguen dos variables, una
variable dependiente Y (cuantitativa) y una variable independiente o factor X (discreta)
y se trata de comparar las medias de Y asociadas a cada grupo del factor X.
Hipótesis
H0: Las medias de todos los grupos son iguales
H1: Las medias de todos los grupos no son iguales
Distribución muestral
F de Fisher-Snedecor
Supuestos
1. La variable de comparación (variable dependiente) debe venir
expresada en escala de intervalos o de la razón.
2. Cada grupo de datos debe ser independiente del resto.
3. Los datos de cada grupo establecido deben seguir una distribución
normal.
4. No deben diferir significativamente las varianzas de los distintos grupos.
73
Regresión lineal múltiple
Concepto
La regresión lineal múltiple es una técnica cuantitativa de dependencia que se utiliza
para investigar la relación estadística que existe entre una variable dependiente y dos
o más variables independientes (cuando sólo se considera una variable independiente
se habla de regresión lineal simple).
El objetivo de la teoría de la regresión lineal múltiple es analizar un modelo que
pretende explicar el comportamiento de la variable dependiente a partir del
comportamiento de dos o más variables explicativas o independientes. Desarrollar un
modelo de regresión lineal consiste en establecer una relación funcional de tipo lineal
entre la variable dependiente y dos o más variables explicativas, considerando que
existe una relación de causalidad entre las mismas.
Un modelo de regresión lineal múltiple con “k” variables explicativas responde a la
siguiente ecuación:
Error. :u
ntes.independieoasexplicativ Variables :
edependient variablelasobreejerce aexplicativ
variablecada queinfluencialaindicanqueparámetros k,2,3...,icon parciales Pendientes :
nteindependie Término :
edependient o endógena Variable :
......
i
i
1
4433221
ik
i
iikkiiii
x
Y
uxxxxY
=
++++++=
ββ
βββββ
El modelo lineal se formula bajo los siguientes supuestos:
� Las variables, dependiente e independientes son métricas (escala de
intervalos y escala de la razón. También se pueden utilizar cuando las
variables independientes presentan escala ordinal o nominal, en este caso
debemos convertirlas en variables ficticias (toman valor uno cuando poseen
una característica y cero cuando no la poseen).
� Las variables X1, X2,... Xk son fijas (no son variables aleatorias) ya que sus
valores vienen de la muestra tomada.
� Los parámetros del modelo son constantes.
74
� Se supone que en el modelo se incluyen todas las variables independientes
necesarias para explicar el comportamiento de la variable dependiente y que
ninguna de ellas se considera irrelevante.
� Las variables X1, X2,...X k son linealmente independientes (no se puede poner a
una de ellas como combinación lineal de las otras). Cuando no se cumple este
supuesto, el modelo presenta multicolinealidad.
� Linealidad de las relaciones: la variable dependiente presenta una relación
lineal con cada una de las independientes.
� Los errores siguen una distribución normal con media cero y no presentan ni
autocorrelación ni heterocedasticidad.
Fases
La elaboración de un modelo de regresión lineal sigue una metodología de trabajo que
supone la ejecución de una serie de fases. Estas fases son: Especificación,
Estimación, Verificación y Predicción.
1) Especificación: Se entiende por especificación de un modelo la determinación
de la variable dependiente (Y), las variables explicativas (X1, X2,...,Xk), el error
(U) y la función matemática que las relaciona.
iikkiiii uxxxxY ++++++= βββββ ......4433221
En un modelo de regresión lineal, como su propio nombre indica, la función que
relaciona a las variables es de tipo lineal, también pueden utilizarse funciones
no lineales pero linealizables, es decir funciones no lineales que sometidas a
determinadas transformaciones algebraicas puede convertirse en funciones
lineales. Para identificar que nuestras variables se relacionan linealmente es de
gran ayuda realizar el diagrama de dispersión de la variable dependiente con
cada una de las variables explicativas y la revisión de modelos teóricos que
tienen relación con nuestro tema de investigación.
75
Una de las principales dificultades con la que nos encontramos cuando se
especifica un modelo está en la selección de las variables independientes. La
especificación puede llevarse a cabo de dos formas:
• Regresión paso a paso: en este caso las variables independientes se
incluyen una a una en el modelo. Normalmente, las primeras variables
que se incluyen en el modelo son aquellas que individualmente
presentan una mayor correlación con la variable dependiente (diagrama
de dispersión y cálculo del coeficiente de correlación de Pearson).
Posteriormente, se van incluyendo una a una atendiendo a la que
mayor coeficiente de correlación parcial presente y que, además, su
incorporación suponga una reducción en los errores. Con el resto de
variables se opera de forma similar hasta que no se admita ni se
rechace ninguna variable más.
• Regresión con todas las variables independientes: en este caso se
parte de un modelo general y se van excluyendo aquellas variables que
no cumplen los criterios de selección establecidos.
En la selección de variables, hay un conjunto de reglas que deben respetarse
(Martín et al., 1997):
- Las variables elegidas deben ser coherentes con la teoría económica
que oriente el modelo.
- Los signos de los parámetros estimados deben responder al
conocimiento teórico a priori.
- El modelo debe estar bien ajustado, es decir debe presentar un alto
coeficiente de determinación.
- Los parámetros deben ser significativos individual y conjuntamente. No
obstante, pueden darse ciertos casos en los que siendo significativos
conjuntamente, no lo sean individualmente. Aún así, el modelo puede
utilizarse, por ejemplo, para realizar predicciones.
- El comportamiento de los residuos debe ser aleatorio.
76
2) Estimación: En esta fase, a partir de la información que proporciona la muestra
se estiman los parámetros (β1, β2,…..y βk ) de la ecuación de regresión,
iikkiiii uxxxxY ++++++= βββββ ......4433221
Los coeficientes β2,…y βk estimados miden el cambio en la variable dependiente
(Y) producido por el cambio unitario en cada una de las variables
independientes (manteniendo constante el resto de las variables).
3) Verificación: En la fase de estimación utilizando el método de los mínimos
cuadrados ordinarios y suponiendo que los supuestos bajo los que se formula
el modelo (citados en el epígrafe Concepto) son ciertos, se obtienen
estimadores que cumplen determinadas propiedades deseables desde el punto
de vista estadístico. En esta fase debemos verificar si dichos supuestos son
ciertos, investigar qué sucede cuando no se cumplen y qué implicaciones
tienen sobre las propiedades de los estimadores.
De ahí, que sea necesario establecer una serie de controles o contrastes que
permitan establecer la bondad del modelo o su validez.
Los tipos de contraste que se pueden llevar a cabo son los siguientes:
- Contrastes individuales de parámetros (es habitual contrastar la
hipótesis de que los parámetros individualmente son igual a cero,
usando el estadístico t-student)
- Contrastes conjuntos de parámetros o significación del modelo
(estadístico F de Senedecor para contrastar la significatividad conjunta,
todos los parámetros son igual a cero a excepción del término
independiente). Coeficiente de determinación o medida de bondad del
ajuste.
- Contrastes de hipótesis básicas. Contrastes sobre multicolinealidad (se
analiza la coherencia de los signos de los parámetros estimados, se
utilizan matrices de correlaciones entre las variables, el índice de
tolerancia, el factor de inflación de la varianza, etc.), sobre cambio
estructural (test de Chow, variables ficticias, etc.), sobre autocorrelación
77
(el estadístico más utilizado el de Durbin-Watson) y sobre
heterocedasticidad (test de Goldfeld y Quandt, contraste de White, etc.)
4) Predicción
Una vez que el modelo se ha aceptado estadística y económicamente, se
podrán hacer predicciones sobre el valor de la variable dependiente (Y), si este
era uno de los objetivos del ajuste realizado.
Aplicaciones:
1. Cuantificar la asociación existente entre dos o más variables métricas.
2. Determinar la estructura o forma de relación entre las variables.
3. Determinar qué factores influyen en la aparición o no de un suceso.
4. Predecir.
78
CAPÍTULO 12
Análisis discriminante y regresión logística
Análisis discriminante
Concepto
El análisis discriminante es una técnica multivariante de dependencia y de clasificación
que, junto con la regresión logística, son apropiadas para relacionar una variable
dependiente nominal o no métrica con variables dependientes generalmente métricas.
Con la técnica del análisis discriminante se trata de clasificar individuos, empresas o
cosas en grupos previamente determinados (fijados por la variable dependiente) de
acuerdo a un conjunto de características (variables independientes). Se pretende
encontrar relaciones lineales entre las variables independientes que mejor discriminen
en los grupos establecidos.
Fases
1) Selección de la variable dependiente y de las variables independientes.
La primera etapa en el análisis discriminante es la selección de la variable dependiente
que debe ser nominal (si la variable es ordinal o en intervalos se puede transformar en
una variable categórica) y en la determinación de las variables independientes de
naturaleza métrica.
2) Selección del tamaño muestral y división de la muestra.
La validez de los resultados del análisis discriminante depende del tamaño y
representatividad de la muestra. El tamaño de la muestra exige un mínimo de 5
observaciones por cada una de las variables independientes del modelo. En cuanto a
los grupos, deben tener al menos 20 observaciones y se recomienda que no haya
mucha diferencia de tamaño entre ellos. Para determinar el tamaño muestral debe
tenerse en cuenta que, en ocasiones, la muestra se divide en dos submuestras, una
para obtener la función discriminante y la otra con fines de validación.
3) Contraste de las hipótesis de partida.
La correcta aplicación del análisis multivariante exige que se cumplan tres hipótesis:
79
- El conjunto de variables independientes debe distribuirse como una
normal multivariante. Si alguna de las variables no se distribuye
normalmente, entonces tampoco se distribuirán normalmente en
conjunto. Para comprobar la hipótesis de normalidad se puede utilizar
el test de Shapiro-Wilks o el test de Kolmogorov-Smirnov.
- Igualdad entre las matrices de covarianzas entre los grupos. Para
comprobar esta hipótesis se puede utilizar la prueba M de Box cuyo
valor se aproxima a una F de Snedecor.
- Ausencia de multicolinealidad (correlación lineal) entre las variables
independientes. Para determinar si las variables están correlacionadas
se utiliza el Factor de Inflación de la Varianza (VIF) y el Índice de
Tolerancia.
4) Estimación del modelo
Como se comentó en la introducción, la idea del análisis discriminante es construir
funciones lineales con las variables independientes que discriminen entre los distintos
grupos. No todas las variables tienen el mismo poder discriminante, por esta razón las
relaciones lineales o funciones discriminantes se construirán a partir de aquellas
variables que cumplan un determinado criterio de selección. Como criterio general se
utiliza la Lambda de Wilks (cociente entre la varianza dentro de los grupos y la
varianza total). Cuanto menor es este estadístico mayor es el poder discriminante de la
variable, es decir la variabilidad del fenómeno en estudio se debe a la diferencia entre
grupos, no a la diferencia dentro del grupo. De modo equivalente se utiliza la F de
Snedecor asociada a la Lambda de Wilks. Este estadístico compara para cada
variable, las desviaciones de las medias de cada uno de los grupos a la media total. Si
F es grande entonces existen diferencias entre las medias de los grupos y decimos
que la variable discrimina.
Existen dos métodos de selección de variables para el cálculo de la función
discriminante: el método directo o simultáneo y el método por etapas.
Cuando el método es por etapas, se recomienda utilizar la medida D2 de Mahalanobis.
Este procedimiento por etapas está diseñado para obtener el mejor modelo de una
variable, seguido por el mejor modelo de dos variables y así sucesivamente hasta que
ninguna otra variable cumpla la regla de selección deseada (Hair el al., 2007). La regla
80
de selección en este procedimiento es maximizar la distancia D2 de Mahanalobis entre
grupos (Hair el al., 2007).
El análisis discriminante estima una función menos que el número de grupos
existentes. Si establecemos dos grupos, estimaremos una sola función discriminante.
5) Cálculo de las puntuaciones Z discriminantes
Definidas las funciones discriminantes, las puntuaciones para cada elemento (persona,
empresa o cosa) se pueden obtener a partir de la siguiente expresión:
nknkkjk XWXWXWaZ ++++= ....2211
Donde:
Zjk= puntuación Z discriminante de la función discriminante j para el elemento k
a= constante
Wi= ponderación discriminante para la variable independiente i
Xik= variable independiente i para el elemento k
Obtenidas las funciones discriminantes se calcula la puntuación de corte para
determinar a qué grupo pertenece cada elemento. La puntuación de corte se obtiene
utilizando una media aritmética ponderada de las centroides de los grupos:
21
2211
NN
ZNZNZC +
+=
Donde:
ZC= puntuación de corte
Z1 y Z2= centroide del grupo 1 y del grupo 2, respectivamente
N1 y N2= tamaño del grupo 1 y del grupo 2, respectivamente
6) Valoración del ajuste global
La valoración del ajuste global exige evaluar las diferencias entre grupos sobre las
puntuaciones obtenidas y valorar la precisión en la predicción de pertenencia al grupo.
81
- Diferencias entre grupos: para valorar la diferencia entre grupos se
suele utilizar la D2 de Mahalanobis aplicada a las centroides de los
grupos.
- Precisión en la predicción: se realiza examinando las matrices de
clasificación.
7) Validación de los resultados: la validación de resultados se realiza ampliando la
muestra y valorando su precisión predictiva.
Aplicaciones
El análisis discriminante puede tratar cualquiera de los siguientes objetivos de
investigación (Hair el al., 2007):
1. Determinar si existen diferencias estadísticamente significativas entre los
perfiles de las puntuaciones medias sobre un conjunto de dos (o más) grupos
definidos a priori.
2. Determinar cuál de las variables independientes cuantifica mejor las diferencias
en los perfiles de las puntuaciones medias de dos o más grupos.
3. Establecer los procedimientos para clasificar objetos (individuos, empresas,
productos, etc.) dentro de los grupos, en base a sus puntuaciones sobre un
conjunto de variables independientes.
4. Establecer el número y la composición de las dimensiones de la discriminación
entre los grupos formados a partir del conjunto de variables independientes.
Regresión logística
Concepto
Un modelo de regresión logística es un modelo que permite estudiar si una variable (Y)
dicotómica depende, o no, de otras variables expresadas en cualquier escala de
medición (X1, X2,..Xk). En este caso, al ser la variable Y dicotómica, también puede ser
politómica, sólo puede tomar dos valores el valor “0“cuando no ocurre el suceso o el
valor “1” cuando el hecho ocurre. Se trata de un proceso binomial donde la
82
probabilidad de que la variable tome valor “1” (suceso éxito) es “p” y la probabilidad de
que tome el valor “0” (suceso fracaso) es “q”. La regresión logística es equivalente al
análisis discriminante de dos grupos. En muchas ocasiones, la regresión logística
proporciona mejores resultados que el análisis discriminante ya que la aplicación de la
regresión logística no exige el cumplimiento de normalidad y de igualdad entre
varianzas, hipótesis de partida para una adecuada aplicación del análisis
discriminante.
Fases
1) Especificación: en esta fase, al igual que ocurría con la regresión lineal, debemos
definir las variables dependiente e independientes que queremos estudiar, así
como la forma funcional que las relaciona. En este caso, como se comentó
anteriormente, la distribución condicionada de la variable dependiente sigue un
proceso binomial (no se verifican las hipótesis de normalidad y homocedasticidad
de los errores) por lo que ajustaremos una función logística a la nube de puntos,
así el modelo de regresión logística puede expresarse según la siguiente
ecuación:
kk XXq
pLn βββ +++= .........)( 221
Donde p/q es la razón de probabilidades de la variable dependiente para cada
uno de los valores de las variables independientes, comúnmente denominada
odds. La razón de probabilidades toma valores entre 0 e ∞. Cuando es igual a 1
indica que el suceso éxito (que ocurra un hecho) es igual de probable que el
suceso fracaso (que no ocurra un hecho). Cuando es mayor que 1, la
probabilidad de que ocurra un suceso es mayor que la de que no ocurra.
Realizando una pequeña transformación algébrica el modelo de regresión
logística también puede expresarse utilizando la siguiente expresión:
kXkX
kXkX
e
ep βββ
βββ
+++
+++
+=
.....221
.....221
1
La especificación puede realizarse de dos formas diferentes:
83
• Especificación del modelo máximo: se parte de un modelo que incluye
todas las variables independientes que consideramos que pueden tener
alguna influencia sobre la variable dependiente. El modelo que
seleccionemos para realizar la predicción se obtendrá eliminando
aquellas variables que no presentan significatividad estadística
(mantendremos aquellas variables que aun no siendo significativas son
de interés para nuestra investigación) hasta que no quede ninguna.
• Especificación del modelo por pasos hacia delante: en este caso se
parte de un modelo con una sola variable independiente. El modelo
definitivo se obtendrá después de haber ido incorporando
sucesivamente variables con significatividad estadística y que mejoren
significativamente el ajuste del modelo, es decir, que minimicen las
diferencias entre las frecuencias de los casos observados y las
frecuencias de los casos pronosticados.
2) Estimación: se trata de calcular los parámetros del modelo de regresión logística.
Para la estimación del modelo se utiliza el método de la máxima verosimilitud.
Este método consiste en seleccionar aquellos valores de los parámetros que
maximizan la función de verosimilitud de la muestra. Con este procedimiento se
seleccionan las estimaciones de los parámetros que hagan posible que los
resultados sean lo más verosímiles posibles.
Los parámetros β estimados son una medida de la influencia que cada una de
las variables independientes ejerce sobre la probabilidad de que ocurra un
hecho, de tal forma que aumenta la probabilidad de ocurrencia cuando el signo
de los parámetros es positivo y disminuye si el signo es negativo. Un coeficiente
o parámetro igual a 0 indicaría que la variable independiente no tiene ninguna
influencia sobre la ocurrencia de un suceso. Matemáticamente, cada uno de los
parámetros es el logaritmo del cociente de los odds para dos valores de cada
una de las variables independientes y se denomina odds ratio.
3) Verificación: en esta fase comprobamos si el modelo propuesto es válido para los
objetivos de nuestra investigación. Utilizaremos técnicas estadísticas para
determinar qué variables, de forma individual, presentan significatividad
estadística y técnicas que indiquen si en conjunto el modelo es aceptable.
Para estudiar la significatividad individual de las variables se utiliza el contraste
de Wald que sigue una distribución similar a la t-student al cuadrado. La hipótesis
nula que se contrasta es que el coeficiente de cada variable es igual a cero. Si se
84
rechaza la hipótesis entonces la variable independiente influye en la ocurrencia
de un suceso, si no la podemos rechazar entonces, estadísticamente la variable
no influye en la ocurrencia del hecho que estamos estudiando.
Para determinar si el modelo completo es aceptable, esto es para medir la
bondad del ajuste existen distintos indicadores, entre los más utilizados se
encuentran:
• el cociente de verosimilitudes, utiliza la distribución Chi-cuadrado y se
contrasta la hipótesis nula de que todos los coeficientes, salvo la
constante, son igual a cero. El rechazo de la hipótesis indica que todas
las variables de forma conjunta influyen en la ocurrencia de un suceso.,
• el contraste de Hosmer y Lemeshow (1989) que compara las
frecuencias de los valores observados con los predichos utilizando la
Chi-cuadrado y,
• el pseudo coeficiente de determinación. Este coeficiente es una medida
aproximada de la eficacia predictiva del modelo. Toma valores entre 0 y
1 si la capacidad predictiva es nula en el primer caso, o perfecta en el
segundo. Los distintos programas informáticos de tratamiento
estadístico de datos ofrecen dos modificaciones de este coeficiente de
Cox y Snell y el de Nagelkerke.
Aplicaciones
La regresión logística puede usarse con dos objetivos:
1) predictivo, en el que el interés del investigador es predecir el comportamiento de la
variable dependiente a partir del comportamiento de un conjunto de variables y
2) estimativo, cuando el interés se centra en estimar la relación que existe entre una o
más variables independientes con la variable dependiente.
Como se comentó en capítulos anteriores estos objetivos pueden conseguirse
utilizando técnicas de regresión múltiple. Sin embargo, la regresión lineal no
proporciona resultados aceptables cuando la variable dependiente es de naturaleza
cualitativa. En ciencias sociales, en muchas ocasiones, nos encontramos con variables
que no pueden medirse. Dos son las soluciones que se proponen para resolver este
problema; una es la de utilizar variables proxy, son variables que sustituyen a las
variables que realmente queremos medir, y aplicar técnicas de regresión lineal y, otra
85
solución es definir la variable como una variable dicotómica, en este caso para
conseguir los objetivos propuestos el uso de la regresión logística proporciona
excelentes resultados.
86
CAPÍTULO 13
Análisis factorial
1. Concepto
Es una técnica de interdependencia de reducción de datos. En ocasiones las bases de
datos están integradas por variables en las que aparece una amplia redundancia en la
información. Técnicamente se dice que son variables con un elevado nivel de
intercorrelación. Ello plantea el problema de la multicolinealidad que inutiliza la base
para muchos modelos predictivos como la regresión múltiple o el análisis
discriminante. Se plantea entonces eliminar la redundancia informativa o eliminar la
multicolinealidad.
El análisis factorial va a permitirnos sustituir el conjunto original de variables por otro
sensiblemente menor en número de variables no observables o hipotéticas, llamadas
factores. Son definidas como variables incorreladas (o con cierta correlación según el
tipo de rotación aplicada) que explican los elevados niveles de intercorrelación
presentes en la muestra. Estos factores, por tanto, amén de eliminar la
multicolinealidad describen las relaciones entre las variables (Manuel, 2005).
Pensemos en el siguiente caso: calificaciones obtenidas por los alumnos de un colegio
en las asignaturas de lenguaje, matemáticas, física, química, filosofía e inglés, por
ejemplo. Para cada alumno tendríamos una puntuación en cada asignatura. Existe una
forma de reducir esta información: realizar un análisis factorial. Muy probablemente,
con datos reales, se formarían dos factores: El factor 1, denominado Ciencias, estaría
compuesto por matemáticas, física y química y, el factor 2, llamado Letras, estaría
formado por lenguaje, filosofía e inglés. Ahora, en lugar de tener seis variables,
tendríamos dos factores (distintos entre sí pero homogéneos dentro de sí), con la
puntuación factorial de cada individuo en Ciencias y en Letras.
A veces los factores son conocidos a priori y el diseño experimental se hace,
precisamente, para obtener una puntuación para cada individuo en los diferentes
factores (puntuaciones factoriales). En este caso el análisis factorial recibe el nombre
de “confirmatorio”. En otras situaciones, simplemente los factores no son conocidos y
se trata de obtenerlos a partir del análisis. Diremos entonces que el análisis factorial es
“exploratorio”.
87
2. Fases
El método del análisis factorial nos invita a seguir unos pasos para la correcta
extracción de los resultados. Según Manuel (2005) y, Visauta y Martori (2003) podrían
ser los siguientes:
a) Evaluar si es apropiado con los datos disponibles ejecutar un análisis factorial.
Tomando como primera condición que las variables sean numéricas, deberá haber
una fuerte redundancia informativa en el conjunto de las seleccionadas. Dicho de otro
modo deberá existir una fuerte correlación dentro de ciertos subconjuntos de variables
pero muy pequeñas o nulas entre ellos.
Para desarrollar este apartado se deben obtener y evaluar:
- Matriz de correlaciones de las variables: buscaremos que en esa matriz haya
cierta proporción de valores mayores que 0,6 en módulo (Manuel, 2005). Si
todos los valores son muy grandes entonces todas las variables están muy
intercorreladas pero esto lleva a la presencia de un único factor, que tampoco
es la situación más descriptiva ni por tanto la más deseada.
Asociado a cada coeficiente de correlación existe un contraste de hipótesis:
H0: la correlación es nula
H1: la correlación no es nula
Si el p-valor (significance) es inferior a 0,05 � Rechazamos la H0 � lo cual no
quiere decir que la correlación sea grande.
Rechazar H0 sólo significa que la correlación no puede admitirse nula pero de
ahí no debemos deducir que sea necesariamente grande. Eso se observa en el
coeficiente de correlación.
Entonces la utilidad de la tabla de significaciones es la siguiente: si muchos p-
valores son mayores que 0,05, entonces muchas correlaciones serán nulas y
ahí es cuando no tiene sentido el análisis factorial.
- Medida de adecuación muestral de Kaiser-Meyer-Olkin (KMO): en este caso
cuanto más se acerque a 1 tanto más sentido tendrá aplicar el análisis factorial,
88
puesto que mayor correlación existirá entre las variables. A partir de 0,6 se
considera un nivel aceptable.
- Test de esfericidad de Bartlett: en este paso se contrasta la siguiente hipótesis:
H0: la matriz de correlaciones es la identidad7
H1: no lo es
Si no se rechaza H0, entonces estamos admitiendo que la correlación para
cada pareja de variables es nula y por tanto el análisis es inviable. Cuando el p-
valor de este contraste sea inferior a 0,05 se podrá ejecutar el análisis factorial.
b) Obtención de los factores.
En esta fase, dado el conjunto de variables intercorreladas el análisis factorial extrae
un número de factores coincidente con el original de variables. Hasta aquí no hay
reducción en la dimensión lineal del problema. Sin embargo, dado que las variables
son internamente tipificadas por el método, la varianza global coincide con el número
de variables. De esta varianza global cada factor recoge una cierta cantidad, es decir,
explica una cierta proporción. Cuanto mayor sea la cantidad explicada más importante
es el factor.
El método de Componentes Principales extrae secuencialmente los factores de
manera que cada uno de ellos está incorrelado (no correlacionado –aunque depende
del método de rotación-) con todos los anteriores, de manera que la variabilidad
recogida por los diferentes factores cada vez es menor. De esta forma, se tenderá a
despreciar los últimos factores dado que la variabilidad que recogen es pequeña y ahí
es donde se consigue la reducción de la dimensionalidad del problema.
Criterios para determinar el número de factores a conservar:
- Criterio de Kaiser: se conservarán aquellos factores con autovalor8 mayor que
1.
- Gráfico de sedimentación: encontrar puntos de inflexión o saltos de importancia
entre factores. Detectar un pico relevante da información sobre el rechazo de
los factores siguientes.
7 Recuérdese que la matriz identidad se corresponde con: diagonal principal todo 1 y el resto de valores 0. 8 Entendido como el porcentaje que explica cada factor sobre el total de varianza explicada. Digamos, la importancia de cada factor en el total de la información que representan todas las variables.
89
- La lógica: basada en la posibilidad de describir el número de factores
conservados. Para identificar la lógica de los factores conservados utilizamos la
matriz de componentes y la matriz de componentes rotados, que es donde se
encuentran las variables directamente observables saturadas en los factores
directamente no observables.
c) Rotación de los factores.
La finalidad de la rotación no es otra sino la de ayudarnos a interpretar, en el supuesto
de que no quede claro en la matriz de componentes no rotada el sentido y significado
de los factores.
Existen distintos procedimientos de rotación, fundamentalmente se diferencian dos
tipos: los ortogonales y los no ortogonales. Dentro del primer tipo se encuadra el
método VARIMAX, que trata de minimizar el número de variables que hay con pesos o
saturaciones elevadas en cada factor, generando factores incorrelados entre sí, y
dentro del segundo, el PROMAX, que mantiene cierto grado de correlación entre los
factores conservados, muy útil cuando hablamos de sucesos en economía.
Señalar que la rotación no afecta a la comunalidad9 y al porcentaje de la varianza
explicada por el modelo, aunque sí puede cambiar la de cada factor.
d) Obtención de las puntuaciones factoriales.
Puesto que el objetivo fundamental es reducir un gran número de variables a un
pequeño número de factores, es a veces aconsejable estimar las puntuaciones
factoriales de cada individuo, más aún cuando la finalidad es crear un indicador.
Como un factor no es otra cosa sino una combinación lineal de las variables originales,
el sistema trata de obtener las puntuaciones factoriales de los individuos a través del
valor estandarizado de las variables y el coeficiente de la puntuación factorial del factor
j respecto de la variable i.
9 Importancia de cada variable comparada con las demás utilizadas en el análisis. Así, estudiando las comunalidades de la extracción podemos valorar cuáles de las variables son peor explicadas por el modelo. En definitiva, es la proporción de la varianza de una variable que puede ser explicada por el modelo factorial obtenido, por tanto, cuanto más alto sea su valor mejor, ya que un mayor porcentaje de la variable será explicada tras la extracción. Si existiera alguna variable no muy bien explicada, podemos suponer que va por libre con lo que en un momento determinado podemos eliminarla del análisis.
90
3. Aplicabilidad
1. Permite construir indicadores con ponderaciones no arbitrarias.
2. Permite eliminar redundancia informativa o multicolinealidad.
3. Permite sustituir el conjunto original de variables por otro sensiblemente
menor en número de variables directamente no observables, llamadas
factores o variables latentes. Así, dentro de cada factor existe una alta
correlación y entre cada factor poca o nula correlación.
91
CAPÍTULO 14
Análisis cluster
1. Concepto
El análisis de conglomerados o cluster es una técnica de interdependencia que
consiste en clasificar individuos en grupos que no son conocidos a priori por el
investigador (a diferencia del análisis discriminante donde sí se conocen los grupos).
Tiene como objetivo final generar grupos de individuos u observaciones muy similares
u homogéneos dentro sí y muy distintos o heterogéneos entre ellos (Manuel, 2005).
Cuando se forman los grupos no sólo los genera por homogeneidad sino también nos
da la naturaleza o razón por la que se han formado dichas agrupaciones.
La clasificación que se haga dependerá exclusivamente de las variables medidas en
los individuos. Por tanto, no aparecerán características en los grupos que no estén
previamente en la base de datos.
El método que utiliza esta técnica para agrupar individuos es la de las distancias y
similaridades. La distancia entre objetos es mayor cuanto menos se parecen los
objetos, por lo que menor será la similaridad. Comúnmente se emplea la distancia
euclídea para determinar la lejanía o cercanía entre individuos10.
El análisis de conglomerados se divide en:
1) K-medias: admite procesar un número ilimitado de casos, pero sólo permite
utilizar un método de aglomeración y requiere que se proponga previamente el
número de conglomerados que se desea obtener. Une centroides de grupos y
está orientado para muestras numerosas.
2) Jerárquico11: es idóneo para determinar el número óptimo de conglomerados
existente en los datos y el contenido de los mismos. Aunque tiene un elevado
coste computacional. Une individuos y está orientado para muestras pequeñas
o normales.
El análisis cluster puede ejecutarse a través de dos métodos de análisis:
10 En este caso también se tipifican las variables para que las diferentes magnitudes de las mismas no distorsionen los resultados. 11 Más recomendable que el k-medias porque no se pierde información.
92
1) Aglomerativo: en este análisis se empieza considerando a todos los individuos
como integrantes de diferentes clusters y secuencialmente se van creando
clusters cada vez más poblados hasta llegar a la situación en la que todos los
individuos integran un único cluster. Es el método más usual.
De todas las soluciones se trata de elegir la más descriptiva e interpretable.
2) Divisivo: se parte de todos los individuos integrando un mismo cluster que se
va desmembrando secuencialmente hasta que todos los individuos integran
cluster separados. De nuevo el objetivo es buscar entre todas las soluciones la
más interpretable.
Los principales criterios para unir clusters son según Visauta y Martori (2003):
1) Promedio entregrupos: define la distancia entre dos clusters como la media de
las distancias entre todas las combinaciones posibles dos a dos de los
elementos de uno y otro cluster. Si por ejemplo en el primer cluster están las
comunidades A y B y en el segundo C, D y E, la distancia entre los cluster
primero y segundo será la media de las distancias A-C, A-D, A-E, B-C, B-D, y
B-E.
2) Promedio intragrupos: combina los clusters de manera que la media de las
distancias entre todos los pares de sujetos dentro del resultante sea la menor
posible.
3) Vecino más próximo: en cada etapa se unen aquellos conglomerados tales que
sus individuos más próximos (uno de cada) disten menos que los vecinos más
próximos de cualquier otra pareja de conglomerados.
4) Vecino más alejado: en cada etapa se miran aquellos dos cluster tales que sus
vecinos más alejados disten menos que los vecinos más alejados de cualquier
otro par de clusters.
5) Centroide: calcula las distancias entre dos clusters como distancia entre sus
medias para todas las variables. Un inconveniente de este procedimiento es
que estas distancias pueden disminuir de un paso a otro.
Estos criterios no tienen por qué conducir a la misma secuencia en la formación de
clusters.
93
2. Fases
Atendiendo a Hair et al. (2007) podemos distinguir:
1) Matriz de coeficientes de distancia euclídea al cuadrado: cuanto mayor sea el
coeficiente, más distancia y diferencia existirá con respecto al resto, y a la
inversa cuanto más pequeño sea.
2) Gráfico de Carámbanos vertical: leyendo de abajo hacia arriba se van
formando los clusters. El número de filas se identifica con el número de
clusters.
3) Tabla de aglomeración: identifica los clusters combinados en cada paso del
análisis.
4) Dendrograma: leyendo de izquierda a derecha se van formando los grupos,
representando las líneas verticales la unión de dos clusters.
5) Conglomerado de pertenencia: recoge la solución o soluciones según el
número de grupos identificados. La elección del más adecuado se basa en la
lógica e interpretación de los resultados por parte del investigador. Es el criterio
por excelencia para identificar el número de clusters.
Por último, es importante comprobar las diferencias entre grupos. Para ello se
realizaría un análisis de la varianza (ANOVA) –comparar medias entre grupos-, de
forma que deberían tener unos p-valores inferiores a 0,05 para que se diferencien
entre ellos (diferencias estadísticamente significativas y no fruto del azar). De este
modo, podremos seleccionar adecuadamente cuáles son los grupos a tener en cuenta.
3. Aplicabilidad
- Permite generar grupos de individuos u observaciones muy similares u
homogéneos dentro de sí, y muy distintos o heterogéneos entre ellos. Así, es muy
habitual utilizar esta técnica en estudios de mercado o sociales donde se desean
crear grupos de empresas, regiones, países, etc.
94
CAPÍTULO 15
Modelos de ecuaciones estructurales
1. Concepto
El modelo de ecuaciones estructurales (SEM), según Hair et al.:
“abarca una familia entera de modelos conocidos con muchos nombres, entre ellos análisis de la
estructura de la covarianza, análisis de variable latente, análisis de factor confirmatorio y a menudo
simplemente LISREL”. (Hair et al., 2007)
Es una técnica multivariante que trata de analizar las relaciones de causalidad entre
distintas variables, las cuales pueden comportarse tanto como dependientes como
independientes simultáneamente. Siguiendo a Hair et al. (2007) las técnicas SEM se
distinguen por: a) estimación de relaciones de dependencia múltiples y cruzadas, y b)
la capacidad de representar conceptos no observados en estas relaciones y tener en
cuenta el error de medida en el proceso de estimación.
Como conclusión, el SEM tiene como objetivo fundamental la evaluación de una serie
de relaciones. Estas relaciones son construidas en dos fases bien diferenciadas, la
primera de ellas, es el modelo de medida, donde aparecen las relaciones entre las
variables originales y la latente, y la segunda, el modelo estructural, donde se
contrastan las relaciones entre los constructos o variables latentes; es, por tanto, la
modelización de las ecuaciones estructurales propiamente dicho.
2. Fases
Siguiendo las indicaciones de Arbuckle (2005) y Hair et al. (2007) una modelización
adecuada debería guiarse por siete pasos: (1) desarrollar un modelo fundamentado
teóricamente, (2) construir un diagrama de secuencias de relaciones causales, (3)
convertir el diagrama de secuencias en un conjunto de modelos y relaciones
estructurales, (4) elegir el tipo de matriz de entrada y estimar el modelo propuesto, (5)
evaluar la identificación del modelo estructural, (6) evaluar los criterios de calidad e
ajuste, y (7) interpretar y modificar el modelo si está teóricamente justificado.
95
(1) Desarrollo de un modelo basado en la teoría.
Como hemos comentado, el modelaje de ecuaciones estructurales está basado en
relaciones causales, en las que el cambio en una variable se supone que produce un
cambio en otra variable. Así, la causación que el investigador puede asumir entre
dichas variables no descansa en los métodos analíticos escogidos sino en la
justificación teórica, esto es, deben existir asociaciones suficientes entre dos variables,
antecedentes temporales de la causa frente al efecto y una base teórica cuando
menos racional. Es decir, el carácter no debe ser exploratorio sino confirmatorio.
En este caso es importante no incurrir en un error de especificación elevado, no omitir
variables explicativas relevantes. Ahora bien, debemos tener en cuenta los beneficios
de comprensión de los modelos concisos y parsimoniosos. De ahí que el trade-off
entre la inclusión de numerosas variables y la simplicidad del modelo a veces dificulte
la modelización.
(2) Construcción de un diagrama de secuencias de relaciones causales.
El diagrama de secuencias nos va a servir para diseñar una serie de relaciones
lineales causales entre las variables propuestas en el modelo. Es, consecuentemente,
una representación visual de las relaciones entre variables originales y constructos,
entre variables latentes, así como de relaciones asociativas (correlaciones) entre
variables.
A modo aclaratorio podemos distinguir, grosso modo, los siguientes elementos:
• Constructo: también denominado variable latente, podemos definirla como una
variable directamente no observable que representa un concepto teórico o con
cierto grado de abstracción. Se obtiene o se mide mediante variables originales
directamente observables.
• Flechas: utilizadas para representar relaciones específicas entre constructos o
variables. Una flecha directa indica relación causal y, una flecha curvada indica
correlación entre elementos.
(3) Conversión de un diagrama de secuencias en un conjunto de ecuaciones
estructurales y especificación del modelo de medida.
En términos formales se distingue entre:
96
� Modelo estructural
Se traslada el diagrama de secuencias a una serie de ecuaciones estructurales, donde
cada variable latente endógena es la variable independiente de una ecuación
separada. Esto es, cada variable endógena puede ser prevista tanto por variables
exógenas como por otras variables endógenas. Para cada efecto supuesto, se estima
un coeficiente estructural y un término de error (error de especificación y error aleatorio
de medida), al igual que en la regresión múltiple (Arbuckle, 2005).
� Modelo de medida
En este caso tratamos de construir las variables latentes o constructos mediante una
serie de variables originales directamente observables. Para ello, el SEM realiza un
análisis factorial confirmatorio donde aparecen los factores (o constructos) y su
relación con las variables que los forman. Estos factores referidos a dimensiones
subyancentes de los datos, son formados por combinación lineal entre éstos y las
variables originales. Estos constructos son los que a posteriori se entrecruzan para
generar el modelo estructural explicativo correspondiente.
En ocasiones, el modelo de medida se realiza de forma independiente mediante un
análisis factorial, si son variables métricas o no métricas nominales, o un análisis de
correspondencias múltiple, si las variables son no métricas –nominales u ordinales-.
Posteriormente, con el software correspondiente (AMOS) se ejecutaría el modelo
estructural.
(4) Selección del tipo de matriz de entrada y estimación del modelo propuesto.
Al incluir los datos el sistema SEM los transforma, o bien en una matriz de
correlaciones, o bien en una matriz de varianza-covarianza12 ya que según Hair et al.
(2007) “el interés de SEM no está en las observaciones individuales sino el patrón de
relaciones entre los encuestados”. Como comentamos anteriormente, el modelo de
medida especifica qué variables (indicadores en SEM) corresponden a cada
constructo, y las puntuaciones de la variable latente son las empleadas en el modelo
estructural.
También es importante tener en cuenta que las observaciones han de ser
independientes, que el muestreo ha de ser aleatorio, que debe existir linealidad entre
12 Esta es la matriz que se suele utilizar puesto que según Gondar Nores (1999c) es la que permite, con mayor rigor, un contraste adecuado de la teoría y “no sólo asumir pautas relacionales” como en el caso de la matriz de correlación.
97
las relaciones, que se deben eliminar los casos atípicos que desvíen los resultados,
que se debe actuar sobre los datos perdidos y que se debe tener en cuenta la
distribución de la muestra (distribución normal).
(5) Valoración de la identificación del modelo estructural.
Según Gondar Nores (1999) “el problema de identificación es la incapacidad del
modelo propuesto para generar estimaciones aisladas”, esto es, debemos tener más
ecuaciones que incógnitas.
Para ello, a efectos de identificación, nos debemos centrar en el tamaño de las
matrices de correlación o covarianzas relativas respecto al número de coeficientes
estimados. A la diferencia entre el número de correlaciones o covarianzas y el número
efectivo de coeficientes en el modelo propuesto se denomina grados de libertad.
Apoyándonos en este concepto, Hair et al. (2007) recomiendan el cumplimiento de que
los grados de libertad sean mayores o iguales a cero, esto es, el modelo ha de estar
identificado (gl=0) o sobreidentificado (gl>0 � más información en la matriz de datos
que el número de parámetros a estimar).
(6) Evaluación de los criterios de calidad de ajuste.
En esta etapa debemos detectar en primer lugar las estimaciones infractoras13.
Posteriormente, se atenderá a la calidad del ajuste: primero, para el modelo conjunto
y, a continuación, para los modelos estructurales y de medida por separado.
La calidad del ajuste14 mide la correspondencia entre la matriz de entrada real u
observada con la que se predice mediante el modelo propuesto. Podemos distinguir
tres tipos (Casas, 2006):
• Medidas absolutas del ajuste: evalúan sólo el ajuste global del modelo.
Podemos destacar el estadístico χ2, los grados de libertad, la significatividad
del contraste y el GFI.
13 Se trata de coeficientes estimados que exceden los límites aceptables. Por ejemplo: varianzas de error negativas o no significativas; coeficientes estandarizados que están muy cercanos a 1 y, errores estándar muy elevados. 14 Respecto a los modelos de medida y estructural, es conveniente en el primer caso reconocer la fiabilidad de las medidas de cada variable (mediante alfa de Cronbach).
98
• Medidas de ajuste incremental: comparan el modelo propuesto con otro modelo
especificado por el investigador. Podemos destacar, entre otras, al estadístico
TLI y NFI.
• Medidas de ajuste de parsimonia: afinan las medidas de ajuste para ofrecer
una comparación entre modelos con diferentes números de coeficientes
estimados. El objetivo será, por tanto, determinar el ajuste conseguido por cada
coeficiente estimado. En este caso las medidas apropiadas para la evaluación
directa del modelo son el AGFI y la Chi-cuadrado normada, entre otros.
Respecto al modelo estructural consiste en observar que la significación de los
coeficientes estimados sea inferior a 0,05. Por último, es conveniente corroborar que
no tenemos problemas de multicolinealidad entre las variables seleccionadas.
En último lugar, es apropiado realizar una comparación de modelos rivales para
determinar cuál es el mejor ajustado de un conjunto de modelos. Esto es, se construye
un modelo base y se aplican una serie de reespecificaciones, con las que cada vez se
espera mejorar el ajuste del modelo mientras se mantenga la concordancia de la teoría
subyacente.
Se trata, pues, de mantener el mismo número de variables latentes e indicadores, de
tal forma que el modelo nulo sea el mismo para ambos modelos (modelos anidados).
El impacto de añadir o destruir una o más relaciones causales es lo que nos da
información acerca de la mayor calidad de ajuste.
(7) Interpretación y modificación del modelo.
Una vez que el modelo se considera aceptable, debemos examinar los resultados y su
correspondencia con la teoría propuesta. De no ser adecuadas las interrelaciones
habría que reespecificar el modelo (Bacon, 2006).
3. Aplicabilidad
- Contrastación de teorías complejas o de relaciones causales basadas en el
empirismo.
- Comparación de varios modelos para evaluar cuál es el que mejor se ajusta a los
datos.
99
- Elaboración de modelos donde se aprecia que algunas variables que son
explicadas por otras, podrían a su vez explicar a unas terceras. Frecuente en las
ciencias sociales.
100
BIBLIOGRAFÍA
- Aiken, L. R. (1996): “Test psicológicos y evaluación”. México, Prentice Hall
Hispanoamericana.
- Arbuckle, J.L. (2005): “Amos 6.0 User’s Guide”. Amos Development Corporation,
Chicago, SPSS.
- Astigarraga, E. (2003): “El método Delphi”. Universidad de Deusto, San
Sebastián.
- Babbie, E. (1999): “Metodología de la investigación”. México, Thomson.
- Bacon, L.D. (2006): “Using Amos for structural equation modeling in market
research”. SPSS White Paper. Disponible en:
http://www.spss.com/dk/pdf/amos.pdf
- Bernal, T. (2000): “Metodología de la Investigación para Administración y
Economía”. Bogotá, Prentice Hall.
- Bunge, M. (1981): “La ciencia, su método y su filosofía”. Buenos Aires, Siglo XX.
- Casas Guillén, M. (2006): “Los modelos de ecuaciones estructurales y su
aplicación en el Índice Europeo de Satisfacción del Cliente”. Facultad de
Ciencias Económicas y Empresariales, Universidad San Pablo CEU. Disponible
en: http://www.uv.es/asepuma/X/C29C.pdf
- Díaz, E. y Heler, M. (1985): “El conocimiento científico”. Buenos Aires, Eudeba.
- Fontela, E. (1990): “Fundamentos históricos de la Economía Aplicada. Una visión
personal”. Economistas, nº43, 52-57.
- Frey, J. H. and Fontana, A. (1993): "The group interview in social research", in
Morgan, D. (Eds), Successful Focus Groups: Advancing the State-of-the-Art, 9th
ed., Sage Publications, Newbury Park, CA.
- García De la Fuente, O. (1994): “Metodología de la investigación científica”.
Madrid, Ediciones CEES.
- George, D. and Mallery, P. (1995): “SPSS/PC+ step by step: A simple guide and
reference”. Wadsworth Publishing Company. Belmont, CA. Estados Unidos.
101
- Gondar Nores, J.E. (1999): “Técnicas estadísticas con SPSS. Amos”. Madrid,
Ed. Estudios Estadísticos.
- Hair, J. F.; Anderson, R.; Tatham, R. y Black, W. (2007): “Análisis multivariante”.
5ª edición, Prentice Hall Iberia, Madrid.
- Hardyck, C. D. and Petrinovich, L. F. (1976): “Introduction to Statistics for the
Behavioral Sciences”. Second edition. Philadephia: Saunders.
- Hernández Sampieri, R., Fernández-Collado, C. y Baptista, P. (2006):
“Metodología de la investigación”. México, McGraw Hill.
- Hosmer, D.W. and Lemeshow, S. (1989): “Applied Logistic Regression”. Ed. John
Wiley, New York.
- Igarza, R. (2008): “El método Delphi, apuntes para una herramienta exitosa”.
Universidad Austral, Argentina.
- Information Technology Services (2001): “Structural Equation Modelling using
AMOS: An Introduction”. Disponible en:
http://www.utexas.edu/its/rc/tutorials/stat/amos/
- Joreskog, K.G. (1993): “Structural Equation Modeling with LISREL” en Seminario
Internacional de Estadística en el País Vasco, nº 29, Eustat (Instituto Vasco de
Estadística).
- Joreskog, K.G. and Wold, H. (1982): “Systems Under Indirect Observation:
Causality, Structure, Prediction. Contributions to Economic Analysis”.
Amsterdam: North-Holland, vol. 139, Part II.
- Krueguer, K. (1991): “El grupo de discusión. Guía práctica para la investigación
aplicada”. Pirámide, Madrid.
- Lafuente, C. y Marín, A. (2008): “Metodología de la investigación en ciencias
sociales: fases, fuentes y selección de técnicas”. Revista EAN, nº 64, pp. 5-18.
- Landeta, J. (1999): “El método Delphi, una técnica de previsión del futuro”. Ariel
S.A., Barcelona.
- León Barrios, G. (2007): “El grupo de discusión como artefacto científico para el
análisis social”. Revista Comunicologí@: indicios y conjeturas, Publicación
102
Electrónica del Departamento de Comunicación de la Universidad
Iberoamericana Ciudad de México, Primera Época, Número 7, Primavera 2007.
Disponible en:
http://revistacomunicologia.org/index.php?option=com_content&task=view&id=16
6&Itemid=87
- Linstone, H. A. and Turoff, M. (1975): “The Delphi method, techniques and
applications”. Addison-Wesley Publishing Company.
- Lofland, J. (1984): “Analyzing Social Settings”. Wadsworth, Belmont, California.
- Manuel, C.M. (2005): “Análisis multivariante”. Madrid, Escuela de Estadística,
Universidad Complutense de Madrid (mimeo).
- Martin, G., Labeaga, J.M. y Mochon, F. (1997): “Introducción a la Econometría”.
Prentice Hall, Madrid
- Ortega, F. (2008): “El método Delphi, prospectiva en Ciencias Sociales a través
del análisis de un caso práctico”. Revista-Escuela de Administración de
Negocios, Nº 64, sept.-dic., pp. 31-54. Universidad EAN, Colombia.
- Pérez, C. (2006): “Técnicas de Análisis Multivariante de Datos. Aplicaciones con
SPSS”. Pearson Prentice Hall.
- Plummer, K. (1983): “Documents of Life”. Allen, London.
- Poza, C. (2008): “Técnicas estadísticas multivariantes para la generación de
variables latentes”. Revista EAN, nº 64, pp.89-99.
- Ramírez Vera, D.C. (2006): “Redacción del trabajo escrito. Pautas y
recomendaciones”. Universidad de los Andes, Instituto de investigaciones
económicas y sociales, Venezuela. Disponible en:
http://webdelprofesor.ula.ve/economia/dramirez/MICRO/FORMATO_PDF/Proble
masEconomicos/Redaccion_Trabajos.pdf
- Ritchey, F.J. (2006): “Estadística para las ciencias sociales”. McGraw-Hill,
México.
- Ruiz-Maya, L. (2000): “Métodos estadísticos de investigación en las Ciencias
Sociales: técnicas no paramétricas”. Ed. AC, Madrid.
103
- Ruiz Olabuénaga, J.I. (2007): “Metodología de la investigación cualitativa”.
Cuarta edición, Universidad de Deusto. Bilbao.
- Sánchez Martín, M. E. (2003): “La entrevista. Técnica de recogida de datos en el
análisis de una situación social”. Documento de trabajo, octubre, Universidad
Complutense de Madrid, Madrid.
- Santos Peña, J. (1999): “Diseño y tratamiento estadístico de encuestas para
estudios de mercado”. Ed. Centro de Estudios Ramón Areces, S.A., Madrid.
- Saravia, M. A. (2006): “Metodología de investigación científica. Orientación
metodológica para la elaboración de proyectos e informes de investigación”.
Ministerio de Educación, Bolivia. Disponible en: www.conacyt.gov.bo
- Sierra Bravo, R. (2006): “Tesis doctorales y trabajos de investigación científica”.
Madrid, THOMSON.
- Torres Padilla (2008): “Un modelo integrador para el manejo de elementos
intangibles y creación de valor en la empresa”. Tesis doctoral. Universidad
Nebrija, Madrid.
- Vallés, M.S. (1997): “Técnicas cualitativas de investigación social. Reflexión
metodológica y práctica profesional”. Síntesis Sociología, Madrid.
- Visauta Vinacua, B. y Martori i Cañas, J.C. (2002): “Análisis estadístico con
SPSS para Windows. Volumen I, Estadística Básica”. Segunda edición,
McGrawHill.
- Visauta Vinacua, B. y Martori i Cañas, J.C. (2003): “Análisis estadístico con
SPSS para Windows. Volumen II, Estadística Multivariante”. Segunda edición,
McGrawHill.