experimentación+en+spss_1

90
Experimentación en SPSS Máster en Nuevas Tecnologías en Informática Tecnología para la investigación en la ingeniería informática José Luis Fernández Alemán [email protected] http://www.um.es/giisw/ES/

Upload: sara-nieves-matheu-garcia

Post on 28-Jan-2016

5 views

Category:

Documents


0 download

DESCRIPTION

Spss experimentacion avanzada, modelos

TRANSCRIPT

Page 1: Experimentación+en+SPSS_1

Experimentación en SPSS

Máster en Nuevas Tecnologías en Informática

Tecnología para la investigación en la ingeniería informática

José Luis Fernández Alemán [email protected]

http://www.um.es/giisw/ES/

Page 2: Experimentación+en+SPSS_1

Índice

Tipos de estudios empíricos

Experimentos Conceptos generales

Introducir datos en SPSS

Pruebas estadísticas

Page 3: Experimentación+en+SPSS_1

Dependiendo del propósito de la evaluación y las condiciones de la investigación empírica, podemos distinguir tres estrategias empíricas:

Encuestas: normalmente se hacen en retrospectiva, cuando por ejemplo, una técnica o herramienta se ha estado usando durante cierto tiempo o se va a empezar a utilizar. Tanto los datos cualitativos como cuantitativos se recogen a través de cuestionarios o entrevistas. Permiten obtener conclusiones descriptivas y explicativas, esto es, entender a la

población

No permite crear conocimiento pues se basa en opiniones

Aunque tienen la capacidad de evaluar un gran número de variables, es preferible disminuir este número para facilitar la tarea de análisis.

Casos de Estudio: son utilizados para monitorear proyectos o actividades. Normalmente su propósito es seguir un determinado atributo o establecer relaciones entre determinados atributos. El nivel de control es mucho menor que en un experimento. Es un estudio de tipo observacional. Se realizan on-line (en entornos industriales).

Experimentos: la característica más importante es que permiten gran nivel de control. El objetivo es variar una o más variables y controlar otras, para observar qué efecto tienen sobre otra determinada variable de salida. Se ejecutan off-line (en laboratorios).

Tipos de estudios empíricos

Page 4: Experimentación+en+SPSS_1

Tipos de estudios empíricos

Factor Encuesta Caso de estudio Experimento

Control de la ejecución NO NO SI

Control de la medición NO SI SI

Coste de la investigación BAJO MEDIO ALTO

Facilidad de réplica ALTO BAJO ALTO

Control de la ejecución. Cantidad de control que el investigador tiene sobre el estudio

Control de la medición. Nivel en que el investigador puede decidir sobre qué medidas deben ser recogidas, incluidas o excluidas durante la ejecución del estudio (en una encuesta sólo tenemos opiniones no atributos medibles directamente). Ejemplo: ¿es accesible la herramienta A?

Coste de la investigación. Relativo a la necesidad de recursos.

Facilidad de réplica. Facilidad de volver a llevar a cabo el mismo estudio bajo las mismas condiciones pero con distinta población

Page 5: Experimentación+en+SPSS_1

Experimentos

Conceptos generales

Varia

bles

ind

epen

dien

tes

Diseñ

o d

el

exp

erimen

to

.....

Proceso

Varia

ble

dep

end

iente

.....

Variables

controladas

Factores (tratamientos)

Experimento

Page 6: Experimentación+en+SPSS_1

Variables dependientes (response, predictor)

variables que queremos estudiar para ver el efecto que tienen en ellas los cambios en las variables independientes

Variables independientes (factor, state, predictand)

variables cuyos valores son cambiados para estudiar su efecto en las variables dependientes

La selección de las variables dependientes e independientes no es fácil y requiere conocimiento del dominio del experimento.

Llevan implícitamente la escala de medida y el rango.

Van a determinar los tratamientos (un valor particular de la variable independiente)

Variables controladas (controlled)

variables independientes que son controladas en un nivel fijo

Ejemplo. Se eligen programadores que hayan trabajado con las herramientas a probar un tiempo determinado (experiencia)

Experimentos

Conceptos generales

Page 7: Experimentación+en+SPSS_1

Variables enmascaradas (confounded)

variables no controladas que varían simultáneamente con las variables independientes. Esta circunstancia hace que rivalice con la variable independiente como posible causa.

Ejemplo Si la variable independiente es una herramienta nueva y junto con la herramienta novedosa se cambió el método de desarrollo, la variación de los resultados no sabremos a qué se debe.

Variables aleatorias (randomized)

Variables no controladas que se tratan como un error aleatorio.

Ejemplo. Se pueden clasificar por experiencia a los programadores y asignar al azar el mismo número de cada clase a cada tratamiento.

Experimentos

Conceptos generales

Page 8: Experimentación+en+SPSS_1

Tratamientos Un determinado valor para un factor

Objetos Elementos sobre los que se aplican los tratamientos.

Sujetos Personas que aplican los tratamientos a los objetos

Experimento Consiste en una serie tests (llamados trials) donde cada test

(no confundir con los test estadísticos) es una combinación de tratamiento-objeto-sujeto

Experimentos

Conceptos generales

Page 9: Experimentación+en+SPSS_1

Formulación de la hipótesis

La base de cualquier análisis estadístico es “corroborar la hipótesis (hypothesis testing)

Una hipótesis debe ser planteada formalmente y los datos recogidos durante el transcurso del experimento son utilizados para, si es posible, rechazar la hipótesis

Dos hipótesis deben ser planteadas:

Una hipótesis nula, H0: Esta es la hipótesis que el experimentador desea rechazar. Por ejemplo, que el nuevo método de inspección permite encontrar en promedio la misma cantidad de errores que el antiguo. H0: antiguo = nuevo

Una hipótesis alternativa, H1: Esta es la hipótesis a favor de la cual la hipótesis nula es rechazada. Por ejemplo, que el nuevo método de inspección en promedio permite encontrar más errores que el antiguo. H1: antiguo < nuevo

Experimentos

Conceptos generales

Page 10: Experimentación+en+SPSS_1

Formulación de la hipótesis

El hecho de corroborar las hipótesis conlleva a

diferentes tipos de riesgos:

Error de tipo I: ocurre cuando un test estadístico rechaza H0 siendo

verdadera. Probabilidad de rechazar H0 aunque en promedio los dos

métodos tengan la misma productividad.

α = P(error de tipo I)=P(rechazar H0 | H0 cierta)

Error de tipo II: ocurre cuando un test estadístico no rechaza H0 siendo

falsa. Probabilidad de aceptar H0 aunque en promedio tienen

productividad diferentes.

β = P(error de tipo II)=P(aceptar H0 | H0 falsa)

Poder del test: probabilidad de que el testeo revele un hecho verdadero

si H0 es falsa

P= 1- β

Experimentos

Conceptos generales

Page 11: Experimentación+en+SPSS_1

Variable dependiente: gravedad de las vulnerabilidades

Variable independiente: plataforma móvil utilizada

Otras variables independientes: experiencia de los desarrolladores, tipo de aplicación

Utilizamos dos tratamientos del factor: iOS y Android

Objetos: las aplicaciones desarrolladas

Sujetos: los programadores que las desarrollan (aplican el tratamiento)

Test: la persona N (sujeto) usa una plataforma P (tratamiento) para desarrollar una aplicación A (objeto)

Experimentos

Conceptos generales: ejemplo

Evaluar el efecto de desarrollar una nueva aplicación en una plataforma móvil u otra, en

la gravedad de las vulnerabilidades

Page 12: Experimentación+en+SPSS_1

Tipos de escala Escala nominal: Se asocia a la entidad con un nombre o símbolo

Es la menos poderosa

Ejemplo: sexo: masculino, femenino

Escala ordinal: Clasifica las entidades según algún criterio de ordenación Ejemplo: complejidad del software: alta, media, baja

Escala intervalo: Permite clasificar a las entidades con la noción de “distancia relativa”, siendo relevante la diferencia entre las medidas. La distancia entre los números de una escala intervalo es la misma. Ejemplo: temperatura medida en Celsius o Fahrenheit

Escala ratio o razón: Como la escala intervalo, pero sí existe el valor cero y el ratio entre dos medidas es significativo. Ejemplo: número de errores detectados, duración de una fase de desarrollo.

La variables con escala nominal u ordinal se denominan variable categóricas Representan categorías o grupos de pertenencia

Análisis descriptivo con frecuencias (recuento), porcentajes, moda, mediana y gráficos de sectores y de barras

Experimentos

Conceptos generales

Continuas;

en SPSS

medida

escala

Page 13: Experimentación+en+SPSS_1

Introducir los datos Manualmente

Importando desde un fichero externo

Vista de datos Se define el nombre de cada variable, y el tipo de datos que

contiene cada una de ellas

Las filas son variables y las columnas atributos

Experimentos

SPSS: datos

Archivo->Abrir->Datos

Page 14: Experimentación+en+SPSS_1

Ejemplo de variables Plataforma móvil -> (Nombre: Plataforma_movil, Tipo de

variable: Cadena, Etiqueta: Plataforma móvil, Valores: iOS Android, Medida: nominal)

Gravedad de la vulnerabilidad Plataforma móvil -> (Nombre: Gravedad_vulnerabilidad, Tipo de variable: Numérico, Etiqueta: Gravedad de la vulnerabilidad, Medida: escala)

Experimentos

SPSS: datos

Page 15: Experimentación+en+SPSS_1

Vista de datos Se introducen los datos de las distintas variables

Las filas son casos y las columnas representan variables o características que se miden

Experimentos

SPSS: datos

Page 16: Experimentación+en+SPSS_1

Tests paramétricos vs. tests no paramétricos.

La forma de elegir entre uno u otro es:

Aplicabilidad. Escala y distribución

Poder. Es mayor en los paramétricos que en los no paramétricos. Los paramétricos requieren menor cantidad de puntos y, por tanto, experimentos menores

Experimentos

Pruebas estadísticas

Contraste de las hipótesis

Page 17: Experimentación+en+SPSS_1

Tests paramétricos vs. tests no paramétricos.

Paramétricos No paramétricos

Se basan en modelos que envuelven una distribución normal

No ponen restricciones respecto a la distribución de los datos

Requieren que los parámetros pertenezcan, al menos, a una escala intervalo.

Son más generales que los paramétricos y pueden ser usados en lugar de aquellos.

Experimentos

Pruebas estadísticas

Contraste de las hipótesis

Page 18: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

Pruebas estadísticas

Page 19: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

Pruebas estadísticas

Categórica

Contínua

Categórica

Categórica

Contínua

Page 20: Experimentación+en+SPSS_1

Normalidad de una distribución Característica importante, especialmente en muestras

pequeñas (n<30), ya que muchos de los test estadísticos asumen normalidad en los datos para su correcta aplicación e interpretación

Test de Shapiro-Wilk y Kolmogorov-Smirnov

Es recomendable elegir la prueba de Shapiro-Wilk si las muestras son pequeñas (n<30)

Experimentos

SPSS: normalidad

Page 21: Experimentación+en+SPSS_1

Normalidad de una distribución Analizar/Estadísticos Descriptivos/Explorar

Seleccionamos en la “Lista de dependientes” la variable “Gravedad de la vulnerabilidad” y en “Lista de factores” la variable “Plataforma móvil”

Pulsar en el botón “Gráficos” y marcar “Gráficos con pruebas de normalidad” y pulsar el botón “Continuar” y el botón “Aceptar”

Si p (Sig) es mayor que 0.05 (en el ejemplo es 0.830 para las vulnerabilidades de Android para el test de Shapiro-Wilk), no podemos rechazar la hipótesis nula, por lo que asumimos que la variable sigue una distribución normal

Experimentos

SPSS: normalidad

Page 22: Experimentación+en+SPSS_1

La prueba T de Student para muestras independientes Prueba paramétrica para comparar las medias de una

variable en dos grupos o poblaciones independientes (los individuos de una de las poblaciones son distintos a los individuos de la otra)

VI categórica con dos valores. VD de intervalo o razón (escala)

Supuestos: (1) La asignación de los sujetos a cada grupo debe ser aleatoria, de forma que cualquier diferencia en la respuesta sea debida a los tratamientos (variable independiente) y no a otros factores (2) las observaciones de cada par deben hacerse en las mismas condiciones, (3) las diferencias entre las medias deben estar normalmente distribuidas, (4) las varianzas de cada variable pueden ser iguales o distintas

Experimentos

SPSS: T de Student

Page 23: Experimentación+en+SPSS_1

La prueba T de Student para muestras independientes “Analizar/ Comparar medias / Prueba T para muestras

independientes”

Seleccionamos en “Variable de agrupación” (la variable independiente que debe ser nominal) la variable “Plataforma móvil” y en “Variables para contrastar” la variable “Gravedad de la vulnerabilidad”

Experimentos

SPSS: T de Student

Page 24: Experimentación+en+SPSS_1

La prueba T de Student para muestras independientes Pulsar en el botón “Definir grupos” e introducir en “Grupo 1”

iOS y en “Grupo 2” Android (se introducen los valores de la variable independiente) y pulsar el botón “Continuar” y el botón “Aceptar”

Experimentos

SPSS: T de Student

Page 25: Experimentación+en+SPSS_1

La prueba T de Student para muestras independientes La “Prueba de Levene para la igualdad de varianzas” (homogeneidad

de varianzas) indica si podemos o no suponer varianzas iguales

Si p (Sig) es mayor que 0.05 (en el ejemplo es 0.745), no podemos rechazar la hipótesis nula, por lo que asumimos varianzas iguales

Se observa entonces el estadístico T con su nivel de significación bilateral. Si p (Sig) es menor o igual que 0.05 (en el ejemplo es 0.012), podemos rechazar la hipótesis nula de igualdad de medias. Las diferencias entre las medias de la gravedad de las vulnerabilidades en iOS y Android son significativas

Experimentos

SPSS: T de Student

t(9) = -3.160, p = 0.012

Page 26: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: Mann-Whitney U

Categórica

Contínua

Categórica

Categórica

Contínua

Page 27: Experimentación+en+SPSS_1

Mann-Whitney U Prueba no paramétrica para comprobar la igualdad de las

dos distribuciones, esto es si dos poblaciones muestreadas son equivalentes en su posición.

Se utiliza como alternativa a la prueba T de Student, cuando no se cumple el supuesto de normalidad en la distribución

VI categórica con dos valores. VD de intervalo o razón (escala)

Supuestos. Se debe asumir que las distribuciones tienen la misma forma.

Experimentos

SPSS: Mann-Whitney U

Page 28: Experimentación+en+SPSS_1

Mann-Whitney U P (Sig) es menor que 0.05 (en

el ejemplo es 0.016 y 0.021 para las vulnerabilidades de Android e iOS con el test de Shapiro-Wilk)

Podemos rechazar la hipótesis nula, por lo que no podemos asumir que la variable sigue una distribución normal

Experimentos

SPSS: Mann-Whitney U

Page 29: Experimentación+en+SPSS_1

Mann-Whitney U “Analizar/Pruebas no paramétricas/Muestras independientes”

Seleccionar la pestaña “Campos”. En el cuadro “Campos de prueba”, se añade la variable dependiente “Gravedad de la vulnerabilidad”, y en “Grupos”, la variable independiente “Plataforma móvil”. Finalmente pulsar el botón “Ejecutar”

Experimentos

SPSS: Mann-Whitney U

Page 30: Experimentación+en+SPSS_1

Mann-Whitney U En el ejemplo se observa que el valor p es mayor que 0.05,

lo que indica que no existen diferencias significativas, tal como marca el campo Decisión “Retener la hipótesis nula”

Experimentos

SPSS: Mann-Whitney U

U = 110, p = .093)

Page 31: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: T de Student (emparejadas)

Categórica

Contínua

Categórica

Categórica

Contínua

Page 32: Experimentación+en+SPSS_1

Variable dependiente: rendimiento de los programadores

Variable independiente: herramienta de desarrollo

Otras variables independientes: experiencia de los desarrolladores, tipo de aplicación

Utilizamos un tratamiento del factor: herramienta de desarrollo H

Objetos: las aplicaciones desarrolladas

Sujetos: los programadores que las desarrollan (aplican el tratamiento)

Test: la persona N (sujeto) usa una plataforma (tratamiento) para desarrollar una aplicación A (objeto)

Experimentos

SPSS: T de Student (emparejadas)

Evaluar el efecto de utilizar una nueva herramienta de desarrollo de software H en el rendimiento de

los programadores (líneas por horas)

Page 33: Experimentación+en+SPSS_1

La prueba T de Student para muestras relacionadas Prueba paramétrica para comparar las medias

de dos variables cuantitativas de un solo grupo. El procedimiento calcula las diferencias entre los valores de las dos variables de cada caso y contrasta si la media difiere de 0

Supuesto. Se cumple que las distribuciones de las variables son normales. En el ejemplo, el resultado del test de Shapiro-Wilk permite asumir que las variables siguen una distribución normal

Experimentos

SPSS: T de Student (emparejadas)

Page 34: Experimentación+en+SPSS_1

La prueba T de Student para muestras relacionadas “Analizar/ Comparar medias / Prueba T para muestras relacionadas”

Añadimos las dos variables, Lineas_Hora_Antes y Lineas_hora_Despues, en “Variables emparejadas” y pulsar el botón “Aceptar”

Experimentos

SPSS: T de Student (emparejadas)

Page 35: Experimentación+en+SPSS_1

La prueba T de Student para muestras relacionadas Se observa entonces el estadístico T con su nivel de

significación bilateral. Si p (Sig) es menor o igual que 0.05 (en el ejemplo es 0.009), podemos rechazar la hipótesis nula de igualdad de medias. Las diferencias entre las medias del número de líneas de código antes y el número de líneas de código después de utilizar la nueva herramienta H son significativas

Experimentos

SPSS: T de Student (emparejadas)

t(10) = -3.200, p = 0.009

Page 36: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: Prueba de Wilcoxon

Categórica

Contínua

Categórica

Categórica

Contínua

Page 37: Experimentación+en+SPSS_1

Prueba de Wilcoxon para muestras emparejadas La prueba de Wilcoxon para dos muestras relacionadas

compara las distribuciones de dos variables.

Se utiliza como alternativa a la prueba T de Student para muestras relacionadas , cuando no se cumple el supuesto de normalidad en la distribución

VI categórica con dos valores. VD de intervalo o razón (escala)

Supuestos. Se debe asumir que las distribuciones tienen la misma forma.

Experimentos

SPSS: Prueba de Wilcoxon

Page 38: Experimentación+en+SPSS_1

Prueba de Wilcoxon para muestras emparejadas P (Sig) es menor que 0.05 (en

el ejemplo es 0.008 y 0.007 con el test de Shapiro-Wilk)

Podemos rechazar la hipótesis nula, por lo que no podemos asumir que las variables siguen una distribución normal

Experimentos

SPSS: Prueba de Wilcoxon

Page 39: Experimentación+en+SPSS_1

Prueba de Wilcoxon para muestras emparejadas “Analizar / Pruebas no paramétricas / Cuadros de diálogo antiguos

/ 2 muestras relacionadas”

Añadimos las dos variables, Lineas_Hora_Antes y Lineas_hora_Despues, en “Contrastar Pares” y pulsar el botón “Aceptar”

Experimentos

SPSS: Prueba de Wilcoxon

Page 40: Experimentación+en+SPSS_1

Prueba de Wilcoxon para muestras emparejadas Se observa entonces el estadístico Z con su nivel de

significación bilateral. Si p (Sig) es menor o igual que 0.05 (en el ejemplo es 0.002), rechazamos la hipótesis nula de igualdad de medias. Las diferencias entre las medias del número de líneas de código antes y el número de líneas de código después de utilizar la nueva herramienta H son significativas

Experimentos

SPSS: Prueba de Wilcoxon

Z = -3.066, p = 0.002

Page 41: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: ANOVA de un factor

Categórica

Contínua

Categórica

Categórica

Contínua

Page 42: Experimentación+en+SPSS_1

ANOVA de un factor El análisis de varianza de un factor es una prueba

paramétrica que se utiliza para contrastar la hipótesis de que varias medias son iguales. Se realiza un análisis de varianza de un factor para una variable dependiente cuantitativa respecto a una única variable de factor (la variable independiente). Es posible conocer qué medias difieren. Esta técnica es una extensión de la prueba t para dos muestras.

VI categórica con más de dos valores. VD de intervalo o razón (escala)

Supuestos: (1) Cada grupo es una muestra aleatoria independiente procedente de una población normal (2) Grupos proceden de poblaciones con varianzas iguales (homogeneidad de varianzas)

Experimentos

SPSS: ANOVA de un factor

Page 43: Experimentación+en+SPSS_1

ANOVA de un factor Plataforma móvil -> (Nombre: Plataforma_movil, Tipo de

variable: Numérica, Etiqueta: Plataforma móvil, Valores: 1= “Android” 2=“iOS” 3=“Windows Phone”, Medida: nominal)

Experimentos

SPSS: ANOVA de un factor

Page 44: Experimentación+en+SPSS_1

ANOVA de un factor Si p (Sig) es mayor que 0.05 (en el

ejemplo es 0.830, 0.421 y 0.144 para las vulnerabilidades de Android, iOS y Windows Phone utilizando el test de Shapiro-Wilk), no podemos rechazar la hipótesis nula, por lo que asumimos que la variable sigue una distribución normal en cada grupo.

Experimentos

SPSS: ANOVA de un factor

Page 45: Experimentación+en+SPSS_1

ANOVA de un factor “Analizar/ Comparar medias / ANOVA de un factor”

Seleccionamos en “Factor” (la variable independiente que debe ser nominal) la variable “Plataforma móvil” y en “Lista de dependientes” la variable “Gravedad de la vulnerabilidad”

Experimentos

SPSS: ANOVA de un factor

Page 46: Experimentación+en+SPSS_1

ANOVA de un factor Pulsar en el botón “Post hoc”, activar la casilla “Tukey” y

pulsar “Continuar” (contraste realizado después de haber llevado a cabo el experimento para comparar las medias de las variables dos a dos)

Pulsar en el botón “Opciones”, activar la casilla “Prueba de homogeneidad de las varianzas” y pulsar “Continuar”

Finalmente pulsar el botón “Aceptar”

Experimentos

SPSS: ANOVA de un factor

Page 47: Experimentación+en+SPSS_1

ANOVA de un factor En la prueba de homogeneidad de varianzas si p (Sig)

es mayor que 0.05 (en el ejemplo es 0.321), no podemos rechazar la hipótesis nula, por lo que asumimos que provienen de poblaciones con varianzas iguales

Se recurre al estadístico F de Snedecor, que en el ejemplo es 25.27 y tiene un valor “p” asociado de 0.000 (es significativo). Por tanto, podemos decir que la plataforma muestra asociación con el nivel de gravedad de la vulnerabilidad

Experimentos

SPSS: ANOVA de un factor

F(2,15) = 25.270, p = .000

Page 48: Experimentación+en+SPSS_1

ANOVA de un factor Al realizar las comparaciones entre pares, se observa que

existen diferencias significativas entre cualquier par de plataformas (por ejemplo, p=0.005 entre iOS y Android)

Experimentos

SPSS: ANOVA de un factor

Page 49: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: H de Kruskal-Wallis

Categórica

Contínua

Categórica

Categórica

Contínua

Page 50: Experimentación+en+SPSS_1

H de Kruskal-Wallis La prueba H de Kruskal-Wallis, una extensión de la prueba U

de Mann-Whitney. Es el análogo no paramétrico del análisis de varianza de un factor y detecta las diferencias en dos o más distribuciones, esto es, si tres o más poblaciones muestreadas son equivalentes en su posición.

VI categórica con tres o más valores. VD de intervalo o razón (escala)

Supuestos. Se debe asumir que las distribuciones tienen la misma forma.

Experimentos

SPSS: H de Kruskal-Wallis

Page 51: Experimentación+en+SPSS_1

H de Kruskal-Wallis P (Sig) es menor que 0.05 (en el

ejemplo es 0.016, 0.021 y 0.001 para las vulnerabilidades de Android e iOS con el test de Shapiro-Wilk)

Podemos rechazar la hipótesis nula, por lo que no podemos asumir que la variable sigue una distribución normal

Experimentos

SPSS: H de Kruskal-Wallis

Page 52: Experimentación+en+SPSS_1

H de Kruskal-Wallis “Analizar/pruebas no paramétricas/Muestras independientes”

Seleccionar la pestaña “Campos”. En el cuadro “Campos de prueba”, se añade la variable dependiente “Gravedad de la vulnerabilidad”, y en “Grupos”, la variable independiente “Plataforma móvil”. Finalmente pulsar el botón “Ejecutar”

En el ejemplo se observa que el valor p (0.027 bajo la columna Sig.) es menor que 0.05, lo que indica que existen diferencias significativas, tal como marca el campo Decisión “Rechazar la hipótesis nula”

Experimentos

SPSS: H de Kruskal-Wallis

χ2(2) = 8.520, p = 0.027

Page 53: Experimentación+en+SPSS_1

H de Kruskal-Wallis Para ver entre qué grupos existen diferencias, hacer doble

clic sobre la tabla “Resumen de prueba de hipótesis” en el visor de SPSS

A continuación, se abre una nueva ventana donde debemos seleccionar en el desplegable de la parte inferior que se muestren los resultados de las parejas (elegir Comparaciones por parejas).

Experimentos

SPSS: H de Kruskal-Wallis

Page 54: Experimentación+en+SPSS_1

H de Kruskal-Wallis Se observan diferencias significativas entre Windows Phone

y Android

Experimentos

SPSS: H de Kruskal-Wallis

Page 55: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: ANOVA con medidas repetidas

Categórica

Contínua

Categórica

Categórica

Contínua

Page 56: Experimentación+en+SPSS_1

ANOVA con medidas repetidas Una ANOVA con medidas repetidas es una prueba

paramétrica que se utiliza para comparar tres o más medias de grupos donde los participantes son los mismos en cada grupo. Esto ocurre en dos situaciones: (1) cuando se miden varias veces a los participantes con el fin de analizar los cambios producidos por una intervención; o (2) cuando los participantes se someten a más de una intervención y se quiere comparar la respuesta de cada una de estas condiciones

VI categórica con más de dos valores. VD de intervalo o razón (escala)

Supuestos: (1) Cada grupo es una muestra aleatoria independiente procedente de una población normal (2) las varianzas de las diferencias entre todas las combinaciones de los grupos relacionados deben ser iguales

Experimentos

SPSS: ANOVA con medidas repetidas

Page 57: Experimentación+en+SPSS_1

ANOVA con medidas repetidas Si p (Sig) es mayor que 0.05 (en

el ejemplo es 0.844, 0.670 y 0.096 utilizando el test de Shapiro-Wilk), no podemos rechazar la hipótesis nula, por lo que asumimos que la variable sigue una distribución normal en cada grupo.

Experimentos

SPSS: ANOVA con medidas repetidas

Page 58: Experimentación+en+SPSS_1

ANOVA con medidas repetidas “Analizar/Modelo Lineal General/

Medidas Repetidas”

En el campo “Nombre del factor intra sujetos” reemplazar "factor1" por el nombre de la variable independiente (tiempo en nuestro ejemplo)

Se introduce en “Número de niveles” el número de veces que se mide la variable dependiente (en el ejemplo 3 veces: antes de utilizar la herramienta H, justo después de utilizar la herramienta H y 6 meses después de utilizar la herramienta H). Pulsar el botón “Añadir”

Experimentos

SPSS: ANOVA con medidas repetidas

Page 59: Experimentación+en+SPSS_1

ANOVA con medidas repetidas “Analizar/Modelo Lineal General/ Medidas Repetidas”

Introducir la variable dependiente en el campo “Nombre de la medida” (en el ejemplo LineasCodigo). Pulsar el botón “Añadir”. Pulsar el botón “Definir”

Transferir “Lineas_Hora_Antes", "Lineas_Hora_Despues" y "Lineas_Hora_Tras6meses" a la caja “Variables intra-sujetos(tiempo)

Experimentos

SPSS: ANOVA con medidas repetidas

Page 60: Experimentación+en+SPSS_1

ANOVA con medidas repetidas Pulsar el botón “Gráficos”. Transferir el factor Tiempo desde

la caja “Factores” hasta la caja “Eje horizontal”. Pulsar el botón “Añadir”. Pulsar el botón “Continuar”

Experimentos

SPSS: ANOVA con medidas repetidas

Page 61: Experimentación+en+SPSS_1

ANOVA con medidas repetidas Pulsar el botón “Opciones”. Transferir el factor “Tiempo”

desde “Factores e interacciones de los factores” hasta “Mostrar las medias para”

Marcar las casillas de verificación “Comparar los efectos principales”, “Estadísticos descriptivos” y “Estimaciones del tamaño del efecto”. Bajo el menú desplegable “Ajuste del intervalo de confianza”, seleccionar Bonferroni.

Pulsar el botón “Continuar”. Pulsar el botón “Aceptar”

Experimentos

SPSS: ANOVA con medidas repetidas

Page 62: Experimentación+en+SPSS_1

ANOVA con medidas repetidas

Experimentos

SPSS: ANOVA con medidas repetidas

Page 63: Experimentación+en+SPSS_1

ANOVA con medidas repetidas El test de Mauchly no permite rechazar la hipótesis nula de

que las varianzas de las diferencias son iguales, puesto que p (Sig) es mayor que 0.05 (en el ejemplo es 0.805)

Experimentos

SPSS: ANOVA con medidas repetidas

Page 64: Experimentación+en+SPSS_1

ANOVA con medidas repetidas Se recurre al estadístico F de Snedecor, que en el ejemplo

es 14.113 y tiene un valor “p” asociado de 0.000 (es significativo). Por tanto, podemos decir que la herramienta H tiene efectos en la productividad (número de líneas de código) del desarrollo de software

Experimentos

SPSS: ANOVA con medidas repetidas

Correcciones en el

caso de violar la

esfericidad

F(2, 2) = 14.113, p < .000

Page 65: Experimentación+en+SPSS_1

ANOVA con medidas repetidas Al realizar las comparaciones entre pares, se observa

que existen diferencias significativas entre “Lineas_Hora_Antes“ y "Lineas_Hora_Despues" (p=0.028) y entre “Lineas_Hora_Antes“ y "Lineas_Hora_Tras6meses" (p=0.002), pero no entre “Lineas_Hora_Despues” y "Lineas_Hora_Tras6meses" (p= 0.121)

Experimentos

SPSS: ANOVA con medidas repetidas

Page 66: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: ANOVA de Friedman

Categórica

Contínua

Categórica

Categórica

Contínua

Page 67: Experimentación+en+SPSS_1

ANOVA de Friedman La ANOVA de Friedman es la alternativa no paramétricas a la

ANOVA con medidas repetidas que se utiliza para comparar tres o más medias de grupos donde los participantes son los mismos en cada grupo

VI categórica con más de dos valores. VD de intervalo o razón (escala)

Supuestos: (1) El grupo es una muestra aleatoria de la población, (2) La variable dependiente debe ser ordinal o escala

Experimentos

SPSS: ANOVA de Friedman

Page 68: Experimentación+en+SPSS_1

ANOVA de Friedman Si p (Sig) es menor que 0.05 (en el

ejemplo es 0.008, 0.007 y 0.015 utilizando el test de Shapiro-Wilk), podemos rechazar la hipótesis nula, por lo que asumimos que la variable no sigue una distribución normal en cada grupo.

Experimentos

SPSS: ANOVA de Friedman

Page 69: Experimentación+en+SPSS_1

ANOVA de Friedman “Analizar / Pruebas no paramétricas / Cuadros de diálogo antiguos / k

muestras relacionadas”

En el cuadro de diálogo “Prueba para varias muestras relacionadas”, transferir las tres variables, “Lineas_Hora_Antes”, “Lineas_hora_Despues” y "Lineas_Hora_Tras6meses“ a “Variables de contraste”. Marcar la casilla de verificación “Friedman” en el área “Tipo de prueba”. Pulsar el botón “Aceptar”

En el ejemplo, el valor del estadístico Chi-Cuadrado es 18.488 y tiene un valor “p” asociado de 0.000 (es significativo). Por tanto, podemos decir que la herramienta H tiene efectos en la productividad (número de líneas de código) del desarrollo de software

Experimentos

SPSS: ANOVA de Friedman

χ2(2) = 18.488, p = 0.000

Page 70: Experimentación+en+SPSS_1

ANOVA de Friedman Para conocer las diferencias entre pares, se utiliza la prueba de los

rangos con signo de Wilcoxon

Experimentos

SPSS: ANOVA de Friedman

Page 71: Experimentación+en+SPSS_1

ANOVA de Friedman Se observa que existen diferencias significativas entre “Lineas_Hora_Antes“ y "Lineas_Hora_Despues" (p=0.002) y entre “Lineas_Hora_Antes“ y "Lineas_Hora_Tras6meses" (p=0.003), pero no entre “Lineas_Hora_Despues” y "Lineas_Hora_Tras6meses" (p= 0.132)

Experimentos

SPSS: ANOVA de Friedman

Z = -3.066, p = 0.002

Z = -2.965, p = 0.003

Z = -1.508, p = 0.132

Page 72: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: Correlación de Pearson

Categórica

Contínua

Categórica

Categórica

Contínua

Page 73: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson Es una medida de la magnitud y dirección de la asociación

entre dos variables mediante en una escala intervalo o razón

Supuestos: (1) Debe ser una relación lineal; (2) la muestra no deben incluir valores extraños (outliers) Cada grupo es una muestra aleatoria independiente procedente de una población normal (3) cada variable procede de una población normal

Experimentos

SPSS: Correlación de Pearson

Page 74: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson Para determinar si existe

una relación lineal entre las variables, utilizamos un diagrama de dispersión.

“Gráficos/Generador de gráficos”. Pulsar el botón “Aceptar”

En la pestaña “Galería” seleccionar “Dispersión/Pu”.

Arrastrar el “Diagrama de dispersión simple” al área de previsualización de diagramas

Experimentos

SPSS: Correlación de Pearson

Page 75: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson Transferir la variable independiente

(RendimientoAcademico) en el eje x, y la variable dependiente (SatisfaccionEmpresa) en el eje y, dentro del área de previsualización

Para cambiar las etiquetas de los ejes en el gráfico, seleccionar X eje1, Y eje2, en la ventana “Propiedades del elemento”. Cambiar el texto en “Etiqueta del eje” y pulsar el botón “Aplicar”

Experimentos

SPSS: Correlación de Pearson

Page 76: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson Pulsar el botón “Aceptar”. Se puede observar una relación

lineal, si elementos extraños apreciables

En el ejemplo, obsérvese el cambio de escala

Experimentos

SPSS: Correlación de Pearson

Page 77: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson Analizar/Estadísticos Descriptivos/Explorar

Seleccionamos en la “Lista de dependientes” las dos variables “RendimientoAcademico” y “SatisfaccionEmpresa”

Pulsar en el botón “Gráficos” y marcar “Gráficos con pruebas de normalidad” y pulsar el botón “Continuar” y el botón “Aceptar”

Si p (Sig) es mayor que 0.05 (en el ejemplo es 0.126, y 0.095 utilizando el test de Shapiro-Wilk), no podemos rechazar la hipótesis nula, por lo que asumimos que la variable sigue una distribución normal en cada grupo

Experimentos

SPSS: Correlación de Pearson

Page 78: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson “Analizar/Correlaciones/Bivariadas”

Transferir las variables “SatisfaccionEmpresa” y “RendimientoAcademico” a la caja “Variables”. Marcar la casilla de verificación “Pearson”. Pulsar el botón “Aceptar”

Experimentos

SPSS: Correlación de Pearson

Page 79: Experimentación+en+SPSS_1

Coeficiente de correlación de Pearson “Analizar/Correlaciones/Bivariadas”

Transferir las variables “SatisfaccionEmpresa” y “RendimientoAcademico” a la caja “Variables”. Marcar la casilla de verificación “Pearson”. Pulsar el botón “Aceptar”

En el ejemplo, la correlación media encontrada (0.476) no es significativa (p=0.139)

Experimentos

SPSS: Correlación de Pearson

(r = .476, n = 11, p = .139)

Page 80: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: Correlación de Spearman

Categórica

Contínua

Categórica

Categórica

Contínua

Page 81: Experimentación+en+SPSS_1

Coeficiente de correlación de Spearman Versión no paramétrica del coeficiente de correlación de

Pearson. Es una medida de la magnitud y dirección de la asociación entre dos variables mediante en una escala intervalo o razón

Supuestos: (1) Debe ser una relación monotónica entre las variables, esto es, cuando una variable se incrementa, la otra variable (1) se incrementa o (2) se decrementa. Una relación monotónica es menos restrictiva que la relación lineal; por ejemplo la segunda figura no es lineal

Experimentos

SPSS: Correlación de Spearman

Page 82: Experimentación+en+SPSS_1

Coeficiente de correlación de Spearman Se puede observar una relación monotónica

Experimentos

SPSS: Correlación de Spearman

Page 83: Experimentación+en+SPSS_1

Coeficiente de correlación de Spearman Analizar/Estadísticos Descriptivos/Explorar

Seleccionamos en la “Lista de dependientes” las dos variables “RendimientoAcademico” y “SatisfaccionEmpresa”

Si p (Sig) es mayor que 0.05 (en el ejemplo es 0.126, y 0.095 utilizando el test de Shapiro-Wilk), podemos rechazar la hipótesis nula, por lo que asumimos que la variable no sigue una distribución normal en cada grupo

Experimentos

SPSS: Correlación de Spearman

Page 84: Experimentación+en+SPSS_1

Coeficiente de correlación de Spearman “Analizar/Correlaciones/Bivariadas”

Transferir las variables “SatisfaccionEmpresa” y “RendimientoAcademico” a la caja “Variables”. Marcar la casilla de verificación “Spearman”. Pulsar el botón “Aceptar”

Experimentos

SPSS: Correlación de Spearman

Page 85: Experimentación+en+SPSS_1

Coeficiente de correlación de Spearman “Analizar/Correlaciones/Bivariadas”

Transferir las variables “SatisfaccionEmpresa” y “RendimientoAcademico” a la caja “Variables”. Marcar la casilla de verificación “Pearson”. Pulsar el botón “Aceptar”

En el ejemplo, se observa una fuera correlación positiva (0.936) significativa (p=0.000) entre la satisfación de la empresa y el redimiento académico del trabajador

Experimentos

SPSS: Correlación de Spearman

rs(9) = .936, p = .000

Page 86: Experimentación+en+SPSS_1

Elección del test estadístico

Experimentos

SPSS: Chi cuadrado

Categórica

Contínua

Categórica

Categórica

Contínua

Page 87: Experimentación+en+SPSS_1

Chi cuadrado de Pearson Permite predecir la probabilidad de que una observación

pertenezca una de las categorías de una variable dependiente, a partir de una variable independiente categórica.

Esta prueba de bondad de ajuste compara las frecuencias observadas y esperadas en cada categoría para contrastar que todas las categorías contengan la misma proporción de valores o que cada categoría contenga una proporción de valores especificada por el usuario

VI categórica. VD categórica

Supuestos: (1) se asume que los datos son una muestra aleatoria; (2) las frecuencias esperadas para cada categoría deberán ser 1 como mínimo; (3) no más de un 20% de las categorías deberán tener frecuencias esperadas menores que 5

Experimentos

SPSS: Chi cuadrado

Page 88: Experimentación+en+SPSS_1

Variable dependiente: finalizar el proyecto en el plazo previsto (finalizar en el plazo previsto, finalizar con un retraso menor que un año, finalizar con un retraso mayor que un año)

Variables independiente: nivel de CMMI de la empresa (1, 2, 3, 4, 5)

Experimentos

SPSS: Chi cuadrado

Evaluar el nivel de CMMI en una empresa con finalizar el proyecto en el plazo previsto

Page 89: Experimentación+en+SPSS_1

Chi cuadrado de Pearson Analizar/Estadísticos Descriptivos/Tablas de contingencia”

Analizar/Pruebas no paramétricas/Cuadros de diálogo antiguos/Chi-cuadrado

Transferir la variable independiente “NivelCMMI” dentro de la caja “Filas”, y la variable dependiente “PlazoCumplido” dentro de la caja “Columnas”

Experimentos

SPSS: Chi cuadrado

Page 90: Experimentación+en+SPSS_1

Chi cuadrado de Pearson Marcar la casilla de verificación “Chi-cuadrado”. Pulsar el botón “Continuar. Pulsar el botón “Aceptar”

En el ejemplo se observa que todas los niveles de CMMI no tienen la misma proporción de proyectos terminados en plazo, antes de un año, y con retraso mayor que un año (p = 0.000)

Experimentos

SPSS: Chi cuadrado

χ2(8) = 39.067, p = 0.000