asimetría estadística

17
Asimetría estadística De Wikipedia, la enciclopedia libre Saltar a navegación , búsqueda Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los coleóptilos del trigo ). Contenido [ocultar ] 1 Definición 2 Medidas de asimetría o 2.1 Coeficiente de asimetría de Fisher o 2.2 Coeficiente de asimetría de Pearson o 2.3 Coeficiente de asimetría de Bowley 3 Utilidad 4 Referencias 5 Enlaces externos [editar ] Definición

Upload: juan-k-gonzalez

Post on 02-Jul-2015

4.291 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Asimetría estadística

Asimetría estadísticaDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los coleóptilos del trigo).

Contenido

[ocultar]

1 Definición 2 Medidas de asimetría

o 2.1 Coeficiente de asimetría de Fisher o 2.2 Coeficiente de asimetría de Pearson o 2.3 Coeficiente de asimetría de Bowley

3 Utilidad 4 Referencias 5 Enlaces externos

[editar] Definición

Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica.

Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de

Page 2: Asimetría estadística

valores a la derecha que a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.

[editar] Medidas de asimetría

[editar] Coeficiente de asimetría de Fisher

En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1 (¡Ya que una simple suma de todas las desviaciones siempre es cero!). Por ello, lo más sencillo es tomar las desviaciones al cubo.

El coeficiente de asimetría de Fisher, representado por γ1, se define como:

donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar.

Si γ1 = 0, la distribución es simétrica.

Si γ1 > 0, la distribución es asimétrica positiva o a la derecha.

Si γ1 < 0, la distribución es asimétrica negativa o a la izquierda.

[editar] Coeficiente de asimetría de Pearson

Sólo se puede utilizar en distribuciones campaniformes, unimodales y moderadamente asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual a la moda.

Si la distribución es simétrica, μ = moda y Ap = 0. Si la distribución es asimétrica positiva la media se sitúa por encima de la moda y, por tanto, Ap > 0.

[editar] Coeficiente de asimetría de Bowley

Page 3: Asimetría estadística

Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:

En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el primer cuartil. Por tanto AB = 0.

Si la distribución es positiva o a la derecha, AB > 0.

[editar] Utilidad

La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la derecha de la media.

Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes estadísticos en la teoría de inferencia estadística.

Medidas de Distibución - Asimetría y Curtosis  Las medidas de distribución nos permiten identificar la forma en que se separan o aglomeran los valores de acuerdo a su representación gráfica. Estas medidas describen la manera como los datos tienden a reunirse de acuerdo con la frecuencia con que se hallen dentro de la información. Su utilidad radica en la posibilidad de identificar las características de la distribución sin necesidad de generar el gráfico. Sus principales medidas son la Asimetría y la Curtosis.   

1. ASIMETRÍA

Esta medida nos permite identificar si los datos se distribuyen de forma uniforme alrededor del punto central (Media aritmética). La asimetría presenta tres estados diferentes [Fig.5-1], cada uno de los cuales define de forma concisa como están distribuidos los datos respecto al eje de asimetría. Se dice que la asimetría es positiva cuando la mayoría de los datos se encuentran por encima del valor de la media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la misma cantidad de valores en ambos lados de la media y se conoce como asimetría negativa cuando la mayor cantidad de datos se aglomeran en los valores menores que la media. 

Page 4: Asimetría estadística

Figura 5-1  El Coeficiente de asimetría, se representa mediante la ecuación matemática, 

Ecuación 5-9 Donde (g1) representa el coeficiente de asimetría de Fisher, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta ecuación se interpretan: 

(g1 = 0): Se acepta que la distribución es Simétrica, es decir, existe aproximadamente la misma cantidad de valores a los dos lados de la media. Este valor es difícil de conseguir por lo que se tiende a tomar los valores que son cercanos ya sean positivos o negativos (± 0.5).

(g1 > 0): La curva es asimétricamente positiva por lo que los valores se tienden a reunir más en la parte izquierda que en la derecha de la media.

(g1 < 0): La curva es asimétricamente negativa por lo que los valores se tienden a reunir más en la parte derecha de la media.

 Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la distancia que separa la aglomeración de los valores con respecto a la media. 

2. CURTOSIS

Esta medida determina el grado de concentración que presentan los valores en la región central de la distribución. Por medio del Coeficiente de Curtosis, podemos identificar si existe una gran concentración de valores (Leptocúrtica), una concentración normal (Mesocúrtica) ó una baja concentración (Platicúrtica). 

Figura 5-2  

Page 5: Asimetría estadística

Para calcular el coeficiente de Curtosis se utiliza la ecuación: 

Ecuacion 5-10  Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta fórmula se interpretan: 

( g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es bastante difícil  encontrar un coeficiente de Curtosis de cero (0), por lo que se suelen aceptar los valores cercanos (± 0.5 aprox.).

(g2 > 0) la distribución es Leptocúrtica (g2 < 0) la distribución es Platicúrtica

 Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal. Este criterio es de suma importancia ya que para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se distribuyan normalmente. La principal ventaja de la distribución normal radica en el supuesto que el 95% de los valores se encuentra dentro de una distancia de dos desviaciones estándar de la media aritmética (Fig.5-3); es decir, si tomamos la media y le sumamos dos veces la desviación y después le restamos a la media dos desviaciones, el 95% de los casos se encontraría dentro del rango que compongan estos valores. 

Figura 5-3  Desde luego, los conceptos vistos hasta aquí, son sólo una pequeña introducción a las principales medidas de Estadística Descriptiva; es de gran importancia que los lectores profundicen en estos temas ya que la principal dificultad del paquete SPSS radica en el desconocimiento de los conceptos estadísticos.  Las definiciones plasmadas en este capítulo han sido extraídas de los libros Estadística para administradores escrito por Alan Wester de la editorial McGraw-Hill y el libro Estadística y Muestreo escrito por Ciro Martínez editorial Ecoe editores (Octava edición). No necesariamente tienes que guiarte por estos libros ya que en las librerías encontraras una gran variedad de textos que pueden ser de bastante utilidad en la introducción a esta ciencia.

AtrásMedidas de Dispersión

SiguienteEscalas de Medida

SECCIONESNosotrosCurso de SPSS

Page 6: Asimetría estadística

ServiciosAyudasDownloadContacto

CURSO DE SPSSCap. 5 - Estadística 1. Tendencia Central 2. Medidas Dispersión 3. Medidas Distribución 4. Escalas de Medida 5. Análisis Descriptivo 6. Frecuencias: Opciones 7. Frecuencias: Graficos 8. Frecuencias: Formato 9. Variables Categoricas 10. Resultado Categorica 11. Variables de Escala 12. Resultados Escala 13. Drescriptivos SPSS 14. Descriptivos 2

Page 7: Asimetría estadística

Medidas de Simetría:

Las medidas de la asimetría, al igual que la curtosis, van a ser medidas de la forma de la distribución, es frecuente que los valores de una distribución tiendan a ser similares a ambos lados de las medidas de centralización. La simetría es importante para saber si los valores de la variable se concentran en una determinada zona del recorrido de la variable.

As<0 As=0 As>0

Asimetría Negativa a la Izquierda Simétrica Asimetría Positiva a la Derecha.

Page 8: Asimetría estadística

Para medir la asimetría se puede realizar atendiendo básicamente a dos criterios:

Comparando la Media y la Moda. Comparando los valores de la variable con la media.

Comparando la Media y la Moda:

Si la diferencia es positiva, diremos que hay asimetría positiva o a la derecha, en el caso de que sea negativa diremos que hay asimetría negativa o a la izquierda. No obstante, esta medida es poco operativa al no ser una medida relativa, ya que esta influida por la unidad en que se mida la variable, por lo que se define el coeficiente de Asimetría como:

Esta medida es muy fácil de calcular, pero menos precisa que el coeficiente de asimetría de Pearson.

El coeficiente de asimetría de Pearson, se basa en la comparación con la media de todos los valores de la

variable, así que es una medida que se basará en las diferencias , como vimos en el caso de la dispersión si medimos la media de esas desviaciones sería nulas, si las elevamos al cuadrado, serían siempre positivas por lo que tampoco servirían, por lo tanto precisamos elevar esas diferencias al cubo.

Para evitar el problema de la unidad, y hacer que sea una medida escalar y por lo tanto relativa, dividimos por el cubo de su desviación típica. Con lo que resulta la siguiente expresión:

Coeficiente de correlación de Pearson

Page 9: Asimetría estadística

De Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda

En estadística, el coeficiente de correlación de Pearson es un índice que mide la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.

De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.

[editar] Definición

En el caso de que se esté estudiando dos variables aleatorias x e y sobre una población estadística; el coeficiente de correlación de Pearson se simboliza con la letra ρx,y, siendo la expresión que nos permite calcularlo:

Donde:

σXY es la covarianza de (X,Y) σX es la desviaciones típicas de la variable X σY es la desviaciones típicas de la variable Y

De manera análoga podemos calcular este coeficiente sobre un estadístico muestral, denotado como rxy a:

[editar] Interpretación

El valor del índice de correlación varía en el intervalo [-1,1]:

Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante.

Si 0 < r < 1, existe una correlación positiva. Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las

variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables.

Si -1 < r < 0, existe una correlación negativa.

Page 10: Asimetría estadística

Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante.

Coeficiente Asimetria De Pearson

Medidas de Dispersión

Las medidas de tendencia central tienen como objetivo el

sintetizar los datos en un valor representativo, las

medidas de dispersión nos dicen hasta que punto estas

medidas de tendencia central son representativas como

síntesis de la información. Las medidas de dispersión

cuantifican la separación, la dispersión, la variabilidad de

los valores de la distribución respecto al valor central.

Distinguimos entre medidas de dispersión absolutas, que

no son comparables entre diferentes muestras y las

relativas que nos permitirán comparar varias muestras.

MEDIDAS DE DISPERSIÓN ABSOLUTAS

u VARIANZA ( s2 ): es el promedio del cuadrado de las

distancias entre cada observación y la media aritmética

del conjunto de observaciones.

Haciendo operaciones en la fórmula anterior obtenemos

otra fórmula para calcular la varianza:

Si los datos están agrupados utilizamos las marcas de

clase en lugar de Xi.

u DESVIACIÓN TÍPICA (S): La varianza viene dada por

las mismas unidades que la variable pero al cuadrado,

para evitar este problema podemos usar como medida de

dispersión la desviación típica que se define como la raíz

cuadrada positiva de la varianza

Para estimar la desviación típica de una población a partir

de los datos de una muestra se utiliza la fórmula (cuasi

desviación típica):

partner-pub-8555 ISO-8859-1

Buscar

w w w .mitecnolog w w w .mitecnolog

Page 11: Asimetría estadística

u RECORRIDO O RANGO MUESTRAL (Re). Es la

diferencia entre el valor de las observaciones mayor y el

menor. Re = xmax - xmin

MEDIDAS DE DISPERSIÓN RELATIVAS

u COEFICIENTE DE VARIACIÓN DE PEARSON:

Cuando se quiere comparar el grado de dispersión de dos

distribuciones que no vienen dadas en las mismas

unidades o que las medias no son iguales se utiliza el

coeficiente de variación de Pearson que se define como el

cociente entre la desviación típica y el valor absoluto de

la media aritmética

CV representa el número de veces que la desviación

típica contiene a la media aritmética y por lo tanto cuanto

mayor es CV mayor es la dispersión y menor la

representatividad de la media.

Medidas de Forma

Comparan la forma que tiene la representación gráfica,

bien sea el histograma o el diagrama de barras de la

distribución, con la distribución normal.

MEDIDA DE ASIMETRÍA

Diremos que una distribución es simétrica cuando su

mediana, su moda y su media aritmética coinciden.

Diremos que una distribución es asimétrica a la derecha si

las frecuencias (absolutas o relativas) descienden más

lentamente por la derecha que por la izquierda.

Si las frecuencias descienden más lentamente por la

izquierda que por la derecha diremos que la distribución

es asimétrica a la izquierda.

Existen varias medidas de la asimetría de una distribución

de frecuencias. Una de ellas es el Coeficiente de

Asimetría de Pearson:

Su valor es cero cuando la distribución es simétrica,

positivo cuando existe asimetría a la derecha y negativo

cuando existe asimetría a la izquierda.

MEDIDA DE APUNTAMIENTO O CURTOSIS

Miden la mayor o menor cantidad de datos que se

agrupan en torno a la moda. Se definen 3 tipos de

distribuciones según su grado de curtosis:

Page 12: Asimetría estadística

Distribución mesocúrtica: presenta un grado de

concentración medio alrededor de los valores centrales de

la variable (el mismo que presenta una distribución

normal). Distribución leptocúrtica: presenta un elevado

grado de concentración alrededor de los valores centrales

de la variable. Distribución platicúrtica: presenta un

reducido grado de concentración alrededor de los valores

centrales de la variable.

EJEMPLO 1

El número de diás necesarios por 10 equipos de

trabajadores para terminar 10 instalaciones de iguales

características han sido: 21, 32, 15, 59, 60, 61, 64, 60, 71,

y 80 días. Calcular la media, mediana, moda, varianza y

desviación típica

SOLUCIÓN:

La media: suma de todos los valores de una variable

dividida entre el número total de datos de los que se

dispone:

La mediana: es el valor que deja a la mitad de los datos

por encima de dicho valor y a la otra mitad por debajo. Si

ordenamos los datos de mayor a menor observamos la

secuencia:

15, 21, 32, 59, 60, 60,61, 64, 71, 80.

Como quiera que en este ejemplo el número de

observaciones es par (10 individuos), los dos valores que

se encuentran en el medio son 60 y 60. Si realizamos el

cálculo de la media de estos dos valores nos dará a su vez

60, que es el valor de la mediana.

La moda: el valor de la variable que presenta una mayor

frecuencia es 60

La varianza S2: Es la media de los cuadrados de las

diferencias entre cada valor de la variable y la media

aritmética de la distribución.

Sx2=

La desviación típica S: es la raíz cuadrada de la varianza.

S = √ 427,61 = 20.67

El rango: diferencia entre el valor de las observaciones

mayor y el menor

Page 13: Asimetría estadística

80 - 15 = 65 días

El coeficiente de variación: cociente entre la desviación

típica y el valor absoluto de la media aritmética

CV = 20,67/52,3 = 0,39

EJEMPLO 2

El precio de un interruptor magentotérmico en 10

comercios de electricidad de una ciudad son : 25, 25, 26,

24, 30, 25, 29, 28, 26, y 27 Euros. Hallar la media, moda,

mediana, (abrir la calculadora estadística, más abajo)

diagrama de barras y el diagrama de caja.

SOLUCIÓN:

Utilizar la calculadora de debajo)

El diagrama de cajas: caja desde Q1 a Q3 (50% de los

datos), bigotes el recorrido]

COEFICIENTE DE ASIMETRÍA DE PEARSON

El coeficiente de asimetría de Pearson mide la desviación

respecto de la simetría expresando la diferencia entre la

media y la mediana en relación con la desviación estándar

del grupo de medidas. Las fórmulas son:

En una distribución simétrica, el valor del coeficiente de

asimetría será siempre de cero, porque la media y la

mediana son iguales entre sí en valor En una distribución

asimétrica positiva, la media siempre es mayor que la

mediana; en consecuencia, el valor del coeficiente es

positivo. En una distribución asimétrica negativa, la

media siempre es menor que la mediana; por lo tanto, el

valor del coeficiente es negativo. EJEMPLO En relación

con los datos de ventas de equipos de aire acondicionado

presentados en el ejemplo anterior, la media es 10.5

unidades, la mediana 11.0 unidades (con base en las

secciones 2.2 y 2.4) y la desviación estándar 3.3

unidades. El coeficiente de asimetría es

Así, la distribución de cantidades de ventas es en cierto

modo asimétrica negativa, o sesgada a la izquierda.