asimetría estadística
Post on 02-Jul-2015
4.291 Views
Preview:
TRANSCRIPT
Asimetría estadísticaDe Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda
Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los coleóptilos del trigo).
Contenido
[ocultar]
1 Definición 2 Medidas de asimetría
o 2.1 Coeficiente de asimetría de Fisher o 2.2 Coeficiente de asimetría de Pearson o 2.3 Coeficiente de asimetría de Bowley
3 Utilidad 4 Referencias 5 Enlaces externos
[editar] Definición
Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica.
Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de
valores a la derecha que a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.
[editar] Medidas de asimetría
[editar] Coeficiente de asimetría de Fisher
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1 (¡Ya que una simple suma de todas las desviaciones siempre es cero!). Por ello, lo más sencillo es tomar las desviaciones al cubo.
El coeficiente de asimetría de Fisher, representado por γ1, se define como:
donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar.
Si γ1 = 0, la distribución es simétrica.
Si γ1 > 0, la distribución es asimétrica positiva o a la derecha.
Si γ1 < 0, la distribución es asimétrica negativa o a la izquierda.
[editar] Coeficiente de asimetría de Pearson
Sólo se puede utilizar en distribuciones campaniformes, unimodales y moderadamente asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual a la moda.
Si la distribución es simétrica, μ = moda y Ap = 0. Si la distribución es asimétrica positiva la media se sitúa por encima de la moda y, por tanto, Ap > 0.
[editar] Coeficiente de asimetría de Bowley
Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:
En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el primer cuartil. Por tanto AB = 0.
Si la distribución es positiva o a la derecha, AB > 0.
[editar] Utilidad
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la derecha de la media.
Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes estadísticos en la teoría de inferencia estadística.
Medidas de Distibución - Asimetría y Curtosis Las medidas de distribución nos permiten identificar la forma en que se separan o aglomeran los valores de acuerdo a su representación gráfica. Estas medidas describen la manera como los datos tienden a reunirse de acuerdo con la frecuencia con que se hallen dentro de la información. Su utilidad radica en la posibilidad de identificar las características de la distribución sin necesidad de generar el gráfico. Sus principales medidas son la Asimetría y la Curtosis.
1. ASIMETRÍA
Esta medida nos permite identificar si los datos se distribuyen de forma uniforme alrededor del punto central (Media aritmética). La asimetría presenta tres estados diferentes [Fig.5-1], cada uno de los cuales define de forma concisa como están distribuidos los datos respecto al eje de asimetría. Se dice que la asimetría es positiva cuando la mayoría de los datos se encuentran por encima del valor de la media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la misma cantidad de valores en ambos lados de la media y se conoce como asimetría negativa cuando la mayor cantidad de datos se aglomeran en los valores menores que la media.
Figura 5-1 El Coeficiente de asimetría, se representa mediante la ecuación matemática,
Ecuación 5-9 Donde (g1) representa el coeficiente de asimetría de Fisher, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta ecuación se interpretan:
(g1 = 0): Se acepta que la distribución es Simétrica, es decir, existe aproximadamente la misma cantidad de valores a los dos lados de la media. Este valor es difícil de conseguir por lo que se tiende a tomar los valores que son cercanos ya sean positivos o negativos (± 0.5).
(g1 > 0): La curva es asimétricamente positiva por lo que los valores se tienden a reunir más en la parte izquierda que en la derecha de la media.
(g1 < 0): La curva es asimétricamente negativa por lo que los valores se tienden a reunir más en la parte derecha de la media.
Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la distancia que separa la aglomeración de los valores con respecto a la media.
2. CURTOSIS
Esta medida determina el grado de concentración que presentan los valores en la región central de la distribución. Por medio del Coeficiente de Curtosis, podemos identificar si existe una gran concentración de valores (Leptocúrtica), una concentración normal (Mesocúrtica) ó una baja concentración (Platicúrtica).
Figura 5-2
Para calcular el coeficiente de Curtosis se utiliza la ecuación:
Ecuacion 5-10 Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta fórmula se interpretan:
( g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es bastante difícil encontrar un coeficiente de Curtosis de cero (0), por lo que se suelen aceptar los valores cercanos (± 0.5 aprox.).
(g2 > 0) la distribución es Leptocúrtica (g2 < 0) la distribución es Platicúrtica
Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal. Este criterio es de suma importancia ya que para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se distribuyan normalmente. La principal ventaja de la distribución normal radica en el supuesto que el 95% de los valores se encuentra dentro de una distancia de dos desviaciones estándar de la media aritmética (Fig.5-3); es decir, si tomamos la media y le sumamos dos veces la desviación y después le restamos a la media dos desviaciones, el 95% de los casos se encontraría dentro del rango que compongan estos valores.
Figura 5-3 Desde luego, los conceptos vistos hasta aquí, son sólo una pequeña introducción a las principales medidas de Estadística Descriptiva; es de gran importancia que los lectores profundicen en estos temas ya que la principal dificultad del paquete SPSS radica en el desconocimiento de los conceptos estadísticos. Las definiciones plasmadas en este capítulo han sido extraídas de los libros Estadística para administradores escrito por Alan Wester de la editorial McGraw-Hill y el libro Estadística y Muestreo escrito por Ciro Martínez editorial Ecoe editores (Octava edición). No necesariamente tienes que guiarte por estos libros ya que en las librerías encontraras una gran variedad de textos que pueden ser de bastante utilidad en la introducción a esta ciencia.
AtrásMedidas de Dispersión
SiguienteEscalas de Medida
SECCIONESNosotrosCurso de SPSS
ServiciosAyudasDownloadContacto
CURSO DE SPSSCap. 5 - Estadística 1. Tendencia Central 2. Medidas Dispersión 3. Medidas Distribución 4. Escalas de Medida 5. Análisis Descriptivo 6. Frecuencias: Opciones 7. Frecuencias: Graficos 8. Frecuencias: Formato 9. Variables Categoricas 10. Resultado Categorica 11. Variables de Escala 12. Resultados Escala 13. Drescriptivos SPSS 14. Descriptivos 2
Medidas de Simetría:
Las medidas de la asimetría, al igual que la curtosis, van a ser medidas de la forma de la distribución, es frecuente que los valores de una distribución tiendan a ser similares a ambos lados de las medidas de centralización. La simetría es importante para saber si los valores de la variable se concentran en una determinada zona del recorrido de la variable.
As<0 As=0 As>0
Asimetría Negativa a la Izquierda Simétrica Asimetría Positiva a la Derecha.
Para medir la asimetría se puede realizar atendiendo básicamente a dos criterios:
Comparando la Media y la Moda. Comparando los valores de la variable con la media.
Comparando la Media y la Moda:
Si la diferencia es positiva, diremos que hay asimetría positiva o a la derecha, en el caso de que sea negativa diremos que hay asimetría negativa o a la izquierda. No obstante, esta medida es poco operativa al no ser una medida relativa, ya que esta influida por la unidad en que se mida la variable, por lo que se define el coeficiente de Asimetría como:
Esta medida es muy fácil de calcular, pero menos precisa que el coeficiente de asimetría de Pearson.
El coeficiente de asimetría de Pearson, se basa en la comparación con la media de todos los valores de la
variable, así que es una medida que se basará en las diferencias , como vimos en el caso de la dispersión si medimos la media de esas desviaciones sería nulas, si las elevamos al cuadrado, serían siempre positivas por lo que tampoco servirían, por lo tanto precisamos elevar esas diferencias al cubo.
Para evitar el problema de la unidad, y hacer que sea una medida escalar y por lo tanto relativa, dividimos por el cubo de su desviación típica. Con lo que resulta la siguiente expresión:
Coeficiente de correlación de Pearson
De Wikipedia, la enciclopedia libreSaltar a navegación, búsqueda
En estadística, el coeficiente de correlación de Pearson es un índice que mide la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
[editar] Definición
En el caso de que se esté estudiando dos variables aleatorias x e y sobre una población estadística; el coeficiente de correlación de Pearson se simboliza con la letra ρx,y, siendo la expresión que nos permite calcularlo:
Donde:
σXY es la covarianza de (X,Y) σX es la desviaciones típicas de la variable X σY es la desviaciones típicas de la variable Y
De manera análoga podemos calcular este coeficiente sobre un estadístico muestral, denotado como rxy a:
[editar] Interpretación
El valor del índice de correlación varía en el intervalo [-1,1]:
Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante.
Si 0 < r < 1, existe una correlación positiva. Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las
variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables.
Si -1 < r < 0, existe una correlación negativa.
Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante.
Coeficiente Asimetria De Pearson
Medidas de Dispersión
Las medidas de tendencia central tienen como objetivo el
sintetizar los datos en un valor representativo, las
medidas de dispersión nos dicen hasta que punto estas
medidas de tendencia central son representativas como
síntesis de la información. Las medidas de dispersión
cuantifican la separación, la dispersión, la variabilidad de
los valores de la distribución respecto al valor central.
Distinguimos entre medidas de dispersión absolutas, que
no son comparables entre diferentes muestras y las
relativas que nos permitirán comparar varias muestras.
MEDIDAS DE DISPERSIÓN ABSOLUTAS
u VARIANZA ( s2 ): es el promedio del cuadrado de las
distancias entre cada observación y la media aritmética
del conjunto de observaciones.
Haciendo operaciones en la fórmula anterior obtenemos
otra fórmula para calcular la varianza:
Si los datos están agrupados utilizamos las marcas de
clase en lugar de Xi.
u DESVIACIÓN TÍPICA (S): La varianza viene dada por
las mismas unidades que la variable pero al cuadrado,
para evitar este problema podemos usar como medida de
dispersión la desviación típica que se define como la raíz
cuadrada positiva de la varianza
Para estimar la desviación típica de una población a partir
de los datos de una muestra se utiliza la fórmula (cuasi
desviación típica):
partner-pub-8555 ISO-8859-1
Buscar
w w w .mitecnolog w w w .mitecnolog
u RECORRIDO O RANGO MUESTRAL (Re). Es la
diferencia entre el valor de las observaciones mayor y el
menor. Re = xmax - xmin
MEDIDAS DE DISPERSIÓN RELATIVAS
u COEFICIENTE DE VARIACIÓN DE PEARSON:
Cuando se quiere comparar el grado de dispersión de dos
distribuciones que no vienen dadas en las mismas
unidades o que las medias no son iguales se utiliza el
coeficiente de variación de Pearson que se define como el
cociente entre la desviación típica y el valor absoluto de
la media aritmética
CV representa el número de veces que la desviación
típica contiene a la media aritmética y por lo tanto cuanto
mayor es CV mayor es la dispersión y menor la
representatividad de la media.
Medidas de Forma
Comparan la forma que tiene la representación gráfica,
bien sea el histograma o el diagrama de barras de la
distribución, con la distribución normal.
MEDIDA DE ASIMETRÍA
Diremos que una distribución es simétrica cuando su
mediana, su moda y su media aritmética coinciden.
Diremos que una distribución es asimétrica a la derecha si
las frecuencias (absolutas o relativas) descienden más
lentamente por la derecha que por la izquierda.
Si las frecuencias descienden más lentamente por la
izquierda que por la derecha diremos que la distribución
es asimétrica a la izquierda.
Existen varias medidas de la asimetría de una distribución
de frecuencias. Una de ellas es el Coeficiente de
Asimetría de Pearson:
Su valor es cero cuando la distribución es simétrica,
positivo cuando existe asimetría a la derecha y negativo
cuando existe asimetría a la izquierda.
MEDIDA DE APUNTAMIENTO O CURTOSIS
Miden la mayor o menor cantidad de datos que se
agrupan en torno a la moda. Se definen 3 tipos de
distribuciones según su grado de curtosis:
Distribución mesocúrtica: presenta un grado de
concentración medio alrededor de los valores centrales de
la variable (el mismo que presenta una distribución
normal). Distribución leptocúrtica: presenta un elevado
grado de concentración alrededor de los valores centrales
de la variable. Distribución platicúrtica: presenta un
reducido grado de concentración alrededor de los valores
centrales de la variable.
EJEMPLO 1
El número de diás necesarios por 10 equipos de
trabajadores para terminar 10 instalaciones de iguales
características han sido: 21, 32, 15, 59, 60, 61, 64, 60, 71,
y 80 días. Calcular la media, mediana, moda, varianza y
desviación típica
SOLUCIÓN:
La media: suma de todos los valores de una variable
dividida entre el número total de datos de los que se
dispone:
La mediana: es el valor que deja a la mitad de los datos
por encima de dicho valor y a la otra mitad por debajo. Si
ordenamos los datos de mayor a menor observamos la
secuencia:
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
Como quiera que en este ejemplo el número de
observaciones es par (10 individuos), los dos valores que
se encuentran en el medio son 60 y 60. Si realizamos el
cálculo de la media de estos dos valores nos dará a su vez
60, que es el valor de la mediana.
La moda: el valor de la variable que presenta una mayor
frecuencia es 60
La varianza S2: Es la media de los cuadrados de las
diferencias entre cada valor de la variable y la media
aritmética de la distribución.
Sx2=
La desviación típica S: es la raíz cuadrada de la varianza.
S = √ 427,61 = 20.67
El rango: diferencia entre el valor de las observaciones
mayor y el menor
80 - 15 = 65 días
El coeficiente de variación: cociente entre la desviación
típica y el valor absoluto de la media aritmética
CV = 20,67/52,3 = 0,39
EJEMPLO 2
El precio de un interruptor magentotérmico en 10
comercios de electricidad de una ciudad son : 25, 25, 26,
24, 30, 25, 29, 28, 26, y 27 Euros. Hallar la media, moda,
mediana, (abrir la calculadora estadística, más abajo)
diagrama de barras y el diagrama de caja.
SOLUCIÓN:
Utilizar la calculadora de debajo)
El diagrama de cajas: caja desde Q1 a Q3 (50% de los
datos), bigotes el recorrido]
COEFICIENTE DE ASIMETRÍA DE PEARSON
El coeficiente de asimetría de Pearson mide la desviación
respecto de la simetría expresando la diferencia entre la
media y la mediana en relación con la desviación estándar
del grupo de medidas. Las fórmulas son:
En una distribución simétrica, el valor del coeficiente de
asimetría será siempre de cero, porque la media y la
mediana son iguales entre sí en valor En una distribución
asimétrica positiva, la media siempre es mayor que la
mediana; en consecuencia, el valor del coeficiente es
positivo. En una distribución asimétrica negativa, la
media siempre es menor que la mediana; por lo tanto, el
valor del coeficiente es negativo. EJEMPLO En relación
con los datos de ventas de equipos de aire acondicionado
presentados en el ejemplo anterior, la media es 10.5
unidades, la mediana 11.0 unidades (con base en las
secciones 2.2 y 2.4) y la desviación estándar 3.3
unidades. El coeficiente de asimetría es
Así, la distribución de cantidades de ventas es en cierto
modo asimétrica negativa, o sesgada a la izquierda.
top related