las hipótesis de gauss-markov
DESCRIPTION
Transparencias para un curso de regresión lineal multivarianteTRANSCRIPT
![Page 1: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/1.jpg)
Las hipótesis de Gauss-Markov
![Page 2: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/2.jpg)
Las hipótesis de Gauss-Markov
1. Número de individuos y de variables
2. No colinealidad
3. Media nula de los errores
4. Homocedasticidad
5. No correlación entre los errores
![Page 3: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/3.jpg)
Lema previo
Las matrices X, X’ y X’X tienen el mismo rango
![Page 4: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/4.jpg)
1. Número de individuos y de variables
• El número de individuos (n) es mayor que el número de variables explicativas (k).
• Si esta condición no se cumple, el rango de la matriz no será y no tendrá inversa.
kn
XX' 1k
![Page 5: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/5.jpg)
2. No colinealidad
• Las variables explicativas no son linealmente dependientes:– El rango de la matriz es .– El rango de la matriz es . No es
singular –su determinante no es nulo y, en consecuencia, tendrá inversa.
XXX'
1k1k
1krango XX'
![Page 6: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/6.jpg)
Modelo de regresión
εXβY ConocidoAleatorio
ConocidoNo aleatorio
DesconocidoNo aleatorio
DesconocidoAleatorio
![Page 7: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/7.jpg)
Modelo de regresión
εXβY
Son variables aleatorias
Es constante
![Page 8: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/8.jpg)
3. Media nula de los errores
• Cada término de error ( ) es una variable aleatoria.• La media –valor esperado- de cada término de error es nula:
1 siendo 0 niE i
0ε E¡Es un vector!
i
![Page 9: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/9.jpg)
4. Homocedasticidad
• Todos los términos de error tienen la misma varianza.
1 siendo 2 niVar i
![Page 10: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/10.jpg)
Varianza condicionada de la
distribución de la variable dependiente
4. Homocedasticidad (II)
• Cada observación de la variable dependiente ( ) es una variable aleatoria -función de -.
• La varianza de cada observación de la variable dependiente (la varianza condicionada) y la varianza del correspondiente término de error son iguales:
niVarxxVaryVar iiikkii 1 siendo ... 211
niyVar i 1 siendo 22 k1 X,...,Y/X
i iy
![Page 11: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/11.jpg)
5. No correlación entre los errores
• Los términos de error son variables aleatorias. Estas variables aleatorias son independientes. La covarianza entre cualesquiera dos de ellas es nula:
siendo1 0, jin ; i,jCov ji
![Page 12: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/12.jpg)
5. No correlación entre los errores(II)
nnn
n
n
VarCovCov
CovVarCov
CovCovVar
ECov
...,,
............
,...,
,...,
21
2221
1211
εε'ε
• Las hipótesis cuarta y quinta las podemos expresar así:
Iεε' 2
2
2
2
...00
............
0...0
0...0
E
![Page 13: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/13.jpg)
Consecuencias de las hipótesis de Gauss-Markov
• La esperanza matemática (condicionada) de la variable dependiente es:
• La matriz de covarianzas (condicionada) de la variable dependiente es:
XβεXβY EE
IεεεεXβY 2' ECovCovCov
![Page 14: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/14.jpg)
Consecuencias de las hipótesis de Gauss-Markov (II)
• La esperanza matemática del estimador es:
• La matriz de covarianzas del estimador es:
βXβXXXYXXX
YXXXB
''''
''11
1
E
EE
1211
1
''''
''
XXXXXYXXX
YXXXB
Cov
CovCov
βB E
1XX'B 2Cov
Estimadorinsesgado
![Page 15: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/15.jpg)
Teorema de Gauss-Markov
• Si se cumplen las hipótesis de G-M, entonces el estimador B obtenido por el método de los mínimos cuadrados es el estimador óptimo.
• Se dice entonces que B es un estimador BLUE:– Best
– Linear
– Unbiased
– Estimator
Mejor estimador lineal e insesgado
YX'XX'B 1
![Page 16: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/16.jpg)
Error estándar de la estimación
• La varianza común de los términos de error ( ) es desconocida. Para estimar dicha varianza emplearemos la siguiente expresíón:
11
ˆˆ 1
2
22
knkn
yys
n
iii ee'
2
![Page 17: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/17.jpg)
Error estándar de la estimación (II)
11
ˆˆ 1
2
22
knkn
yys
n
iii ee'
11
ˆ1
2
knkn
yys
n
iii ee'
![Page 18: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/18.jpg)
Error estándar de la estimación (III)
• El error estándar de la estimación es una medida de la calidad del ajuste.
• Cuanto menor sea el error mejor es la calidad del ajuste.
11
ˆ1
2
knkn
yys
n
iii ee'
![Page 19: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/19.jpg)
Estimación de la matriz de covarianzas del estimador
• Hemos obtenido que pero como no conocemos la varianza de los errores utilizaremos su estimación:
1XX'B 2Cov
kkk
k
k
bsbbsbas
bbsbsbas
basbasas
s
21
22
12
12
12
21
22
2
...,,
............
,...,
,...,
1XX'S
![Page 20: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/20.jpg)
Estimación de la matriz de covarianzas del estimador(II)
• A las raíces cuadradas de los elementos de la diagonal principal de la matriz S los llamaremos errores estándar de los coeficientes.
• El error estándar de un coeficiente es una medida de la variabilidad de ese coeficiente.
kkk
k
k
bsbbsbas
bbsbsbas
basbasas
s
21
22
12
12
12
21
22
2
...,,
............
,...,
,...,
1XX'S
![Page 21: Las hipótesis de Gauss-Markov](https://reader036.vdocuments.pub/reader036/viewer/2022081422/5571f18549795947648b5852/html5/thumbnails/21.jpg)
Ejercicio
• En el ejemplo de ilustración (alquileres):– Calcular el error estándar de la estimación.– Calcular los errores estándar de los
coeficientes.