tarea 3 - katherine toledo

20
Pregunta 1 Parte i De acuerdo al modelo de regresión lineal simple: y=α +βx +e Si α=0 la regresión queda expresada como: y=βx +e Parte ii Sabemos que α corresponde al término constante e intercepto de la recta de regresión, por lo tanto, si α=0la recta de regresión se inicia en el origen del gráfico, donde y es la variable dependiente y x la variable independiente. Gráficamente: -5 0 5 10 15 20 Fitted values -1 0 1 2 3 4 x Parte iii Primero desarrollamos la suma de cuadrados: S ( β ) = i=1 N ( y i βx i ) 2 ¿ i=1 N ( y i 2 2 βx i y i + β 2 x i 2 ) = i=1 N y i 2 2 β i=1 N x i y i +β 2 i=! N x i 2 Ahora, tomando los valores x={1,2,3,4,5,6 } e y={4,6,7,7,9,11 } y reemplazando en cada sumatoria obtenemos:

Upload: ktufen

Post on 05-Dec-2015

218 views

Category:

Documents


2 download

DESCRIPTION

Tarea n°3 Econometría

TRANSCRIPT

Page 1: Tarea 3 - Katherine Toledo

Pregunta 1

Parte i

De acuerdo al modelo de regresión lineal simple: y=α+βx+e

Si α=0 la regresión queda expresada como: y=βx+e

Parte ii

Sabemos que α corresponde al término constante e intercepto de la recta de regresión, por lo tanto, si α=0la recta de regresión se inicia en el origen del gráfico, donde y es la variable dependiente y x la variable independiente.

Gráficamente:

-50

510

1520

Fitt

ed v

alu

es

-1 0 1 2 3 4x

Parte iii

Primero desarrollamos la suma de cuadrados:

S ( β )=∑i=1

N

( y i−β x i)2

¿∑i=1

N

( y i2−2β x i y i+β2 x i

2 )=∑i=1

N

y i2−2 β∑

i=1

N

x i y i+ β2∑i=!

N

x i2

Ahora, tomando los valores x={1,2,3,4,5,6 } e y={4,6,7,7,9,11} y reemplazando en cada sumatoria obtenemos:

Para ∑i=1

N

yi2=42+62+72+72+92+112=352

Para 2 β∑i=1

N

x i y i=2 β(1∗4+2∗6+3∗7+4∗7+5∗9+6∗11)=352 β

Page 2: Tarea 3 - Katherine Toledo

Para β2∑i=1

N

x i2=12+22+32+42+52+62=91 β2

S(β )=352−352 β+91 β2

Para encontrar el mínimo valor aproximado, minimizaremos S(β ) c.r a β:

minβ S (β)=352−352 β+91 β2

∂ S (β)∂ β

=−352+182 β=0

β=352182

=1,9340

Gráficamente:

Parte iv

Con α=0 sabemos que

S ( β )=∑i=1

N

( y i−β x i2)2

∂ S (β)∂ β

=−2∑i=1

N

( y i−β x i ) x i=0⇒∑i=1

N

β x i2=∑

i=1

N

x i y i

β=∑i=1

N

x i y i

∑i=1

N

x i2

Reemplazando los valores que obtuvimos anteriormente:

Page 3: Tarea 3 - Katherine Toledo

β=17691

=1,9340

Vemos que mediante el método de MCO minimizamos el cuadrado de los errores c.r al valor de β, que es exactamente lo que hicimos en el ejercicio anterior mediante el desarrollo de la sumatoria y el posterior reemplazo de los valores entregados por enunciado.

Parte v

Para ubicar el punto (x , y ), calculamos el promedio de los datos de x e y, de la forma:

x={1,2,3,4,5,6 }⇒ x=1+2+3+4+5+66=3,5

y={4,6,7,7,9,11}⇒ y=4+6+7+7+9+116=7,33

Tenemos que y i=β∗xi, entonces:

y1=1,934∗1=1,934 ; y2=1,934∗2=3,868; y3=1,934∗3=5,802

y4=1,934∗4=7,736 ; y5=1,934∗5=9,67 ; y6=1,934∗6=11,604

Gráficamente:

Donde la línea roja vertical corresponde a x=3,5 y la línea roja horizontal es y=7,33. Del gráfico vemos que los promedios de las variables están sobreestimados, pues el modelo de regresión lineal simple para minimizar los errores no pasa por el punto (x , y ), ya que α=0, donde la recta graficada en la parte ii no coincide con el punto (x , y ), por lo que podemos concluir también que E(e)≠ 0.

Parte vi

Page 4: Tarea 3 - Katherine Toledo

El residuo de mínimos cuadrados corresponde a: ∑i=1

N

ei=¿∑i=1

N

( y i− y i)¿ es decir, restando al

y del ítem anterior, el y del conjunto y={4,6,7,7,9,11}.

e1=4−1,934=2,066 ; e2=6−3,868=2,132 ; e3=7−5,802=1,198

e4=7−7,736=−0,736 ; e5=9−9,67=−0,67 ; e6=11−11,604=−0,604

∴∑i=1

N

ei=¿2,066+2,132+1,198−0,736−0,67−0,604=3,386¿

Parte vii

Tenemos que:

∑i=1

N

x i e i=1∗2,066+2∗2,132+3∗1,198−4∗0,736−5∗0,67−6∗0,604=¿¿0,006

Pregunta 2

a) Conocemos el valor de α , entonces para y=α+βx+e

Despejando e, aplicando sumatoria y elevando al cuadrado:

∑i=1

N

ei2=∑

i=1

N

¿¿¿¿

∂∑i=1

N

e i2

∂ β=−2∑

i=1

N

( y i−α−β x i ) xi=0

β∑i=1

N

xi2=∑

i=1

N

xi y i−α∑i=1

N

x i

β=∑i=1

N

x i y i−α∑i=1

N

x i

∑i=1

N

x i2

β=∑i=1

N

x i ( α+β x i+e )−α∑i=1

N

x i

∑i=1

N

x i2

Page 5: Tarea 3 - Katherine Toledo

β=∑i=1

N

x iα +β∑i=!

N

x i2+∑

i=1

N

x i ei−α∑i=1

N

x i

∑i=1

N

x i2

β=n x iα +β∑

i=1

N

x i2+∑

i=1

N

x i ei−nx i α

∑i=1

N

x i2

β=β+∑i=1

N

xi e i

∑i=1

N

x i2

Ahora, aplicamos varianza de la siguiente forma:

var ( β )=var ( β )+var (∑i=1

N

x ie i

∑i=1

N

x i2

)

var ( β )=0+ 1

(∑i=1

N

xi2)

2var (∑

i=1

N

x i ei)

var ( β )= 1

(∑i=1

N

x i2)

2∑i=1

N

x i2var ¿

var ( β )=var¿¿

b) No conocemos el valor de α , entonces para y=α+βx+e, trabajamos con el estimador de β, de la forma:

β=∑i=1

N

(x i−x )( y i− y )

∑i=1

N

¿¿¿

Page 6: Tarea 3 - Katherine Toledo

β=β+∑i=1

N

(x i−x )e I

∑i=1

N

¿¿¿

Aplicando varianza:

var ( β )=E [ β−E ( β ) ]2Asumiendo β insesgado:

var ( β)=[ β−β ]2

var ( β )=¿¿

var ( β )=∑i=1

N

(x i−x )2e i2

∑i=1

N

¿¿¿

var ( β )=∑i=1

N

(x i−x )2 E [e i2∨x i ]

∑i=1

N

¿¿¿

Dado que por propiedad de MCO se cumple que E [e i∨x i ]=0 podemos definir entonces

E [e i2∨x i ]=∑

i=1

N

[ (e i−e i )2∨x i ]

Por lo tanto,

var ( β )=∑i=1

N

[ (e i−e i )2∨x i ]

∑i=1

N

¿¿¿

Realizando la comparación:

σe2

∑i=1

N

xi2

≷σe

2

σ x2

σ x2≷∑

i=1

N

xi2

Tenemos que σ x2=∑

i=1

N

¿¿ siempre será menor que ∑i=1

N

x i2, por lo tanto, podemos concluir que

la varianza con α no conocido es mayor, mientras que con α conocido resulta menor. Esto

Page 7: Tarea 3 - Katherine Toledo

se explica porque β al no depender de otro estimador no incluye el riesgo de éste, contribuyendo a una varianza menor. Sin embargo, si depende de otro estimador resulta más volátil su valor, generando una mayor varianza.

Pregunta 3

Calculando la fórmula de R2, tenemos que de las definiciones de valor esperado y el residuo podemos expresar y i como:

y i= α+ β x i+ μi=E [ y i∨x i ]+ μi= y i+ μ i

Luego,

y i− y i= y i− y i+ μi

Elevando al cuadrado, ¿

Aplicando sumatoria ∑i=!

N

¿¿

∑i=!

N

¿¿

1=∑i=1

N

( y i− y i )2

∑i=!

N

¿¿¿

Donde tenemos SE=∑i=1

N

( y i− y i )2, la suma explicada, que corresponde a la suma de las

desviaciones al cuadrado de los valores de predicción de y i, y i respecto de su media. En

tanto que ST=∑i=!

N

¿¿, la suma total correspondiente a la suma de los cuadrados de las

desviaciones de y irespecto a su media. Finalmente, SR=∑i=!

N

μ i2, suma residual, la suma de

los cuadrados de los residuos. Luego, R2= SE

ST entonces:

1= SEST

+ SRST

∴R2=1−SRST

=1−∑i=!

N

μi2

∑i=!

N

¿¿¿

Page 8: Tarea 3 - Katherine Toledo

Parte i

Por definición sabemos que:

y i= β1+ β2 x i(1)

Además, y= β1+ β2 x (2)

Restando (2 )− (1 ) y i− y= β2 ( x i−x )

Elevando al cuadrado ( y i− y )2= β22 ( x i−x )2

Aplicando sumatoria ∑i=1

N

( y i− y )2= β22∑

i=1

N

( x i−x )2

Del cálculo para la fórmula de R2sabemos que

R2=∑i=1

N

( y i− y i )2

∑i=!

N

¿¿¿

Como no conocemos β2 una forma alternativa de expresarlo1 es:

β2=∑i=1

N

(¿ x i−x )( y i− y )

∑i=1

N

(x i−x)2

=Sxy

Sx2 ¿

Entonces,

R2=∑i=1

N

( y i− y i )2

∑i=!

N

¿¿¿

∴R2=r xy2

Parte ii

a) x sobre y:

Calculamos la varianza de los valores estimados de x :

SE= 1N∑I=1

n

( x i− x)2

Donde encontramos que x i= x pues x=β0+β1 y i+e, ya que β0+β1 y i= x i, por lo tanto,

1 Stock & Watson, Introducción a la Econometría. 3ra edición. Pág. 83

Page 9: Tarea 3 - Katherine Toledo

x i= x i+e

∑i=!

N

x i=∑i=1

N

xi+¿∑i=1

N

ei ¿

Asumiendo que se cumple, ∑i=1

N

ei=0 entonces, xi

n=

x i

n⇒ x i= x i

Luego,

SE=1n∑i=1

N

¿¿

Y sabemos que:

β0= x− ySxy

S y2 ⋀ β1=

Sxy

S y2

Reemplazando

R2=1n∑i=1

N

( x− ySxy

S y2 +

Sxy

S y2 y− x)

2

=1n∑i=1

n Sxy2

S y2 S y

2 ( y i− y)2=1n

nSxy

2

Sy2 S y

2 S y2 =

Sxy2

Sy2

∴Rx2=r2

b) y sobre x :

Calculamos la varianza de los valores estimados de x :

SE= 1N∑I=1

n

( y i− y )2

Donde y i= y pues y=β0+β1 x i+e, ya que β0+β1 x i= y i, por lo tanto,

y i= y i+e

∑i=!

N

yi=∑i=1

N

y i+¿∑i=1

N

e i¿

Asumiendo que se cumple, ∑i=1

N

ei=0 entonces, y i

n=

y i

n⇒ y i= y i

Luego,

SE=1n∑i=1

N

¿¿

Y sabemos que:

β0= y−xS yx

Sx2 ⋀ β1=

S yx

Sx2

Page 10: Tarea 3 - Katherine Toledo

Reemplazando

R2=1n∑i=1

N

( y−xS yx

Sx2 +

S yx

Sx2 x− y )

2

=1n∑i=1

n S yx2

Sx2 Sx

2 (x i−x)2=1n

nS yx

2

Sx2 Sx

2 S x2=

S yx2

Sx2

∴R y2=r2

En efecto, la regresión de x sobre y, y viceversa, resulta en el mismo R2 ∎

Pregunta 4

Parte i

Mediante el comando tabstat height,s(median) encontramos que en el percentil 50 se encuentra la mediana y corresponde a 67 pulgadas.

Parte ii

1. Para estimar las ganancias promedio condicionado a una altura máxima de 67 pulgadas, usamos el comando sum earnings if height<=67, donde el promedio resulta en $44488,44 dólares.

2. Realizamos esta estimación condicionado a una altura superior a 67 pulgadas, mediante el comando sum earnings if height>67, donde el promedio resulta en $49987,88 dólares.

3. Mediante el comando ttest earnings, by(may67) resulta la siguiente tabla, los trabajadores altos ganan 49987,88 dólares, mientras que los bajos ganan 44488,44 donde podemos concluir una diferencia de 5499,44 menos para los trabajadores bajos. Respecto al intervalo de confianza, obtuvimos [ 4707,007 ;6291,873 ].

Page 11: Tarea 3 - Katherine Toledo

Parte iii

Para construir el gráfico de dispersión usamos el comando tw (scatter earnings height), considerando que en la nota de documentación del estudio se enuncia que los ingresos laborales están presentados en 23 soportes para los que se estimaron un valor de los ingresos medios basados en la información obtenida de la población actual, valores que luego se asignaron a los trabajadores de acuerdo a su soporte.

Page 12: Tarea 3 - Katherine Toledo

Parte iv

1. Mediante el comando reg earnings height obtuvimos la regresión, donde la pendiente estimada es 707,6716.

2. Dado el modelo de regresión y=α+βx+e asumiendo que E(e)=0 y con lo encontrado en la tabla, α=−512,7336 y β=707,6716. Entonces:

Para 65 pulgadas ⇒ y=−512,7336+707,6716∗65=45485,92

 Para 67 pulgadas ⇒ y=−512,7336+707,6716∗67=46901,264

Para 70 pulgadas ⇒ y=−512,7336+707,6716∗70=49024,28

Parte v

Sabemos que 1 pulgada equivale a 0,0254 metros, entonces usamos el comando gen centímetros=height*0.0254 para convertir la estatura y luego reg earnings centímetros para obtener la siguiente regresión:

Page 13: Tarea 3 - Katherine Toledo

1. La pendiente estimada corresponde a 27861,092. El intercepto estimado es -512,73653. El coeficiente de determinación R2=0,01094. El error estándar resulta 1987,765

Parte vi

Corremos la regresión con el comando reg earnings height if sex==0 obteniendo:

1) La pendiente estimada corresponde a 511,2222

2) De acuerdo a la tabla superior, podemos predecir que en una submuestra de mujeres que presenten una pulgada más alta su ganancia irá en la misma dirección, pues la pendiente resulta positiva, dando cuenta que el aumento de una pulgada incrementaría el ingreso en 511,2222 dólares.

Parte vii

Corremos la regresión mediante el comando reg earnings height if sex==1, con lo que obtenemos:

Page 14: Tarea 3 - Katherine Toledo

1. La pendiente estimada corresponde a 1306,86

2. Nuevamente, acorde a la tabla superior, podemos predecir que en una submuestra de hombres que presenten una pulgada más alta, su ganancia iría también en la misma dirección, pues la pendiente resulta positiva. Por lo tanto, el aumento marginal de una pulgada, incrementa el ingreso en 1306, 86 dólares.

Parte viii

De acuerdo a la descripción del documento sobre Earnings and Height, podríamos pensar que la altura efectivamente está correlacionada a otros factores distintos de ingresos, por ejemplo, la clase de trabajador en cuanto al sector donde se desenvuelve, el tipo de ocupación, zona geográfica donde reside, pertenencia con alguna etnia, e incluso factores como alimentación, nivel educativo, entorno familiar, entre otros. En el error expresado en la regresión podríamos encontrar estos factores y otros más, que por motivos del objetivo de la investigación no fueron controlados, ni estudiados.

∎Pregunta 52

Entre las propiedades de MCO se considera que la consistencia es una condición mínima que debe cumplir el estimador. Intuitivamente, lo anterior significa que a medida que n → ∞ la función de densidad del estimador converge al valor del parámetro. Es decir, para β:

p limn→∞

β2=β2

Para las simulaciones ocupamos un n suficientemente grande lo que nos permite generar una normal para los componentes de la regresión lineal, luego mediante comandos vistos en clases pudimos simular para 10.000 observaciones la consistencia para α y β. Luego, mediante el comando matrix construimos una matriz con 100 medias para cada tamaño de muestra, y con el comando svmat que toma las columnas como variables construimos el gráfico para distintos β, obteniendo gráficamente:

010

2030

40

2.9 3 3.1 3.2 3.3 3.4x

kdensity Alfa1 kdensity Alfa2kdensity Alfa3

Consistencia Alfa

2 El procedimiento se encuentre en el Do File.

Page 15: Tarea 3 - Katherine Toledo

010

2030

40

4.7 4.8 4.9 5 5.1 5.2x

kdensity Beta1 kdensity Beta21kdensity Beta31

Consistencia Beta

Pregunta 6

De acuerdo al enunciado con probabilidad p α=α 1 y con probabilidad (1−p )α=α2, entonces para un modelo de regresión lineal simple y i=α+β x i+e, tenemos que:

∑i=1

N

ei2=∑

i=1

N

[ y i−β x i−α1 p−α 2 (1−p ) ]2

∂∑i=1

N

e i2

∂ β=−2∑

i=1

N

( y i−β x i−α1 p−α 2 (1−p ) )x i=0

β∑i=1

N

xi2=∑

i=1

N

xi y i−α1 p∑i=1

N

x i−¿ α2 (1−p )∑i=1

N

xi ¿

Luego,

β=∑ x i y i

∑ x i2 −

(α 1 p+α2 (1−p ) )∑ x i

∑ x i2

Para simplificar la notación diremos que R=(α 1 p+α 2 (1−p ) ), lo que resulta

β=∑ x i y i

∑ x i2 −

R∑ xi

∑ x i2

Con esto nos queda que y i=R+ β x i+ei, con lo que β queda expresado como:

Page 16: Tarea 3 - Katherine Toledo

β=∑i=1

N

x i(¿ R+β x i+e i)

∑ x i2 −

R∑ xi

∑ x i2 ¿

β=R∑

i=1

N

x i

∑ x i2 +

β∑i=1

N

x i

∑ x i2 +

∑i=!

N

x i ei

∑ x i2 −

R∑ x i

∑ x i2

β=β+∑i=!

N

xi e i

∑ x i2

Término que por definición es insesgado, por lo cual: E [ β ]=E [β+∑ x ie i

∑ x i2 ]=β

Ya que por propiedades de MCO E [ui|x i ]=0, es decir, E [∑i=!

N

x ie i

∑ x i2 ]=0

Con lo anterior, ahora podemos calcular la varianza,

var ( β )=var (β+∑ x i e i

∑ xi2 )=∑ x i

2 var (e i)¿¿

Tal como encontramos en la pregunta 2, a medida que ∑ x i2 crece la varianza resulta

menor, y para un n suficientemente grande encontramos que la expresión var ( β )= var (ei)

∑ x i2

posee la mínima varianza.