re gresi ones

Post on 18-Jan-2016

11 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

DESCRIPTION

matematicas

TRANSCRIPT

REGRESIONES

Si tenemos una serie de datos y queremos obtener datos intermedios, lo mejor es aproximar los datos que tenemos a una función que se ajuste lo mejor posible a esos datos iniciales y a partir de esa función hallar los datos que queremos.

Para un conjunto dado de datos, cada persona podría trazar una recta (o función) diferente por lo cual debemos aplicar un mismo criterio basado en la menor discrepancia posible entre la función y nuestros datos; este criterio es el de los mínimos cuadrados.

REGRESION LINEAL

El ejemplo más simple de una aproximación por mínimos cuadrados es ajustar una línea recta a un conjunto de observaciones, la ecuación de la recta es:

Y = a0 + a1X + e

Donde a0 y a1 son coeficientes que representan el intercepto con el eje Y y la pendiente, respectivamente, “e” es el error, o residuo, entre el modelo (ecuación a0 + a1x,) y los datos, el cual se pueden representar al reordenar la ecuación como:

e = Y - a0 - a1X

0 100 200 300 4000

20

40

60

80

100

120

Valor predicho:

Residuo: diferenciaentre el valor realy el valor predicho

Entonces para obtener una única recta que se ajuste lo mejor posible a un conjunto de datos utilizamos el criterio de mínimos cuadrados; es decir, minimizamos al máximo el cuadrado de los errores.

Sr=∑i=1

n

e i2 = ∑

i=1

n

(Yi−ao−a1 Xi)2

Para determinar los valores de a0 y a1, la ecuación se deriva con respecto a cada uno de los coeficientes como queremos que Sr sea mínimo igualamos esas derivadas a cero:

Σa0 = na0

Resolviendo simultáneamente:

Donde son las medias de Y y X, respectivamente.

EJEMPLO:Utilice la regresión por mínimos cuadrados para ajustar una línea recta a:X: 0 2 4 6 9 11 12 15 17 19Y: 5 6 7 6 9 8 7 10 12 12

SOLUCION:Xi Yi Xi*Yi Xi^2 (Yi-Ym)20 5 0 0 10.242 6 12 4 4.844 7 28 16 1.446 6 36 36 4.849 9 81 81 0.64

11 8 88 121 0.0412 7 84 144 1.4415 10 150 225 3.2417 12 204 289 14.4419 12 228 361 14.44

∑ 95 82 911 1277 55.6

n= 10Xm= 9.5Ym= 8.2

a1=10∗911−95∗8210∗1277−95∗95

a1=0.35247

a0=8.2-0.35247*9.5=4.8515

Por lo tanto, el ajuste por mínimos cuadrados es:

y = 4.8515 + 0.35247x

Xi Yi Xi*Yi Xi^2 (Yi-Ym)2 (yi – a0 – a1xi)20 5 0 0 10.24 0.022052252 6 12 4 4.84 0.1967454744 7 28 16 1.44 0.5455595046 6 36 36 4.84 0.9337743429 9 81 81 0.64 0.953103113

11 8 88 121 0.04 0.53095996912 7 84 144 1.44 4.331143715 10 150 225 3.24 0.01919610217 12 204 289 14.44 1.3375153819 12 228 361 14.44 0.203915465

∑ 95 82 911 1277 55.6 9.073965299

CUANTIFICACION DE LA BONDAD NUESTRO AJUSTE: Como sabemos La media aritmética (– y) de una muestra se define como la suma de los datos (yi) dividida entre el número dedatos (n), oyyni

Entonces el criterio de mínimos:

Sr=∑i=1

n

e i2 = ∑

i=1

n

(Yi−ao−a1 Xi)2

Para obtener los valores de a0 y a1 resolvemos las siguientes ecuaciones:

Sabemos que la desviación estándar es:

Sy=√( yi−Y )2

n−1

Dispersión de los datos alrededor de la línea de regresión:

Suma de los cuadrados de los errores alrededor de la media:

St=∑ ( yi−Y )2

EJEMPLO:

Utilice la regresión por mínimos cuadrados para ajustar una línea recta a:X: 0 2 4 6 9 11 12 15 17 19Y: 5 6 7 6 9 8 7 10 12 12

n=10

Solución:

Finalmente el seudocódigo:

sumx = 0: sumxy = 0: st = 0

sumy = 0: sumx2 = 0: sr = 0

PARA i = 1, nsumx = sumx + xisumy = sumy + yisumxy = sumxy + xi*yisumx2 = sumx2 + xi*xiFIN

xm = sumx/nym = sumy/na1 = (n*sumxy — sumx*sumy)/(n*sumx2 — sumx*sumx)a0 = ym — a1*xm

PARA i = 1, nst = st + (yi — ym)2sr = sr + (yi — a1*xi — a0)2FIN

syx = (sr/(n — 2))0.5r2 = (st — sr)/st

top related