ajuste de curvas
TRANSCRIPT
MÉTODOS
NUMERICOS
AJUSTE DE CURVAS
INTEGRACION Y DEFERENCIACION NUMERICA
Rogelio Isauro Morales Gálvez Q.I. Belem Facio Ruiz
Ajuste de curvas
Los datos a menudo son dados para valores discretos a lo largo de un continuo.
Sin embargo, usted puede requerir una estimación en puntos entre los valores
discretos.
Existen dos procedimientos generales para el ajuste de curvas que se distinguen
uno del otro con base en el grado de error asociado con los datos. Primero, donde
los datos exhiban un grado significativo de error o "ruido", la estrategia será
derivar una sola curva que represente la tendencia general de los datos. Debido a
que cualquier dato individual puede ser incorrecto, no se necesita interceptar cada
punto. En lugar de esto, se designa la curva para seguir un patrón de los puntos
tomados como un grupo. Un procedimiento de esta naturaleza es llamado
regresión por mínimos cuadrados.
Segundo, donde se conoce que los datos son muy precisos, el procedimiento
básico será ajustar a una curva o a una serie de curvas que pasen directamente a
través de cada uno de los puntos. Usualmente tales datos se originan de tablas.
Como ejemplos se tienen los valores de la densidad del agua o la capacidad
calorífica de los gases en función de la temperatura. La estimación de valores
entre puntos discretos bien conocidos es llamada interpolación.
Métodos sin computadora para el ajuste de curvas
El método más simple para ajustar a una curva los datos es ubicar los puntos y
después dibujar una línea que visualmente conforma a los datos. Aunque ésta es
una operación válida cuando se requiere una estimación rápida, los resultados
son dependientes del punto de vista subjetivo de la persona que dibuja la curva.
Por ejemplo, en las siguientes figuras, son mostrados trazos desarrollados a partir
del mismo conjunto de datos por tres ingenieros. El primero no intentó conectar los
puntos; en vez de ello, caracterizó la tendencia general hacia arriba de los datos
con una línea recta. El segundo ingeniero usó segmentos de línea recta o
interpolación lineal para conectar los puntos. Ésta es una práctica común en la
ingeniería. Si los valores están verdaderamente cercanos a ser lineales o
cercanamente espaciados, tal aproximación provee estimaciones que son
adecuadas en muchos cálculos de la ingeniería. Sin embargo, donde la relación
resaltada es altamente curvilínea o los datos están espaciados en forma muy
amplia, se puede introducir errores por esa interpolación lineal. El tercer ingeniero
usa curvas para tratar de capturar el serpenteado sugerido por los datos. Un
cuarto o quinto ingeniero podría, de igual forma, desarrollar ajustes alternativos.
Es obvio que nuestra meta aquí es desarrollar métodos sistemáticos y objetivos
con el propósito de obtener tales curvas.
Regresión por mínimos cuadrados
Donde se asocian errores sustanciales con los datos, la interpolación polinomial es
inapropiada y puede dar resultados insatisfactorios cuando se usa para predecir
valores intermedios. Por ejemplo, en la figura 17.1a se muestran siete datos
derivados experimentalmente que exhiben variabilidad significativa. Una
inspección visual de dichos datos sugiere una posible relación entre y y x. Es
decir, la tendencia general indica que los valores más altos de y son asociados
con los valores más altos de x. Ahora, si una interpolación de sexto orden se
ajusta a estos datos (figura 17.1¿»), pasará justo a través de todos los puntos. Sin
embargo, a causa de la variabilidad en los datos, la curva oscila en forma amplia
en el intervalo entre los puntos. En particular, los valores interpolados en x = 1.5 y
JC = 6.5 parecen estar muy adelante del rango sugerido por los datos.
Una estrategia más apropiada para tales casos es derivar una función aproximada
que ajuste la forma de la tendencia general de los datos sin ajustar
necesariamente con los puntos individuales. La figura 17.1c ilustra cómo se puede
usar por lo general una línea recta para caracterizar la tendencia de los datos sin
pasar a través de un punto en particular.
Una manera para determinar la línea en la figura 17.1c es inspeccionar en forma
visual los datos graneados y después trazar una "mejor" línea a través de los
puntos.
Aunque tales procedimientos por "vistazo" apelan al sentido común y son válidos
para cálculos superficiales, resultan deficientes por ser arbitrarios. Es decir, a
menos que los puntos definan una línea recta perfecta (en tal caso la interpolación
podría ser apropiada), diferentes analistas podrían dibujar distintas líneas.
Para hacer a un lado la subjetividad se debe concebir algunos criterios con el fin
de establecer una base para el ajuste. Una forma de hacerlo es derivar una curva
que minimice la discrepancia entre los puntos y la curva. Una técnica para cumplir
con tal objetivo se conoce como regresión por mínimos cuadrados, que se
analizará en este capítulo.
REGRESIÓN LINEAL
El ejemplo más simple de una aproximación por mínimos cuadrados es mediante
el ajuste de un conjunto de pares de observaciones: (x1, y1), (x2, y2),…, (xn, yn) a
una línea recta. La expresión matemática para esta última es
El ejemplo más simple de una aproximación por mínimos cuadrados es mediante
el ajuste de un conjunto de pares de observaciones: (x1,y1), (x2,y2),…, (x„ ,y„) a
una línea recta. La expresión matemática para esta última es:
donde a0 y a1 son coeficientes que representan el intercepto y la pendiente,
respectivamente, y e es el error, o residuo, entre el modelo y las observaciones,
las cuales se pueden representar al reordenar la ecuación como
Así, el error o residuo es la discrepancia entre el valor real de y y el valor
aproximado, a0+a,x, predicho por la ecuación lineal.
Criterios para un "mejor" ajuste
Una estrategia para ajustar a la ¿"mejor"? línea a través de los datos podría ser
minimizar la suma de los errores residuales para todos los datos disponibles,
como en donde n =número total de puntos.
Ajuste por mínimos cuadrados de una línea recta
Para determinar los valores de a0 y a1,la ecuación es diferenciada con respecto a
cada coeficiente:
Observe que hemos simplificado los símbolos de la sumatoria; a menos que se
indique otra cosa, todas las sumatorias son de i = 1 hasta n. Al fijar esas derivadas
igual a cero, resultará en un mínimo Sr. Si se hace esto, las ecuaciones se pueden
expresar como
Ahora, si hacemos que £a0= na0, podemos expresar las ecuaciones como un
conjunto de dos ecuaciones lineales con dos incógnitas (a0 y a1):
Estas son llamadas ecuaciones normales, y pueden ser resueltas en forma
simultánea
Este resultado, entonces, se puede usar en conjunto con la ecuación (17.4) y
resolver para
donde ȳ y ẏ son las medias de y y x, respectivamente.
REGRESIÓN DE POLINOMIOS
En la sección 17.1 se desarrolló un procedimiento para obtener la ecuación de una
línea recta por medio del criterio de mínimos cuadrados. Algunos datos de
ingeniería, aunque exhiben un patrón marcado como el que se vio en la figura
17.8, está pobremente representado por una línea recta. Para esos casos, una
curva podría ser más adecuada para el ajuste de los datos. Como se analizó en la
sección anterior, un método para cumplir con este objetivo es usar
transformaciones. Otras alternativas son ajustar polinomios con los datos
mediante regresión de polinomios.
El procedimiento de mínimos cuadrados se puede fácilmente extender al ajuste de
datos con un polinomio de orden superior. Por ejemplo, suponga que ajustamos
un polinomio de segundo orden o cuadrático:
Para este caso la suma de los cuadrados de los residuos es
Siguiendo el procedimiento de la sección anterior, tomamos la derivada de la
ecuación (17.18) con respecto de cada uno de los coeficientes desconocidos del
polinomio, como en
Estas ecuaciones se pueden igualar a cero y reordenar para desarrollar el
siguiente conjunto de ecuaciones normal:
donde todas las sumatorias son de i = 1 hasta n. Observe que las tres ecuaciones
anteriores son lineales y tienen tres incógnitas: a0, a1 y a2. Los coeficientes de las
incógnitas se pueden evaluar de manera directa a partir de los datos observados.
Para este caso, vemos que el problema de determinar un polinomio por mínimos
cuadrados de segundo orden es equivalente a resolver un sistema de tres
ecuaciones lineales simultáneas.
El caso en dos dimensiones puede extenderse con facilidad a un polinomio de m
ésimo orden como
El análisis anterior se puede fácilmente extender a este caso más general. Así,
podemos reconocer que la determinación de los coeficientes de un polinomio de
m-ésimo orden es equivalente a resolver un sistema de m + 1 ecuaciones lineales
simultáneas. Para este caso, el error estándar se formula como
Esta cantidad es dividida entre n — (m + 1), ya que (m + 1) coeficientes obtenidos
de los datos (a0, a1,…,am) se usaron para calcular S,.; así, hemos perdido m + 1
grados de libertad. Además del error estándar, un coeficiente de determinación
puede ser calculado para una regresión de polinomios.
REGRESIÓN LINEAL MÚLTIPLE
Una extensión útil de la regresión lineal es el caso donde y es una función lineal
de dos o más variables independientes. Por ejemplo, y podría ser una función
lineal de x1 y x2,como en
Tal ecuación es en particular útil cuando se ajustan datos experimentales donde la
variable sujeta a estudio es a menudo una función de otras dos variables.
L los "mejores" valores de los coeficientes son determinados al realizar la suma de
los cuadrados de los residuos,
y diferenciando con respecto a cada uno de los coeficientes desconocidos,
Los coeficientes dan la suma mínima de los cuadrados de los residuos y se
obtienen al igual las derivadas parciales a cero y expresando el resultado en forma
de matriz como
Formulación general de una matriz para mínimos cuadrados lineales
En páginas anteriores hemos introducido tres tipos de regresión: lineal simple,
polinomial y lineal múltiple. De hecho, estas tres pertenecen al siguiente modelo
general de mínimos cuadrados lineales:
donde z0, z,…, zm son las m + 1 funciones diferentes. Se puede ver con facilidad
cómo la regresión lineal simple y múltiple encajan dentro de este modelo; es decir
z() — 1, z1 x1,z2 = x2,…, z„, = xm.
Observe que la terminología "lineal" se refiere sólo a la dependencia del modelo
sobre sus parámetros (es decir, las a). Como en el caso de regresión de
polinomios, las mismas funciones pueden ser altamente no lineales. Por ejemplo,
las z pueden ser sinusoidales, como en
Tal formato es la base del análisis de Fourier. Por otro lado, un modelo de
apariencia simple como
es ciertamente no lineal porque no puede ser manejado en el formato de la
ecuación (17.23). Regresaremos a tales modelos al final de este capítulo.
Mientras tanto, la ecuación (17.23) se puede expresar en notación matricial como
donde [Z] es una matriz de los valores calculados de las funciones z en los valores
medidos de las variables independientes,
donde m es número de variables en el modelo y n es el número de datos. Como
n>m + 1, usted debería reconocer que la mayoría de las veces [Z] no es una
matriz cuadrada.
El vector columna {Y} contiene los valores observados de la variable dependiente
El vector columna {A} contiene los coeficientes desconocidos
y el vector columna {E} contiene los residuos
Como se realizó a través de este capítulo, la suma de los cuadrados de los
residuos para este modelo se pueden definir como
Esta cantidad se puede minimizar al tomar su derivada parcial con respecto a
cada uno de los coeficientes y fijar los resultados de la ecuación igual a cero. La
salida de este proceso son las ecuaciones normal que se pueden expresar
brevemente en forma de matriz como
Se puede demostrar que la ecuación (17.25) es, de hecho, equivalente a las
ecuaciones normal desarrolladas antes para regresión lineal simple, polinomial y
múltiple.
Nuestra principal motivación para las anteriores ha sido ilustrar la unión entre los
tres procedimientos y mostrar cómo se pueden expresar de manera simple en la
misma notación matricial. También acondiciona la etapa para la siguiente sección
donde asimilaremos algo de conocimiento en las estrategias preferidas para
resolver la ecuación (17.25).
Interpolación lineal
El modo más simple de interpolación es conectar dos puntos con una línea recta.
Esta técnica, llamada interpolación lineal, se ilustra en forma gráfica en la figura
18.2. Mediante triángulos semejantes,
la cual se puede reordenar para dar
que es una fórmula de interpolación lineal. La notación f(x) designa que es una
interpolación de polinomios de primer orden. Observe que además de representar
la
pendiente de la línea que conecta los puntos, el término [f(x1) — f(x0)]/(x1 — x0)
es una aproximación por diferencia dividida finita de la primera derivada [recuerde
la ecuación (4.17). En general, cuanto más pequeño sea el intervalo de datos,
mejor será la aproximación. Esto se debe al hecho de que, en tanto el intervalo
disminuya, una función continua se aproximará mejor por una línea recta.
Integración y diferenciación numérica Teorema del resto
Sea f (x) una función de R en R de clase C n−1 (o sea, continua y con derivadas
hasta orden n − 1 continuas) en el intervalo cerrado [x, x + h] y cuya derivada
de orden n existe en el intervalo abierto ]x, x + h[. Entonces existe algún punto
ξ ∈]x, x + h[ tal que
El teorema es de existencia, es decir, dice que tal punto ξ esta entre x y x + h, pero no cual
es. En cualquier caso, conociendo los valores mınimo y maximo de las derivadas en [x, x +
h] el teorema, como veremos despues, puede servir para acotar el error cometido en un
desarrollo en serie.
Propiedad de D’Arboux
Sea f (x) contınua en el intervalo cerrado [a, b], y supongamos que f (a) ≤ f (b). Entonces, ∀y
∈
]f (a), f (b)[ existe un punto ξ ∈]a, b[ tal que f (ξ) = y. Es decir, todos los valores
comprendidos entre los que la funcion toma en los dos extremos del intervalo se alcanzan
en al menos uno de los puntos interiores del mismo.
Diferenciacion numerica
Metodos directos
Dada una funcion f de clase C 1 definida sobre un intervalo [x, x + h], estamos interesados
en calcular su derivada f 0(x) en el punto x. Para ello, partimos de la definicion de
derivada:
Entonces, podemos tomar un valor h pequeno y hacer una primera estimacion del valor de
la derivada como
Sin embargo, esta aproximacion no permite acotar el error cometido. No obstante, si
recurrimos a desarrollar en serie f alrededor de x hasta orden n-1, con resto de orden n,
obtenemos
Podemos particularizar a n = 2 y despejar f 0(x) como
Como quiera que, si la derivada segunda existe en ]x, x + h[, el segundo termino tiende a 0
al tender h a 0, este termino da el error cometido cuando no lo consideramos, es decir,
cuando aproximamos usando la ecuacion (6.1).
Ejemplo: usar la ecuacion (6.1) para evaluar la derivada de
tomando h = 0,01, y evaluar luego el error cometido usando la ecuacion (6.2).
El término de error será
de modo que la cota superior para el error será Ası pues,
Como hemos visto, el termino de error es proporcional al tamano del paso, h. Por
ello, deberıa tomarse un tamano de paso pequeno. Alternativamente, podemos
preguntarnos si existen formulas mas precisas, que hagan el error proporcional a otras
potencias de h. En efecto, si tomamos tres terminos del desarrollo en serie de Taylor de
f alrededor de x, y ademas usamos dos valores de h, uno positivo y otro negativo,
obtenemos
Restando dichas ecuaciones, y despejando la derivada se obtiene
Si ahora suponemos que f es al menos de clase C 3 en el intervalo] ξ 1 , ξ2[, por la propiedad
de D’Arboux, existe un punto ξ ∈]ξ1, ξ2 [ tal que con lo que la derivada
queda
Observemos que el termino de error es ahora del orden de h2 , que si h es pequena, es
menor que h, resultado obtenido en el caso anterior.
Por otra parte, es posible tambien usar ecuaciones similares a la (6.3) para calcular
derivadas de orden superior. Por ejemplo, para la segunda,
Sumando ambas ecuaciones, usando de nuevo la propiedad de D’Arboux para la derivada
cuarta, y despejando f’’(x), queda
Se deja como ejercicio el calculo de una expresion similar para la derivada tercera.
Notese que el calculo de cualquier derivada involucra al valor de la funcion en puntos x +h
o x − h. Si la funcion es conocida explıcitamente (p. ej., si tenemos su expresion analıtica,
o un algoritmo seguro para su calculo) esto es razonable. Pero si la funcion es el resultado
de algun experimento, o debe estimarse por procedimientos que vengan afectados de gran
error, no deberıan usarse las formulas anteriores para la estimacion de la derivada, dado
que las diferencias entre dos cantidades muy proximas que aparecen en los numeradores,
ası como la division por cantidades muy pequenas, amplifican los errores.
Extrapolacion de Richardson
Con este procedimiento trataremos de mejorar las ecuaciones obtenidas anteriormente para
conseguir aun mas precision en la estimacion de la derivada de f en un punto x. Supongamos
que f (x) es de clase C n en [x, x + h]. En tal caso, su desarrollo en serie de Taylor
alrededor de x para los puntos x + h y x − h sera de la forma
Restando ambas ecuaciones, todos los terminos de orden par se cancelan, resultando
de donde, despejando f 0(x),
lo que se puede escribir como
en la que L = f 0(x), la funcion ϕ(h) se define como
Notese que, debido a su definicion, con h en el denominador, ϕ(h) solo
puede evaluarse para valores de h distintos de 0, aunque arbitrariamente
proximos. Notese igualmente que el error si damos ϕ(h) como valor para la
derivada depende de terminos en potencias de h, siendo el termino
dominante el correspondiente a h2 . La ecuacion (6.8) da la primera
estimacion de la derivada usando el metodo de Richardson, pero se puede
continuar para conseguir que el termino dominante del error sea aun mas
pequeno. Para ello, escribamos la ecuacion (6.8) evaluandola en h/2 lo que
da
Restandole ahora a la ecuacion (6.9) multiplicada por 4 la ecuacion (6.8), obtenemos
de donde podemos despejar la derivada L que buscamos como
Esto significa que, usando una simple combinacion de hemos obtenido
una precision del orden de h4 , frente al orden h2 que habıamos obtenido usando solo ϕ(h). Analogamente se puede repetir el proceso tantas veces como se quiera; el siguente paso
definirıa con lo que la ecuacion (6.10) evaluada en h y en h/2
queda
de donde se puede despejar L, multiplicando la segunda ecuacion por 16 y restandole
la primera:
que es una estimacion de f 0(x) con precision del orden de h6 . Escogido un valor apropiado, digamos 1, para h, la repeticion del proceso lleva a la siguiente formula general: