integración numérica de sistemas lineales...
Post on 10-Apr-2020
0 Views
Preview:
TRANSCRIPT
Integración numérica de sistemas lineales perturbados
José Antonio Reyes Perales
UNIVERSIDAD DE ALICANTE Departamento de Matemática Aplicada
Integración numérica de sistemas lineales
perturbados
José Antonio Reyes Perales Alicante - 2003
UNIVERSIDAD DE ALICANTE Departamento de Matemática Aplicada
Integración numérica de sistemas lineales perturbados
Memoria que presenta D. José Antonio Reyes Perales para optar al grado de Doctor en Ciencias (Sección Matemáticas)
El presente trabajo ha sido dirigido por los Doctores: Don José Manuel Ferrándiz Leal, Catedrático, Jefe del Departamento de Matemática Aplicada de la Escuela Politécnica Superior de Alicante y Don Jesús Vigo Aguiar, Profesor Titular de universidad del Departamento de Matemática Pura y Aplicada de la Universidad de Salamanca, a quienes debo agradecer la propuesta del tema así como su constante ayuda durante la elaboración del mismo.
Quiero hacer patente también mi agradecimiento, a todos mis compañeros del Departamento de Matemática Aplicada de la E.P.S.A., por su apoyo y colaboración.
A mi esposa Auxiliadora e hijas, Mª Auxiliadora y Mª
Victoria, por su comprensión y confianza durante estas años.
Finalmente quiero manifestar mi agradecimiento a todas aquellas personas que, con su constante aliento, han hecho posible esta Memoria.
Índice General
Prólogo v
1 Las funciones G de Scheifele 1
1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 G-funciones para sistemas lineales perturbados . . . . . . . . . . . . . 4
1.3 Desarrollos …nitos y desarrollos en G-funciones . . . . . . . . . . . . . 10
1.3.1 Error de truncación . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Métodos de cálculo de las G-funciones . . . . . . . . . . . . . . . . . . 15
1.4.1 Mediante una ecuación diferencial . . . . . . . . . . . . . . . . 15
1.4.2 Mediante desarrollos en serie . . . . . . . . . . . . . . . . . . . 16
1.4.3 Mediante la ley de recurrencia . . . . . . . . . . . . . . . . . . 17
1.4.4 Mediante el procedimiento de eliminacion lineal de Richardson 17
1.5 Notas a los métodos de cálculo de G-funciones . . . . . . . . . . . . . 28
1.6 Las G-funciones de Scheifele como método de integración numérica . . 29
1.6.1 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.6.2 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.6.3 Notas a los ejemplos del capítulo . . . . . . . . . . . . . . . . 37
i
ii
1.7 Figuras capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.7.1 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.7.2 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2 Métodos numéricos multipaso variable para la integración de siste-
mas lineales perturbados 41
2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2 Método explícito de p pasos E.I.pE para sistemas lineales perturbados 43
2.2.1 Estableciendo el método multipaso explícito . . . . . . . . . . 48
2.3 Método implícito de p pasos E.I.pI para sistemas lineales perturbados 52
2.3.1 Estableciendo el método multipaso implícito . . . . . . . . . . 55
2.4 Método predictor corrector E.I.pPC para sistemas lineales perturbados 58
3 Implementación de los métodos multipaso variable para la integra-
ción de sistemas lineales perturbados 61
3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Polinomios Simétricos . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3 Cálculo recurrente de las matrices A¡tp y B¡tp . . . . . . . . . . . . . . 69
3.3.1 Cálculo recurrente de A¡tp . . . . . . . . . . . . . . . . . . . . . 70
3.3.2 Cálculo recurrente de B¡tp . . . . . . . . . . . . . . . . . . . . . 74
3.4 Rede…nición de los métodos: E.I.pE, E.I.pI y E.I.pPC . . . . . . . . . 77
3.4.1 Método E.I.pE . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4.2 Método E.I.pI . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.4.3 Método E.I.pPC . . . . . . . . . . . . . . . . . . . . . . . . . . 82
iii
3.5 Códigos para los métodos: E.I.pE y E.I.pPC . . . . . . . . . . . . . . 82
3.5.1 Código para E.I.pE . . . . . . . . . . . . . . . . . . . . . . . . 82
3.5.2 Código para E.I.pPC . . . . . . . . . . . . . . . . . . . . . . . 83
3.6 Ejemplos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.6.1 Problemas sti¤ . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.6.2 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.6.3 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.6.4 Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.6.5 Ejemplo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.6.6 Ejemplo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
3.6.7 Ejemplo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.7 Figuras capítulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.7.1 Ejemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
3.7.2 Ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.7.3 Ejemplo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.7.4 Ejemplo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.7.5 Ejemplo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7.6 Ejemplo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Anexo I 117
Anexo II 119
Anexo III 121
Prólogo
Muchos problemas físicos adoptan la forma de un sistema lineal perturbado, bien de
forma directa o bien efectuando una transformación adecuada de variables.
Para la resolución de la ecuación no lineal del movimiento newtoniano correspon-
diente al problema de dos cuerpos, se han empleado métodos re…nados de cálculo de
órbitas. En general se sustituye la ecuación de Newton por unas nuevas ecuaciones
mejor acondicionadas para la integración numérica, como los metodos introducidos
por Encke [71], las variables universales de Battin [2] o las transformaciones que re-
gularizan las ecuaciones del movimiento entre las que destacan las KS [82] y las BF
[22],[23].
En mecánica celeste, las transformaciones que permiten escribir las ecuaciones
del movimiento mediante ecuaciones diferenciales lineales se denominan linealizacio-
nes. No hay que confundir esta terminología con la que signi…ca desarrollar en serie
de Taylor y conserva sólo la parte lineal, pues las transformaciones anteriores, son
exactas, y reducen las ecuaciones del movimiento a osciladores armónicos. Suelen
conseguirse efectuando un cambio de variable independiente, que produce una regu-
larización analítica del tamaño del paso de integración, asociada o no con cambios de
v
vi
variables dependientes. Con el …n de regularizar el movimiento de una partícula se
pueden ensayar distintos métodos: como transformaciones clásicas válidas cuando el
movimiento se realiza en el plano, encontramos la dada en 1895 por Thiele, la de Bir-
kho¤ en 1915 o la de Levi-Civita en 1906, esta última permite una linealización, una
integración más fácil y una teoría de perturbaciones sencilla. Todas ellas se aplicaron
al problema de tres cuerpos.[83].
La linealización más extendida es la KS de Kunstaanheimo - Stiefel, introducida
en 1964, que generaliza a espacios de dimensión tres la transformación de Levi - Ci-
vita, permitiendo la reducción de las ecuaciones del movimiento a cuatro osciladores
armónicos perturbados, al tomar como variable independiente la anomalía excéntri-
ca. Cuando se emplea la anomalía verdadera como variable independiente, obtenemos
otra linealización importante, la BF, de Burdet - Ferrándiz, que compitiendo venta-
josamente con los reputados métodos KS, es especialmente valiosa en la integración
numérica de órbitas altamente excéntricas; sin embargo, la integración de la ecuación
del tiempo asociado a la anomalía verdadera produce grandes errores en la determi-
nación del tiempo físico, por lo que éste debe calcularse por un método alternativo
[27],[30],[31],[32].
Para predecir la órbita de un satélite arti…cial, es necesario elaborar un determina-
do modelo que la describa, pudiéndose encontrar serios inconvenientes en predicciones
a largo plazo, o, en el caso de órbitas muy excéntricas, dado que la velocidad del sa-
télite en el perigeo es grande y esta circunstancia, unida a la fuerte curvatura de la
trayectoria, puede provocar pérdida de precisión en la integración numérica aunque
se utilicen modelos sencillos [86]. Para mejorar la precisión en el cálculo de órbitas
vii
existen diversas vías, que a veces resultan complementarias una de las más modernas
y e…cientes se obtiene en dos pasos: el primero consiste, como ya se ha señalado,
en la elección de ecuaciones bien planeadas para la integración numérica, el segundo
en la implementación de métodos numéricos no standar adaptados a la ecuación del
movimiento.
Los orígenes de estas últimas técnicas pueden situarse en los trabajos de Gautschi
de 1961 [39], que desarrollan la teoría básica y algoritmos capaces de integrar sin
error de truncación osciladores con una frecuencia. El desarrollo de los métodos
clásicos en diferencias …nitas para la integración numérica y las técnicas para su
aplicación, se presentan en la bibliografía sobre métodos numéricos de ecuaciones
diferenciales [43],[44],[50],[64]. Un primer método es dado por Cowell [82]. En 1969
Stiefel y Bettis introdujeron cambios en el método de Cowell de orden superior a
dos para lograr la integración exacta de las funciones circulares seno y coseno con
una misma frecuencia. En 1970 Bettis [3] propuso modi…caciones a los métodos
clásicos de diferencias de Adams - Moulton y Adams - Bashforth para ecuaciones de
primer orden, y de Störmer y Cowell en el caso de ecuaciones de orden dos, dando de
ellos una formulación uni…cada, pero no explícita, de los coe…cientes de los métodos
anteriormente mencionados. La formulación era de paso constante y válida para orden
arbitrario.
Siguiendo la línea abierta por Gautschi se encuentran trabajos como los de Neta
y Ford en 1984 [63], en los que se da una familia de métodos para integrar ecuaciones
diferenciales ordinarias de primer y segundo orden, estos métodos pueden ser re…nados
con un conocimiento, a priori, del usuario, en la localización de frecuencias que son
viii
dominantes en la solución exacta; con esta información el error de truncación queda
considerablemente reducido en magnitud, por lo que estos métodos suponen una
modi…cación de los métodos de Milne - Simpson; o en una vía diferente los de Scheifele
que en 1971 [74], obtuvo un re…namiento del método de Taylor basado en sus funciones
Gk, que se utilizan para de…nir series que permiten construir un método de integración
numérica, con la propiedad de que si los términos de perturbación son eliminados,
entonces el método numérico integra exactamente el correspondiente problema no
perturbado; los de Van Dooren en 1984 [84], Cash en 1981 [5], Franco, Correas y
Petriz, en 1991 haciendo especial hincapié en la construcción de esquemas del tipo
de Störmer - Cowell [37] y Vigo en 1993 [86],[88],[90]. Los algoritmos citados se
caracterizan por la dependencia de sus coe…cientes respecto del producto del paso
por la frecuencia. La extensión de parte de la teoría clásica de métodos multipaso
lineales [44] al caso de coe…cientes dependientes del paso puede verse en Lyche en 1972
[53], donde además encontramos un lema que nos permite obtener métodos adaptados
a exponenciales complejas o reales. Algunos métodos que permiten integrar productos
de polinomios ordinarios y exponenciales reales sin error de truncamiento, basados en
este lema, pueden verse en Raptis o Simos [72], [73], entre otros.
Recientemente se han utilizado métodos que emplean productos matriz - vector
con la exponencial o una función relacionada con el jacobiano para la integración
numérica de sistemas altamente sti¤ de ecuaciones diferenciales [47]. Estos proble-
mas pueden ser aproximados por los métodos de subespacios de Krylov [7],[47], que
convergen mas rápidamente que las soluciones propuestas por métodos standar de
integración de problemas sti¤. Estos métodos exponenciales presentan propiedades
ix
favorables para la integración de ecuaciones diferenciales cuyo jacobiano tiene auto-
valores imaginarios grandes. Se utilizan en experimentos con problemas de reacción
- difusión y en la ecuación de Schrödinger dependiente del tiempo.
En lo que sigue nos proponemos desarrollar métodos numéricos para la resolución
de problemas perturbados del tipo: x00= Ax + "f (x; t) con x(0) = x0, llamados
sistemas lineales perturbados. El pequeño parámetro " indica que los términos de
la perturbación son pequeños con respecto al resto de los términos. Construiremos
métodos en los que si los términos de perturbación son eliminados, el método numérico
integra exactamente el correspondiente sistema homogéneo. Para ello, nos basamos en
el método de las G-funciones de Scheifele que poseen esa propiedad, y construiremos
a partir de él, métodos multipaso con esta propiedad, de implementación más sencilla
que el de Scheifele, cuando el problema sea perturbado estos métodos darán lugar a
expresiones del error que tienen al parámetro " como factor.
El trabajo desarrollado en esta memoria se ha dividido en tres capítulos.
En el Capítulo 1, se describe el método original de Scheifele y sus propiedades,
completándose la exposición con ejemplos numéricos comparados con el método LSO-
DE, efectuando sobre estos problemas los acondicionamientos necesarios para su inte-
gración. Como idea nueva, se exponen diversos procedimientos para el cálculo de las
G-funciones de Scheifele, destacando los basados en la extrapolación de Richardson.
La construcción de un método multipaso de paso variable para la integración de
sistemas lineales perturbados, se realiza en el Capítulo 2, basándose en el método de
Scheifele, y presentando ventajas, frente a otros que también se fundamentan en el
método de Scheifele, como el SMF [56], [57]. Entre estas ventajas se puede citar que
x
el cálculo de sus coe…cientes es fácilmente computable, al aproximar las derivadas que
aparecen en las fórmulas que de…nen el método, por diferencias divididas y la de ser
un método de paso variable.
Se tratan en el Capítulo 3, los métodos EIpE ( Integrador Exponencial de p pasos
Explícito ), EIpI ( Integrador Exponencial de p pasos Implícito ) y EIpPE ( Inte-
grador Exponencial de p pasos Predictor-Corrector ), descritos anteriormente pero
con sus coe…cientes matriciales expresados en forma recurrente, lo que facilita su im-
plementación en un computador y supone una ventaja frente a otros métodos; se
exponen, a continuación, los códigos de estos algoritmos implementados en MAPLE
V. La memoria se completa con varios ejemplos numéricos en los que se utilizan los
nuevos algoritmos y se comparan con códigos bien conocidos como LSODE, GEAR
y MGEAR. En estos últimos se emplean las implementaciones de Maple V para ase-
gurar que los resultados no quedan distorsionados por una mala programación que
favorezca a nuestros códigos.
El bene…cio producido por el uso de los nuevos algoritmos resulta patente en los
ejemplos, cuando se aplican a los problemas para los que han sido diseñados.
Capítulo 1
Las funciones G de Scheifele
1.1 Introducción
En este capítulo se va a desarrollar un método numérico adaptado a la solución de
problemas de perturbación del tipo:
x0= Ax + "f (x; t ) ; x(0) = x0;
donde A es una matriz regular de orden n, " es un pequeño parámetro de perturbación
y el vector x tiene por componentes a las funciones xi(t) con i = 1 : : : n. El campo
vectorial de perturbación f (x; t ) tiene de componentes fi(x; t ) con i = 1 : : : n y es
continuo, con derivadas continuas hasta un cierto orden que satisfaga las condiciones
de existencia y unicidad de las soluciones. A este tipo de sistema se le llama sistema
lineal perturbado.
El procedimiento más básico para la integración numérica de sistemas lineales
perturbados mediante métodos de un paso es aproximar la solución mediante un
1
2
desarrollo de Taylor ,[94],[43]. Este desarrollo se trunca y los coe…cientes del polinomio
resultante se evalúan en cada paso de integración.
Los métodos de tipo Runge-Kutta [18],[50],[56],[62],[64] tienen la gran ventaja
de no necesitar información acerca de las derivadas de la función de perturbación,
la desventaja de que adolecen es la di…cultad, o más bien, el trabajo que requiere
la construcción de un método de Runge-Kutta de orden mayor que cuatro y el gran
número de evaluaciones que precisa su implementación con el consiguiente incremento
de coste computacional.
Otra forma de evitar el cálculo de las derivadas de la función de perturbación
es representar sus campos componentes fi(x; t) con i = 1 : : : n mediante expresiones
sencillas con fórmulas de recurrencia para los coe…cientes aij de los desarrollos en
series de potencias del tipo:
xi(t) = ai0 + ai1t + ai2t2 + :::
donde xi son las componentes de la solución x del sistema. La técnica para establecer
estas fórmulas de recurrencia fue desarrollada por Ste¤ensen [77],[78],[79]. La des-
ventaja de este método directo de series de potencias es el tiempo de computación
de estas recurrencias, que puede ser alto si f (x; t) posee una dependencia funcional
complicada.
Es deseable que los métodos numéricos que se utilicen en la resolución de sistemas
lineales perturbados veri…quen la siguiente propiedad, [82]: si los términos de pertur-
bación desaparecen en un instante arbitrario de la variable independiente t (o de s),
entonces el método numérico debería integrar sin error de discretización el sistema no
3
perturbado.
Un ejemplo clásico de la física se presenta en la ecuación de Newton:
::x +
k2
r3x = P con k2 = G(M +m)
así como en las ecuaciones regularizadas:
u00+h
2u = ¡
1
4
@
@u
¡kuk2 V
¢+
kuk2
2
¡LtP
¢
que se expresan, en términos de sus componentes:
u00
j +h
2uj = ¡
1
4
@
@uj
¡kuk2 V
¢+
kuk2
2
¡LtP
¢j
j = 1; 2; 3; 4:
h0= ¡ kuk2
@V
@t¡ 2
³u0; LtP
´con t
0= kuk2
obteniéndose un sistema lineal perturbado con tal que los términos que contengan
a V y a P sean considerados como términos de perturbación, [82]. Las ecuaciones
newtonianas se integran a menudo por las fórmulas clásicas de Runge-Kutta o por
métodos de diferencias …nitas, pero estos procedimientos no veri…can la propiedad
anteriormente expuesta. Esta condición tampoco la satisface el método de Encke,
[86], que se caracteriza por el cálculo de la desviación de las coordenadas perturbadas
con respecto a un movimiento osculatriz adoptado inicialmente.
En este capítulo, presentamos el método de integración numérica descrito por
Scheifele,[88],[56],[57],[74],[82], para integrar sistemas lineales perturbados, ilustrán-
dolo con ejemplos numéricos y comparándolo con otros métodos. El método de Sche-
feile está basado en un re…namiento de las series de potencias de Taylor, y consiste
en de…nir una sucesión de funciones Gj que sirven como base para construir la so-
lución como combinación lineal de ellas, calculándose sus coe…cientes por fórmulas
4
de recurrencia. Dicha solución se utilizará para construir un método de integración
numérica.
El método de las G - funciones de Scheifele presenta la ventaja de veri…car, no sólo
la propiedad anteriormente expresada, sino que además integra, con sólo el primer
término, el problema homogéneo.
1.2 G-funciones para sistemas lineales perturbados
Para desarrollar la idea básica de este capítulo, consideremos el PVI anterior. Supon-
gamos que la función de perturbación g(t) = f (x; t) admite un desarrollo en serie de
la forma:
f (x; t) =1X
k=0
tk
k!ck+1
con lo que el problema de valores iniciales se puede escribir como:
x0
= Ax + "1X
k=0
tk
k!ck+1 ; x(0) = x0;
La solución del PVI, expresado de esta última forma, puede obtenerse del modo
usual, construyendo la solución general del sistema homogéneo con la condición inicial
dada y añadiendo una solución del problema completo con la condición inicial nula.
La solución del problema completo con la condición inicial nula se puede obtener
resolviendo los siguientes PVI individuales:
¡xkj
¢0= A xkj + e
k tj
j!
xkj (0) = 0
j = 0; 1; 2; ::: k = 1; 2; :::; n
5
donde:
xkj 2 M(n; 1;R)
ek = (0; :::;k)
1; :::; 0)t
y combinándolos de forma adecuada con los coe…cientes " y ck.
Con el …n de simpli…car la notación introducimos las matrices cuadradas de orden
n cuyas columnas son las matrices xkj , es decir:
Xj =¡x1j ; x
2j ; : : : ; x
nj
¢con j = 0; 1; 2; :::
evidentemente, estas matrices son soluciones del siguiente PVI:
X0
j = AXj +tj
j !I ; Xj(0) = 0 ; j = 0; 1; :::
dondeXj es una función real con valores en el anillo M(n,R) de las matrices cuadradas
de orden n, siendo I y 0 , respectivamente, los elementos unidad y neutro de este anillo.
De…nition 1 Las soluciones de estos problemas son las G-funciones de Scheifele [74]
y se denotarán como:
Gj+1 (t) = Xj (t) ; j = 0; 1; :::
Aunque la notación no lo indica explícitamente, estas funciones dependen de A.
Proposition 2 Las G-funciones de Scheifele cumplen:
G0
j (t) = Gj¡1 (t) j = 2; 3; :::
D/.
6
Bastará probar que veri…can el mismo P V I. En efecto, Gj (t) satisface la ecuación
siguiente:
G0
j (t) = AGj (t) +tj¡1
(j ¡ 1)!I ; Gj (0) = 0 ; j = 2; 3; :::
y derivando la expresión anterior se obtiene:
(G0
j (t))0= AG
0
j (t) +tj¡2
(j ¡ 2)!I = Gj¡1 (t) j = 2; 3; :::
es decir: G0
j (t) es solución de la ecuación:
X0
j¡2 (t) = AXj¡2 (t) +tj¡2
(j ¡ 2)!I ; Xj¡2 (0) = 0 ; j = 2; 3; :::
y además:
G0
j (0) = AGj (0) + 0 = A0 = 0 desde j = 2; 3; :::Ä
De…nition 3 Completando la ley de diferenciación dada en (proposición no 2), de-
…nimos:
G0 (t) = G0
1 (t)
Por tanto:
Corollary 4 Las G-funciones de Scheifele, veri…can la siguiente relación de recu-
rrencia:
Gj (t) = AGj+1 (t) +tj
j!I ; j = 0; 1; :::
Corollary 5 La función G0 es solución del siguiente PVI:
x0= Ax ; x(0) = I
7
Veamos que la función G0; se puede expresar mediante un desarrollo en serie.
Desarrollando analíticamente la función G0;tenemos:
G0 (t) =1X
k=0
tk
k!Hk; donde Hk 2 M(n;R)
derivando la expresión anterior resulta:
G0
0 (t) =1X
k=1
tk¡1
(k ¡ 1)!Hk =
1X
k=0
tk
k!Hk+1:
Por (corolario no 5) :
1X
k=0
tk
k!Hk+1 = A
1X
k=0
tk
k!Hk =
1X
k=0
tk
k!AHk;
identi…cando, obtenemos que:
Hk+1 = AHk ; k = 0; 1; :::
y de aquí:
Hk = AkH0 ; k = 0; 1; :::
Del (corolario no 5) y de evaluar G0 (t) en t = 0; se deduce que:
H0 = I
Hk = Ak ; k = 1; :::
Luego:
G0 (t) =1X
k=0
tk
k!Ak = etA
Proposition 6 Las G-funciones de Scheifele se pueden expresar mediante desarrollos
en serie:
Gj (t) =1X
k=0
tk+j
(k + j )!Hk; Hk 2 M(n;R)
8
D/.
Evidentemente se veri…ca para j = 0; supongamos cierto que:
Gi (t) =1X
k=0
tk+i
(k + i)!Hk
como:
Gi+1 (t) =
Z
Gi (t) dt =1X
k=0
tk+i+1
(k + i + 1)!Hk
queda demostrado por aplicación del método de inducción completa.Ä
Los desarrollos anteriores nos llevan a las siguientes fórmulas explícitas para las
G-funciones:
G0(t) = eAt
G1(t) = A¡1¡eAt ¡ I
¢
G2(t) = A¡2¡eAt ¡ I
¢¡ tA¡1
G3(t) = A¡3¡eAt ¡ I
¢¡ tA¡2 ¡
t2
2!A¡1
...
Proposition 7 Una solución del problema:
x0
= Ax + "1X
k=0
tk
k!ck+1 ; x(0) = 0
es
xp = "1X
k=1
Gk(t)ck
D/. Como:
x0
p = "1X
k=1
G0
k(t)ck = "1X
k=1
Gk¡1(t)ck = "1X
k=0
Gk(t)ck+1
9
y además:
Axp + "1X
k=0
tk
k!ck+1 = A
Ã
"1X
k=1
Gk(t)ck
!
x + "1X
k=0
tk
k!ck+1 =
= "1X
k=0
µ
AGk+1(t) +tk
k!I
¶
ck+1 =
= "1X
k=0
Gk(t) ck+1
con
xp(0) = "1X
k=1
Gk(0)ck = 0
se veri…ca la proposición. Ä
Theorem 8 La solución del PVI:
x0
= Ax + "f (x; t ) ; x(0) = x0
adopta la forma:
x(t) = G0(t)x0 + "1X
k=1
Gk(t)ck
D/.Como :
x0¡ Ax = (G
0
0 (t) ¡ AG0 (t))x0 + "1X
k=1
(G0
k (t) ¡AGk(t))ck
de, (de…nición no3) y de (corolario no 4 y 5) se deduce que:
x0¡ Ax = 0x0 + "
1X
k=1
(Gk¡1 (t)¡ AGk(t))ck = "1X
k=1
tk¡1
(k ¡ 1)!ck
por consiguiente:
x0
¡ Ax ="1X
k=0
tk
k!ck+1
Además:
x(0) =G0(0)x0+ "1X
k=1
Gk(0)ck = Ix0 +0 = Ix0 = x0:Ä
10
1.3 Desarrollos …nitos y desarrollos en G-funciones
Desarrollando en serie de Taylor y truncando una solución x(t) del PVI:
x0= Ax + "f (x; t) ; x(0) = x0
obtenemos una aproximación de la solución, de la forma:
xm(t) =mX
k=0
tk
k!ak con ak = x
k)(0) 2 Rn
Al sustituir en la expresión anterior la relación de recurrencia (corolario no 4) y
teniendo en cuenta que las matrices Gk (t) y A conmutan., obtenemos:
xm(t) =mX
k=0
(Gk (t)¡ AGk+1 (t))ak =
= G0(t)a0+m¡1X
k=0
Gk+1 (t) (ak+1 ¡ Aak) ¡ Gm+1(t)Aam
De…niendo una nueva sucesión de coe…cientes, como:
b0 = a0; bk+1 = ak+1 ¡ Aak;
el desarrollo anterior se reduce a:
xm(t) =mX
k=0
Gk (t)bk ¡ Gm+1 (t)Aam
eliminando el último término, obtenemos una aproximación diferente:
Xm(t) =mX
k=0
Gk (t)bk
que proporciona mayor precisión que xm(t) =mP
k=0
tk
k! ak, como vamos a ver.
Para demostrar esto, nos restringimos al caso especial en el que f depende so-
lamente de t, pero citaremos después algunos resultados correspondientes al caso
general. En este caso especial:
11
f (t) =1X
k=0
tk
k!f k)(0)
Los coe…cientes de xm(t) =mP
k=0
tk
k!ak y Xm(t) =
mP
k=0
Gk (t)bk para el PVI:
x0(t) = Ax(t) + "f (t) ; x(0) = x0
vendrán dados por:
a0 = x0; ak+1 = Aak + "fk)(0)
b0 = x0; bk+1 = "fk)(0) = "ck+1
ya que, si:
x(t) =1X
k=0
tk
k!ak
es la solución del PVI, tenemos :
x(0) = x0 = a0:
Sustituyendo
x0
(t) =1X
k=0
tk
k!ak+1; x(t) =
1X
k=0
tk
k!ak y f (t ) =
1X
k=0
tk
k!f k)(0)
en el PVI resulta:
1X
k=0
tk
k!ak+1 = A
1X
k=0
tk
k!ak + "
1X
k=0
tk
k!f k)(0)
e identi…cando coe…cientes, obtenemos la relación:
ak+1 = Aak + "fk)(0)
12
Trivialmente:
b0 = x0
y
bk+1 = ak+1 ¡ Aak = Aak + "fk)(0) ¡ Aak = "f
k)(0) = "ck+1
entonces:
Xm(t) = G0 (t) x0 + "mX
k=1
Gk (t) fk¡1)(0)
Insertando esto, en el sistema lineal perturbado, obtenemos el residuo:
Rm(t) = "f (t)¡ (X0
m(t) ¡ AXm(t)) =
= "1X
k=0
tk
k!f k)(0) ¡ (
mX
k=0
G0
k (t)bk ¡ AmX
k=0
Gk (t)bk) =
= "1X
k=0
tk
k!f k)(0)¡
mX
k=1
(G0
k (t)bk ¡ AGk (t))bk =
= "1X
k=0
tk
k!f k)(0)¡
mX
k=1
tk¡1
(k ¡ 1)!bk =
= "
Ã1X
k=0
tk
k!f k)(0)¡
m¡1X
k=0
tk
k!f k)(0)
!
=
= "1X
k=m
tk
k!f k)(0)
Por otro lado, teniendo en cuenta que:
x0
m(t)¡ Axm(t) =m¡1X
k=0
(Gk (t) ¡ AGk+1 (t))(ak+1 ¡ Aak) ¡ (Gm (t)¡ AGm+1 (t))Aam
y (corolario no 4), el residuo correspondiente a xm(t) viene dado por:
rm(t) = "f (t)¡ (x0
m(t) ¡ Axm(t)) =
= "1X
k=0
tk
k!f k)(0) ¡
Ãm¡1X
k=0
tk
k!(ak+1 ¡ Aak) ¡
tm
m!Aam
!
=
13
= "1X
k=0
tk
k!f k)(0) ¡ "
m¡1X
k=0
tk
k!f k)(0) +
tm
m!Aam =
= "1X
k=m
tk
k!f k)(0) +
tm
m!Aam
De las expresiones de rm(t) y Rm(t) se obtienen importantes conclusiones. En
Rm(t) el parámetro de perturbación " es factor del residuo, por tanto Rm(t) es pe-
queño con ". En cambio, el residuo rm(t) no contiene este factor y en general no
es pequeño con ". Si " = 0 el método de series de potencias produce un error de
truncación y sin embargo el método de las G-funciones de Scheifele, [56],[74] con sólo
el primer término, integra exactamente el sistema de ecuaciones diferenciales.
Volviendo al caso general:
x0
= Ax + "f (x; t) ; x(0) = x0
bajo las hipótesis:
² La solución x(t) es holomór…ca en [¡T; T ] con T > 0
² Todas las derivadas parciales de f (x; t ) incluída la m-ésima son continuas en
un dominio cerrado, del espacio de las variables (x; t), que contiene a todos los
valores de la solución exacta x(t), ademas de las aproximaciones consideradas
xm(t) y Xm(t) en [¡T ; T ].
Entonces los residuos:
Rm(t) = "f (Xm(t); t)¡ (X0
m(t) ¡ AXm(t))
y
rm(t) = "f (xm(t); t)¡ (x0
m(t) ¡ Axm(t))
14
correspondientes, respectivamente, al método de las G-funciones y al método de des-
arrollos de Taylor satisfacen para t ! 0 las leyes asintóticas:
Rm(t) » " fm)(0)tm
m!
rm(t) »¡" fm)(0) + Aam
¢ tm
m!
es decir:
limt!0
Rm(t)
tm= "
fm)(0)
m!
limt!0
rm(t)
tm=
"fm)(0) + Aam
m!
Es importante notar [74] que esto es irrelevante si la derivada en las expresiones
anteriores se calcula mediante la inserción en f de la solución exacta x(t) o de una
de las soluciones aproximadas xm(t) y Xm(t):
1.3.1 Error de truncación
Desarrollando en serie de potencias la solución exacta del PVI:
x(t) =1X
k=0
tk
k!ak
y dado que:
ak+1 = Aak + "fk)(0)
se tiene:
x(t) =1X
k=0
tk
k!
¡Aak¡1 + "f
k¡1)(0)¢
15
El error de truncación para:
xm(t) =mX
k=0
tk
k!ak
es:
em = x(t)¡ xm(t) =1X
k=m+1
tk
k!ak =
tm+1
(m +1)!
¡Aam + "f
m)(0)¢+O(tm+1)
Por otra parte, expresando la solución del PVI, en términos de G-funciones:
x(t) = G0(t)x0 + "1X
k=1
Gk(t)ck
el error de truncación para:
Xm(t) =mX
k=0
Gk (t)bk
es:
Em = x(t) ¡Xm(t) = "1X
k=m+1
Gk (t) fk¡1)(0)
Si " = 0 el método de series de potencias produce un error de truncación y sin
embargo el método de las G-funciones de Scheifele, no genera error de truncación.
1.4 Métodos de cálculo de las G-funciones
1.4.1 Mediante una ecuación diferencial
El cálculo de las G-funciones de Scheifele para j¸1, se puede realizar resolviendo
numéricamente el siguiente sistema de ecuaciones diferenciales:
G0
j (t) = AGj (t) +tj¡1
(j ¡ 1)!I ; Gj (0) = 0 ; j = 1; 2; :::
16
Notamos Gj (t) = (gji;k) con j =1, 2, ... y A = (ai;k). Si sustituímos en la fórmula
anterior resulta:
(gji;k)0
= A(gji;k) +tj¡1
(j ¡ 1)!I ; (gji;k(0)) = 0
y de ahí:
gji;k0=
nX
l=1
ai;lgjl;k +
tj¡1
(j ¡ 1)!±i;k ; i; k = 1; 2; :::; n ; j = 1; 2; :::
Para cada j = 1, 2, ... obtenemos un sistema de ecuaciones diferenciales que se
puede resolver por metodos numéricos, tales como: rkf45, deverk78, gear, mgear,
lsode, etc [1],[6],[36],[40],[43],[64],[66]. Quedaría pendiente sólo el cálculo de G0 (t).
1.4.2 Mediante desarrollos en serie
Teniendo en cuenta que:
Gj (t) =1X
k=0
tk+j
(k + j)!Ak; donde A 2 M(n;R) ; j = 0; 1; :::
podemos escribir:
Gj (t) =1X
k=0
tk+j
(k + j)!Ak =
1X
i=j
ti
i!Ai¡j = A¡j
1X
i=j
ti
i!Ai =
= A¡j
Ã1X
i=0
ti
i!Ai¡
j¡1X
i=0
ti
i!Ai
!
= A¡j
Ã
G0 (t)¡
j¡1X
i=0
ti
i!Ai
!
j = 1; 2; :::
Este procedimiento, tiene el inconveniente de necesitar el cálculo de las matrices
inversas A¡1; A¡2; ... además del cálculo de G0 (t) :
17
1.4.3 Mediante la ley de recurrencia
Por la fórmula de recurrencia (corolario no 4) resulta que:
Gj+1 (t) = A¡1
µ
Gj (t) ¡tj
j !I
¶
; j = 0; 1; :::
obteniéndose en particular:
G1 (t) = A¡1 (G0 (t) ¡ I)
G2 (t) = A¡1 (G1 (t) ¡ tI )
...
de tal forma que una vez calculada G0 (t) = eAt, podemos conocer por aplicación de la
recurrencia las G-funciones de Scheifele que precisemos. El problema queda reducido
al cálculo de G0 (t) :
Este método presenta la ventaja respecto al anterior de que sólo hay que calcular
A¡1, reduciendo así los errores de cálculo.
1.4.4 Mediante el procedimiento de eliminacion lineal de Ri-
chardson
Aplicado sólo al cálculo de la función G0
Abordaremos el cálculo de G0 (t) = eAt, basándonos en los resultados expuestos por
Walz [92],[93], cuyo método es una aplicación del llamado método de eliminación para
el caso matricial, que ya era conocido para el caso escalar [58],[59].
18
De…nition 9 Sea ½1; ½2 ; ::: una sucesión de números complejos tales que 0 < Re ½1 <
Re ½2 < ...Sea I un intervalo real o un dominio complejo y S = f¾n(x)gn2N una
sucesión de funciones de…nidas en I. Se dice que S posee una expansión asintótica
(logarítmica) de orden m (m 2 N ó m = 1), si existen funciones f (x) y c¹(x) con ¹
= 1, ... , m , todas ellas independientes de n, tal que para todo x 2 I se veri…ca la
siguiente ecuación:
¾n(x) = f(x)+mX
¹=1
c¹(x)
n½¹+ O(n¡Re ½m+1) para n ! 1
Obviamente: limn!1
¾n(x) = f(x) y podemos usar ¾n(x) como una aproximación
de f(x) en I.
Esta aproximación presenta el problema de la lentitud de la convergencia de ¾n(x)
(el orden de convergencia es n¡½1 ), que hace poco e…ciente este método de aproxima-
ción; para paliar esta di…cultad emplearemos el procedimiento de eliminación lineal
de Richardson.
Lemma 10 Si ¾n(x) posee una expansión asintótica, del tipo anterior; escogiendo
un número
kmax 2 N con kmax < m
de…nimos:
y(0)i (x) = ¾2i(x) ; i = 0; :::; kmax
y(k)i (x) = y(k¡1)i+1 (x) +1
2½k ¡ 1
³y(k¡1)i+1 (x) ¡ y (k¡1)i (x)
´
con k = 1; :::; kmax; i = 0; :::; kmax ¡ k entonces las sucesiones
ny(k)i (x)
o
i2N
19
poseen la expansión asintótica:
y (k)i (x) = f (x)+mX
¹=k+1
c(k)¹ (x) ¢ 2¡i½¹ +O(2¡iRe ½m+1 ) para i ! 1
siendo 2¡i½k+1 el orden de convergencia de y(k)i .
Por regla general se elige el número y(kmax)0 (x) como una aproximación de f (x).
En [92],[93] se encuentran numerosos ejemplos, que muestran la e…ciencia de este
algoritmo en el caso escalar.
Proposition 11 La sucesión ¾n(x) =¡1 + x
n
¢ntiene una expansión asintótica f (x) =
ex.
D/.
Dado que:
ln(1 +x
n) =
x
n+
1X
¹=1
(¡1)¹
¹ + 1¢³x
n
´¹+1
entonces:
ln(1 +x
n)n = x+
1X
¹=1
(¡1)¹
¹ +1¢x¹+1
n¹= x+ S(n; x)
luego:
¾n(x) =³1 +
x
n
´n= ex+S(n;x) =
= exÃ
1+1X
¸=1
(S(n; x))¸
¸!
!
=
= ex+1X
¸=1
ex
¸!¢ (S(n; x))¸
De
S(n; x) =1X
¹=1
(¡1)¹
¹+ 1¢x¹+1
n¹=
1X
¹=1
¯¹+1;¹ ¢x¹+1
n¹
20
obtenemos:
(S(n; x))º =1X
¹=1
¯¹+2º¡1;¹+º¡1 ¢x¹+2º¡1
n¹+º¡1
entonces:
1X
¸=1
ex
¸!¢ (S(n; x))¸ =
= ex
Ã1X
¹=1
¯¹+1;¹ ¢x¹+1
1!n¹+ : : :+
1X
¹=1
¯¹+2p¡1;¹+p¡1 ¢x¹+2º¡1
p!n¹+º¡1+ : : :
!
=
= exµµ
¯21x2
1!
¶1
n+ : : :+
µ¯p+1;px
p+1
1!+ : : : +
¯2p;px2p
p!
¶1
np+ : : :
¶
llamando:
cº(x) = ex
µ¯º+1;º1!
¢ xº+1 + : : : +¯2º;ºº !
¢ x2º¶
y de…niendo
®º+j;º =¯º+j;º
j !
tenemos que:
cº(x) = ex¡®º+1;º ¢ xº+1 + : : : +®2º;º ¢ x2º
¢= ex
2ºX
i=º+1
®i;º ¢ xi
que no dependen de n.
Por consiguiente:
¾n(x) = ex+
X
º=1
cº(x)
nº:Ä
Theorem 12 Para un número complejo a y un número real ½ > 0, consideremos:
E(a; ½) = fz 2 C 0 jz ¡ aj < ½g
si f(z) es una función escalar, que admite una representación de la forma:
f(z) =1X
º=0
®º (z ¡ a)º
21
entonces para cada matriz cuadrada A, cuyos valores propios están en E(a; ½), la
matriz:
f (A) =1X
º=0
®º (A¡ aI)º
está bien de…nida [81].
Como consecuencia inmediata de este teorema, muchas funciones escalares cono-
cidas, se pueden rede…nir como funciones de matrices. En particular:
exp(A) = eA = I+1X
º=1
1
º !Aº
está bien de…nida, para cualquier matriz cuadrada A.
Una procedimiento inmediato para el cálculo numérico de eA consistiría en una
truncación del desarrollo anterior, presentando el inconveniente de un excesivo número
de multiplicaciones de matrices.
Existen otros métodos para la computación numérica de eA, tales como los descri-
tos en el los artículos de Moler y Van Loan [61] y Stickel [81]. Todos estos métodos
muestran algunas desventajas: inestabilidades numéricas, largo tiempo de computa-
ción y aplicabilidad para cierta clase de matrices. Recientemente se utilizan aproxi-
maciones en subespacios de Krylov [7], para la matriz exponencial [47].
El método de eliminación de Richardson se puede generalizar a funciones de ma-
trices [81] y no presenta ninguna de las di…cultades anteriores.
Theorem 13 Sea f (z) una función escalar uno-uno de…nida en
E(0; ½) = fz 2 C 0 jzj < ½g
22
con ½ > 0, tal que:
f(z) =1X
º=0
®ºzº con ®1 6= 0
entonces, para cada matriz cuadrada A con valores propios en E(0; ½), las funciones:
f (A)
y
¾n(A) = n ¢ ®1 ¢ f¡1µ1
n¢ f (A)
¶
están bien de…nidas. Además, se veri…ca la ecuación:
¾n(A) = f (A)+1X
º=1
1
nÀ¢ cÀ (A) 8n 2 N
Aplicando los resultados anteriores, podemos enunciar la siguiente proposición:
Proposition 14 La sucesión ¾n(A) =¡I + 1
nA¢n
tiene una expansión asintótica
f(A) = eA
Extendiendo el (lema no10) al caso matricial, obtenemos el algoritmo siguiente,
para el cálculo numérico de eA [93]:
(1) Escoger un índice maximal kmax.
(2) Desde i = 0 a kmax calcular Y (0)i = ¾2i(A)
(3) Desde k = 1 a kmax y desde i = 0; :::; (kmax ¡ k)
calcular
Y (k)i = Y (k¡1)i+1 + 12k¡1
¢³Y (k¡1)i+1 ¡ Y (k¡1)i
´
(4) Usar Y (kmax)0 como aproximación de eA
23
Como G0 (t) = eAt, bastará aplicar este algoritmo para obtener la primera de las
G-funciones de Scheifele; para el cálculo de las restantes, bastaría aplicar la relación
de recurrencia de (corolario no 4).
Se expone un procedimiento Maple V Release 4 que implementa el algoritmo,
anteriormente expuesto. Ver Anexo I.
Se ha elegido este código de cálculo simbólico, por la comodidad de programa-
ción, pues permite incorporar la matriz que de…ne el sistema como parámetro del
procedimiento.
Aplicado al cálculo de todas las G-funciones
El procedimiento anterior, no evita el cálculo de la matriz inversa del sistema, que
aparece en la recurrencia. Para evitar el cálculo de A¡1, procederemos como sigue.
Se ha demostrado que la función:
g0(x) = ex = 1+ x+
x2
2!+ : : :
es una expansión asintótica de:
¾(0)n (x) =³1 +
x
n
´n
Una generalización de lo anterior sería:
g1(x) =ex ¡ 1
x= 1+
x
2!+x2
3!+ : : :
es una expansión asintótica de:
¾(1)n (x) =nX
k=1
µn
k
¶xk¡1
nk:
24
y
g2(x) =ex ¡ 1¡ x
x2=1
2!+x
3!+x2
4!+ : : :
es una expansión asintótica de:
¾(2)n (x) =nX
k=2
µn
k
¶xk¡2
nk:
y que:
g3(x) =ex ¡ 1 ¡ x¡ x2
2!
x3=1
3!+x
4!+x2
5!+ : : :
es una expansión asintótica de:
¾(3)n (x) =nX
k=2
µn
k
¶xk¡3
nk¡
1
2!x:
...
En efecto:
Proposition 15 Las sucesiones:
¾(1)n (x) =nX
i=1
µn
i
¶xi¡1
ni
¾(2)n (x) =nX
i=2
µn
i
¶xi¡2
ni
y
¾(j)n (x) =nX
i=2
µn
i
¶xi¡j
ni¡
j¡1X
i=2
xi¡j
i!con j = 3
tienen por expansiones asintóticas a:
g1(x) =ex ¡ 1
x
g2(x) =ex ¡ 1¡ x
x2
25
y
gj(x) =1
xj
Ã
ex¡
j¡1X
i=0
xi
i!
!
respectivamente.
D/.
Dado que:
¾(0)n (x) = ex+
X
º=1
cº(x)
nº
Para el caso de ¾(1)n (x):
Como:
1
x
¡¾(0)n (x) ¡ 1
¢=1
x
0
@ex+X
º=1
cº(x)
nº¡ 1
1
A =1
x(ex ¡ 1) +
X
º=1
c1º(x)
nº
y
1
x
¡¾(0)n (x)¡ 1
¢=1
x
ÃnX
i=0
µn
i
¶xi
ni¡ 1
!
=nX
i=1
µn
i
¶xi¡1
ni= ¾(1)n (x)
entonces:
¾(1)n (x) =1
x(ex ¡ 1) +
X
º=1
c1º(x)
nº:
Para el caso de ¾(2)n (x):
Como:
1
x2
³¾(0)n (x) ¡ 1 ¡
x
1!
´=
=1
x2
0
@ex+X
º=1
cº(x)
nº¡ 1¡
x
1!
1
A =
=1
x2
³ex ¡ 1¡
x
1!
´+
X
º=1
c2º(x)
nº
26
y
1
x2
³¾(0)n (x)¡ 1 ¡
x
1!
´=
=1
x2
ÃnX
i=0
µn
i
¶xi
ni¡ 1¡ x
!
=
=nX
i=2
µn
i
¶xi¡2
ni= ¾(2)n (x)
entonces:
¾(2)n (x) =1
x2
³ex ¡ 1¡
x
1!
´+
X
º=1
c2º(x)
nº:
Para demostrar el caso general ¾(j)n (x) con j = 3, procederemos de un modo
análogo:
Dado que:
1
xj
Ã
¾(0)n (x)¡j¡1X
i=0
xi
i!
!
=
=1
xj
Ã
ex¡j¡1X
i=0
xi
i!
!
+X
º=1
cº(x)
xjnº=
=1
xj
Ã
ex¡j¡1X
i=0
xi
i!
!
+X
º=1
cjº(x)
nº
y como:
1
xj
Ã
¾(0)n (x)¡
j¡1X
i=0
xi
i!
!
=
=1
xj
ÃnP
i=2
µn
i
¶xi
ni¡
j¡1X
i=2
xi
i!
!
=
=nX
i=2
µn
i
¶xi¡j
ni¡
j¡1X
i=2
xi¡j
i!= ¾(j)n (x)
entonces:
¾(j)n (x) =1
xj
Ã
ex¡
j¡1X
i=0
xi
i!
!
+X
º=1
cjº(x)
nº:Ä
Si H 2 M(n,R), extendiendo el resultado anterior, al caso matricial, tenemos que:
G0(H) = eH
27
es una expansión asintótica de
¾(0)n (H) =
µ
I +H
n
¶n
y
G1(H) = H¡1
¡eH ¡ I
¢
es una expansión asintótica de
¾(1)n (H ) =nX
k=1
µn
k
¶Hk¡1
nk
análogamente
G2(H) = H¡2
¡eH ¡ I ¡ H
¢
es una expansión asintótica de
¾(2)n (H ) =nX
k=2
µn
k
¶Hk¡2
nk
para j = 3, tenemos que:
Gj(H) = H¡j
Ã
eH¡
j¡1X
i=0
Hi
i!
!
es una expansión asintótica de
¾(j)n (H) =nX
i=2
µn
i
¶Hi¡j
ni¡
j¡1X
i=2
Hi¡j
i!
Las funciones Gj(H) con j = 0, se pueden calcular, aplicando el procedimiento de
eliminación lineal de Richardson. Tomando H = At y considerando H0 = I tenemos:
Para el cálculo de Gj , para j = 0; por (corolario no 4) :
Gj(At) = (At)¡j
Ã
eAt¡
j¡1X
k=0
(At)k
k!
!
=1
tj¢ A¡j
Ã
eAt¡
j¡1X
k=0
Aktk
k!
!
=1
tj¢ Gj(t)
28
de donde:
Gj(t) = tj ¢ Gj(At)
A continuación se expone un procedimiento Maple V Release 4 que implementa
los algoritmos, anteriormente expuestos.
Procedimiento Maple V, para el cálculo de G1(t): Ver Anexo II.
Procedimiento Maple V, para el cálculo de G2(t): Ver Anexo III.
Procedimiento Maple V, para el cálculo de Gj(t) con j = 3: Ver Anexo IV.
En estos procedimientos, cabe resaltar, que no ha sido necesario el cálculo de la
inversa de ninguna matriz.
Utilizando este procedimiento, una forma alternativa y mas ágil, pues no requiere
el cálculo de las G-funciones, una a una, y no involucra el cálculo de la inversa de una
matriz, sería la siguiente:
(1) Calcular Gp(At), para p 2 N, su…cientemente alto.
(2) Computar Gp(t) = tpGp(At).
(3) Computar: Gj (t) = AGj+1 (t) + tj
j !I , j = (p¡ 1); :::; 0
1.5 Notas a los métodos de cálculo de G-funciones
En los casos en que la integración numérica del sistema lineal perturbado sea difícil,
como cuando los autovalores de A di…eren mucho, el cálculo de las G-funciones puede
presentar di…cultades.
Si los autovalores de A están en un pequeño entorno de cero y el tamaño de paso
es pequeño, el desarrollo en serie será adecuado para los cálculos de las Gj(h).
29
Para valores grandes de h; G0(h) podría ser calculado por métodos elementales,
usando funciones exponenciales y polinómicas. Las Gj(h) con j su…cientemente alto
se calculan entonces por la relación de recurrencia, expresada en este capítulo, la cual
requiere la matriz A¡1, y el proceso puede resultar numéricamente inestable.
En el caso en el que el desarrollo en serie de las Gj(h), no permite obtener el valor
de G0(h) hasta Gm(h) con una exactitud su…ciente, se determinarán estos valores por
un método de integración numérico ordinario. Es decir se integran las ecuaciones dife-
renciales que aparecen en la de…nición de las G-funciones, usando un tamaño de paso
de integración pequeño, comparado con [0; h]. Obsérvese, que este procedimiento,
francamente laborioso, sólo se realiza, una vez, al comienzo del método [74], [82].
Una alternativa, a estos métodos numéricos, es el procedimiento de eliminación
lineal de Richardson que permite el cálculo de las Gj(h) con mejor precisión [93].
1.6 Las G-funciones de Scheifele como método de
integración numérica
Se trata pues de integrar numéricamente el sistema siguiente:
x0
= Ax + " ¢ f (x;t)
x(0) = x0
donde
x : R ¡! Rm
A 2 M(m;R)
30
f : Rm £ R ¡! Rm
Para integrar este sistema con el método de las G-funciones, desarrollábamos la
función f (x;t) en la forma
f (x;t) =1X
k=0
tk
k!ck+1
y la solución, en términos de las G-funciones, venía dada por
x(t) = G0(t)x0 + "1X
k=1
Gk(t)ck
donde los ck son las derivadas de la función de perturbación
f (x(t);t) = g(t) = (g1(t); :::; gm(t))
Denotando por ti = ti¡1 + hi , i = 1; 2; :::, la malla de puntos en [a; b] y por
xi la aproximación a x(ti), suponiendo que tenemos calculada xn, para obtener una
aproximación de x(tn+1), consideramos el P.V.I.:
x0= Ax + " ¢ f (x;t)
x(tn) = xn
y al realizar el cambio de variable independiente: ¿ = t ¡ tn, el problema anterior se
transforma en:
x0= Ax + " ¢ f (x;¿ + tn)
x(0) = xn
31
El método de las G-funciones nos permite expresar xn+1 del modo siguiente:
xn+1 = G0(hn+1)xn + "pX
j=1
Gj(hn+1)gj¡1)(tn)
En esta sección, expondremos algunos ejemplos de aplicación de las G-funciones
de Scheifele, como método de integración numérica para el cálculo aproximado de las
soluciones de sistemas lineales perturbados.
Asimismo, se realizarán los acondicionamientos de dichos problemas, que sean ne-
cesarios, para una mayor facilidad en el cálculo aproximado de las soluciones mediante
el método de las G-funciones de Scheifele.
1.6.1 Ejemplo 1
Ejemplo propuesto, en [19].
Sea el sistema:
x 0
1= x
1
x 0
2= x
2+"
qx1
con las condiciones iniciales:
x1(0) = 1 ; x
2(0) = 0
cuya solución es:
x1(t) = et
x2(t) = 2" ¢ et(1 ¡ e¡
t2 )
32
Con el …n de acondicionar el problema, para su integración, se recurrirá a in-
troducir unas variables auxiliares, procedimiento que fue empleado por Ste¤ensen
[77],[78],[79], en la aplicación de métodos de series de Taylor.
De…niendo:
x3=
qx1
el sistema anterior se transforma en:
x 0
1= x
1
x 0
2= x
2+" ¢ x
3
x 0
3=
1
2¢ x
3
con autovalores: 1 (doble) y 12
(simple) y condiciones iniciales:
x1(0) = 1 ; x
2(0) = 0 ; x
3(0) = 1
Escribiendo el nuevo sistema en forma matricial:
0
BBBBBB@
x1
x2
x3
1
CCCCCCA
0
=
0
BBBBBB@
1 0 0
0 1 0
0 0 12
1
CCCCCCA
¢
0
BBBBBB@
x1
x2
x3
1
CCCCCCA
+ " ¢
0
BBBBBB@
0
x3
0
1
CCCCCCA
Sea x(t), la solución del problema anterior, que suponemos analítica, entonces:
0
BBBBBB@
x1
x2
x3
1
CCCCCCA
=1X
k=0
tk
k!¢
0
BBBBBBB@
ak;1
ak;2
ak;3
1
CCCCCCCA
33
que sustituída en la expresión anterior da lugar a:0
BBBBBBB@
ak+1;1
ak+1;2
ak+1;3
1
CCCCCCCA
=
0
BBBBBB@
1 0 0
0 1 0
0 0 12
1
CCCCCCA
¢
0
BBBBBBB@
ak;1
ak;2
ak;3
1
CCCCCCCA
+ " ¢
0
BBBBBB@
0
ak;3
0
1
CCCCCCA
que nos permite de…nir la siguiente sucesión de coe…cientes:
b0 = a00
BBBBBBB@
bk;1
bk;2
bk;3
1
CCCCCCCA
=
0
BBBBBB@
0
" ¢ ak¡1;3
0
1
CCCCCCA
con k = 1; 2; : : :
De esta forma ya podemos escribir la solución del problema en términos de G-
funciones de Scheifele, [74] como sigue
x(t) =1X
k=0
Gk(t) ¢
0
BBBBBBB@
bk;1
bk;2
bk;3
1
CCCCCCCA
una vez obtenido el valor de las G-funciones, denotando por x1 la aproximación a
x(h); la aproximación a la solución vendrá dada de la forma siguiente:
x1 =mX
k=0
Gk(t) ¢
0
BBBBBBB@
bk;1
bk;2
bk;3
1
CCCCCCCA
Para efectuar un segundo paso de integración se toma x1 como valor inicial y se realiza
el mismo proceso. No es necesario calcular el valor de las G-funciones por tenerlo del
primer paso.
34
Resumiendo, una vez obtenido el valor de las G-funciones, cada paso se completa
mediante el algoritmo siguiente:
a0 = xi0
BBBBBBB@
ak+1;1
ak+1;2
ak+1;3
1
CCCCCCCA
=
0
BBBBBB@
1 0 0
0 1 0
0 0 12
1
CCCCCCA
¢
0
BBBBBBB@
ak;1
ak;2
ak;3
1
CCCCCCCA
+ " ¢
0
BBBBBB@
0
ak;3
0
1
CCCCCCA
desde k = 0; :::
b0 = a00
BBBBBBB@
bk;1
bk;2
bk;3
1
CCCCCCCA
=
0
BBBBBB@
0
" ¢ ak¡1;3
0
1
CCCCCCA
desde k = 1; :::
xi+1 =mX
k=0
Gk(t) ¢
0
BBBBBBB@
bk;1
bk;2
bk;3
1
CCCCCCCA
En la (Figura no 1.1) se muestra el resultado obtenido al comparar el método
de las G-funciones con un método LSODE de tol = 10¡16. Para el método de las
G-funciones se tomaron ocho funciones G, la integración se realizó hasta t = 100, con
paso h = 001 y " = 10¡3.
1.6.2 Ejemplo 2
Ejemplo propuesto, en [26]
35
Consideremos un oscilador con perturbación resonante:
x 0
1(t) = x
2
x 0
2(t) = ¡x
1+" cos t
con las condiciones iniciales:
x1(0) = 1 ; x
2(0) = 0
cuya solución es:
x1(t) = cos(t) + "
2 t sin(t)
x2(t) =
¡"2
¡ 1¢sin(t) + "
2t cos(t)
Para facilitar la integración de…nimos:
x3= cos(t)
x4= sin(t)
y el sistema anterior se transforma en:
x 0
1= x
2
x 0
2= ¡x
1+" ¢ x
3
x 0
3= ¡x
4
x 0
4= x
3
con autovalores complejos: i (doble) y ¡i (doble) y condiciones iniciales:
x1(0) = 1 ; x
2(0) = 0 ; x
3(0) = 1 ; x
4(0) = 0
36
Escribiendo el nuevo sistema en forma matricial:0
BBBBBBBBBB@
x1
x2
x3
x4
1
CCCCCCCCCCA
0
=
0
BBBBBBBBBB@
0 1 0 0
¡1 0 0 0
0 0 0 ¡1
0 0 1 0
1
CCCCCCCCCCA
¢
0
BBBBBBBBBB@
x1
x2
x3
x4
1
CCCCCCCCCCA
+ " ¢
0
BBBBBBBBBB@
0
x3
0
0
1
CCCCCCCCCCA
Sea x(t), la solución del problema, que suponemos analítica, como en el Ejemplo
1.
Obteniéndose las siguientes recurrencias:0
BBBBBBBBBBB@
ak+1;1
ak+1;2
ak+1;3
ak+1;4
1
CCCCCCCCCCCA
=
0
BBBBBBBBBB@
0 1 0 0
¡1 0 0 0
0 0 0 ¡1
0 0 1 0
1
CCCCCCCCCCA
¢
0
BBBBBBBBBBB@
ak;1
ak;2
ak;3
ak;4
1
CCCCCCCCCCCA
+ " ¢
0
BBBBBBBBBB@
0
ak;3
0
0
1
CCCCCCCCCCA
0
BBBBBBBBBBB@
bk;1
bk;2
bk;3
bk;4
1
CCCCCCCCCCCA
=
0
BBBBBBBBBB@
0
" ¢ ak¡1;3
0
0
1
CCCCCCCCCCA
De este modo podemos escribir la solución del problema en términos de G-funciones
de Scheifele, como sigue:
x(t) =1X
k=0
Gk(t) ¢
0
BBBBBBBBBBB@
bk;1
bk;2
bk;3
bk;4
1
CCCCCCCCCCCA
37
En la (Figura no 1.2) se muestra el resultado obtenido al comparar el método
de ocho G-funciones con un método LSODE de tol = 10¡16. Para el método de las
G-funciones se tomaron ocho funciones G, la integración se realizó hasta t = 100, con
paso h = 001 y " = 10¡3.
1.6.3 Notas a los ejemplos del capítulo
Aunque los tiempos de CPU, tal como consta a pie de las …guras 1.1 y 1.2, son
sensiblemente mejores en el método de las G-funciones, éste es poco operativo debido a
que exige, como paso previo, la normalización del problema y presenta la considerable
di…cultad, de tener que construir en cada caso un fórmula recurrente para el cálculo
de los coe…cientes. De hecho el método de Scheifele es prácticamente imposible de
utilizar si los términos de perturbación son funciones complicadas.
38
1.7 Figuras capítulo 1
1.7.1 Ejemplo 1
t
log(error)
LSODE
G-8
Figura no 1.1
Método de 8 G-funciones, tamaño de paso 0.1 y " =10¡3
LSODE[backfunc] con tolerancia 10¡16
Tiempos de CPU.LSODE = 728.33 seg
G-8 = 626.14 seg
39
1.7.2 Ejemplo 2
t
G-8
LSODE
log(error)
Figura no 1.2.
Método de 8 G-funciones, tamaño de paso 0.1 y " =10¡3
LSODE[backfunc] con tolerancia 10¡16
Tiempos de CPU.LSODE = 879.13 seg
G-8 = 730.02 seg
Capítulo 2
Métodos numéricos multipaso
variable para la integración de
sistemas lineales perturbados
2.1 Introducción
En este capítulo se introduce un método multipaso variable adaptado para la resolu-
ción de sistemas lineales perturbados:
x0
= Ax + " ¢ f (x;t)
x(0) = x0
donde
x : R ¡! Rm ; A 2 M(m;R) ; f : Rm £ R ¡! Rm
Para la integración de este sistema, mediante un método multipaso variable, que
41
42
integre exactamente el problema homogéneo, partimos de un método que ya posee
esta propiedad, el método de G-funciones, desarrollado en el capítulo anterior.
La solución, en términos de las G-funciones, venía dada por
x(t) = G0(t)x0 + "1X
k=1
Gk(t)ck
donde los ck son las derivadas de la función de perturbación f (x(t);t) = g(t) =
(g1(t); :::; gm(t)).
Las G-funciones, como método de integración numérica, nos permite escribir:
xn+1 = G0(hn+1)xn + "pX
j=1
Gj(hn+1)gj¡1)(tn)
El cálculo de las gj¡1)(tn) es difícil para expresiones complicadas de la función de
perturbación, lo que di…culta su implementación en un computador.
El método multipaso que se presenta en este capítulo integra exactamente el pro-
blema homogéneo, y presenta la ventaja, frente al método de las G-funciones, de
la existencia de un procedimiento algebraico sencillo para la computación de los
coe…cientes del método, independientemente de cual sea el orden, lo que nos per-
mite lograr fácilmente cualquier método tanto de orden alto como de orden bajo
[15],[44],[48],[50],[53]. Esto se conseguirá aproximando las derivadas que aparecen
en el método de las G-funciones mediante diferencias divididas [60],[87],[89]. Tra-
bajaremos tanto métodos explícitos como métodos implicítos, que nos permitirán la
implementación de un método predictor corrector.
43
2.2 Método explícito de p pasos E.I.pE para siste-
mas lineales perturbados
Sea g : [a; b] ¡! R, una función real de variable real, representaremos por g[tn; :::; tn¡k]
con k = 0; 1; :::; n a la diferencia dividida de g de orden k en los argumentos tn; :::; tn¡k
de la variable t 2 [a; b] [60]. Consideramos que g(t) es analítica para simpli…car la
exposición.
Para construir un método multipaso variable explícito de p pasos, [88],[89],[90],
utilizamos hasta las diferencias divididas de orden p-1 de la función g(t), en los
argumentos tn; :::; tn¡p+1
De…nition 16 Sea
Pk(t) =tk
k!
y
Hi = tn ¡ tn¡i
Lemma 17 Las diferencias divididas de g (t) satisfacen la igualdad
g[tn; :::; tn¡i] =1X
j=0
Pj [0;¡H1; :::;¡Hi] ¢ gj)(tn)
D/.
Los desarrollos en tn de g(tn¡1); :::; g(tn¡i) nos permite escribir
g[tn; :::; tn¡i] =1X
j=0
cj ¢ gj)(tn)
44
donde las constantes cj dependen sólo de Hi = tn¡tn¡i. Para calcular cj consideramos
el punto tn = 0 y g = Pk, teniendo en cuenta que P j)k (0) = ±k;j , siendo ±k;j la delta
de Kronecker.Ä
Veamos algunos casos:
g[tn] = g(tn)
g[tn; tn¡1] =g[tn]¡ g[tn¡1]
tn ¡ tn¡1=
=1
tn ¡ tn¡1
Ã
g(tn)¡1X
j=0
gj)(tn)
j !¢ (tn¡1 ¡ tn)
j
!
=
=1X
j=1
¡(tn¡1 ¡ tn)j
(tn ¡ tn¡1)j!¢ gj)(tn) =
1X
j=0
cj ¢ gj)(tn)
donde
c0 = 0
cj =¡(tn¡1 ¡ tn)j
(tn ¡ tn¡1)j!con j = 1; 2; :::
comprobemos que los cj anteriores son iguales a Pj[0;¡H1]:
P0[0;¡H1] =1¡ 1
H1= 0 = c0
Pj [0;¡H1] =Pj[0]¡ Pj [¡H1]
H1=
¡(tn¡1¡ tn)j
(tn ¡ tn¡1)j != cj con j = 1; 2; :::
Análogamente
g [tn; tn¡1; tn¡2] =1X
j=1
(tn¡2¡ tn)(tn¡1 ¡ tn)j ¡ (tn¡1¡ tn)(tn¡2 ¡ tn)j
(tn ¡ tn¡1)(tn¡1 ¡ tn¡2)(tn ¡ tn¡2)j !¢ gj)(tn) =
=1X
j=0
cj ¢ gj)(tn)
donde
c0 = 0
45
cj =(tn¡2¡ tn)(tn¡1 ¡ tn)
j ¡ (tn¡1¡ tn)(tn¡2 ¡ tn)j
(tn ¡ tn¡1)(tn¡1¡ tn¡2)(tn ¡ tn¡2)j !con j = 1; 2; :::
comprobándose que
P0[0;¡H1;¡H2] =1
H2
µ0
H1¡
0
¡H1 + H2
¶
= 0 = c0
Pj [0;¡H1;¡H2] =¡H2(¡H1)j + H1(¡H2)j
j!H1H2(H2 ¡ H1)=
=(tn¡2 ¡ tn)(tn¡1 ¡ tn)j ¡ (tn¡1 ¡ tn)(tn¡2 ¡ tn)j
(tn ¡ tn¡1)(tn¡1¡ tn¡2)(tn ¡ tn¡2)j !
= cj con j = 1; 2; :::
Theorem 18 Denotando por Dp;n la matriz siguiente,de orden m£ p
Dp;n =
0
BBBBBBBBBB@
g1[tn] 1!g1[tn; tn¡1] ¢ ¢ ¢ (p¡ 1)!g1[tn; :::; tn¡(p¡1)]
g2[tn] 1!g2[tn; tn¡1] ¢ ¢ ¢ (p¡ 1)!g2[tn; :::; tn¡(p¡1)]
...... ¢ ¢ ¢
...
gm[tn] 1!gm[tn; tn¡1] ¢ ¢ ¢ (p¡ 1)!gm[tn; :::; tn¡(p¡1)]
1
CCCCCCCCCCA
y
H = maxfH1; :::; Hp¡1g
se veri…ca la igualdad:
Dtp;n = Ap
0
BBBBBBBBBB@
g1(tn) ¢ ¢ ¢ gm(tn)
g0
1(tn) ¢ ¢ ¢ g0
m(tn)
......
gp¡1)1 (tn) ¢ ¢ ¢ gp¡1)m (tn)
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp) ¢ ¢ ¢ O(H p)
O(Hp¡1) ¢ ¢ ¢ O(H p¡1)
......
O(H) ¢ ¢ ¢ O(H )
1
CCCCCCCCCCA
46
donde Ap es la matriz cuadrada de orden p
Ap =
0
BBBBBBBBBBBBBB@
1 P1[0] P2[0] ¢ ¢ ¢ Pp¡1[0]
0 1 1!P2[0;¡H1] ¢ ¢ ¢ 1!Pp¡1[0;¡H1]
0 0 1 ¢ ¢ ¢ 2!Pp¡1[0;¡H1;¡H2]
......
.... ..
...
0 0 0 ¢ ¢ ¢ 1
1
CCCCCCCCCCCCCCA
p£p
D/.
Aplicando a cada uno de los campos componentes gi(t) con i = 1; :::; m de la
función de perturbación g(t) el (lema no 17) y el hecho de que Pj [H1; :::; Hi+1] es de
orden j ¡ i en H, se obtienen las siguientes igualdades:
gi[tn] = P0[0]gi(tn) + P1[0]g0
i(tn) + ¢ ¢ ¢ + Pp¡1[0]gp¡1)i (tn) + O(H
p)
gi[tn; tn¡1] = P0[0;¡H1]gi(tn) + P1[0;¡H1]g0
i(tn) + ¢ ¢ ¢
¢ ¢ ¢ + Pp¡1[0;¡H1]gp¡1)i (tn) + O(H
p¡1)
...
gi[tn; :::; tn¡(p¡1)] = P0[0;¡H1;:::;¡Hp¡1]gi(tn) +P1[0;¡H1;:::;¡Hp¡1]g0
i(tn) + ¢ ¢ ¢
¢ ¢ ¢ + Pp¡1[0;¡H1;:::;¡Hp¡1]gp¡1)i (tn) + O(H)
matricialmente0
BBBBBBBBBB@
g1[tn] g2[tn] ¢ ¢ ¢ gm[tn]
g1[tn; tn¡1] g2[tn; tn¡1] ¢ ¢ ¢ gm[tn; tn¡1]
...... ¢ ¢ ¢
...
g1[tn; :::; tn¡(p¡1)] g2[tn; :::; tn¡(p¡1)] ¢ ¢ ¢ gm[tn; :::; tn¡(p¡1)]
1
CCCCCCCCCCA
=
47
=
0
BBBBBBBBBB@
P0[0] P1[0] ¢ ¢ ¢ Pp¡1[0]
P0[0;¡H1] P1[0;¡H1] ¢ ¢ ¢ Pp¡1[0;¡H1]
...... ¢ ¢ ¢
...
P0[0;¡H1; :::;¡Hp¡1] P1[0;¡H1; :::;¡Hp¡1] ¢ ¢ ¢ Pp¡1[0;¡H1; :::;¡Hp¡1]
1
CCCCCCCCCCA
£
0
BBBBBBBBBB@
g1(tn) g2(tn) ¢ ¢ ¢ gm(tn)
g0
1(tn) g0
2(tn) ¢ ¢ ¢ g0
m(tn)
...... ¢ ¢ ¢
...
gp¡1)1 (tn) gp¡1)2 (tn) ¢ ¢ ¢ gp¡1)m (tn)
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp) O(Hp) ¢ ¢ ¢ O(H p)
O(Hp¡1) O(Hp¡1) ¢ ¢ ¢ O(H p¡1)
...... ¢ ¢ ¢
...
O(H) O(H) ¢ ¢ ¢ O(H )
1
CCCCCCCCCCA
representando, simbólicamente el producto anterior, se obtiene la ecuación:
Xp£m = Yp£p £ Zp£m +Op£m
pudiéndose escribir la matriz Yp£p en la forma:
Yp£p =
0
BBBBBBBBBBBBBB@
1 0 0 ¢ ¢ ¢ 0
0 1 P2[0;¡H1] ¢ ¢ ¢ Pp¡1[0;¡H1]
0 0 12! ¢ ¢ ¢ Pp¡1[0;¡H1;¡H2]
......
.... . .
...
0 0 0 ¢ ¢ ¢ 1(p¡1)!
1
CCCCCCCCCCCCCCA
Sustituyendo en la ecuación precedente y efectuando las transformaciones elemen-
tales pertinentes para eliminar los cocientes de factoriales, resulta:
Dtp;n = Ap £ Zp£m + Op£m Ä
Corollary 19 La matriz Ap es inversible.
D/.
La demostración es inmediata, pues det(Ap) = 1 Ä
48
2.2.1 Estableciendo el método multipaso explícito
Truncando el desarrollo obtenido en (teorema no 18) y despejando Zp£m resulta:
Zp£m = A¡1p £ (Dt
p;n)p£m
remplazando en xn+1 = G0(hn+1)xn + "pP
j=1
Gj(hn+1)gj¡1)(tn) las derivadas de los
campos componentes de la función de perturbación podemos escribir:
xn+1 = G0(hn+1)xn + "
pX
j=1
Gj(hn+1)pj
siendo pj con j = 1; :::; p la j-ésima columna de la matriz Z t. Al ser Z t = Dp;n £ A¡tp
bastará tomar pj como la columna j-ésima de la matriz Dp;n £ A¡tp .
Designando por (dij)p£p = A¡tp resulta:
Dp;n£A¡tp =
0
BBBBBBBBBBB@
pP
i=1
g1[tn; :::; tn¡(i¡1)]di1(i ¡ 1)! ¢ ¢ ¢pP
i=1
g1[tn; :::; tn¡(i¡1)]dip(i ¡ 1)!
pP
i=1
g2[tn; :::; tn¡(i¡1)]di1(i ¡ 1)! ¢ ¢ ¢pP
i=1
g2[tn; :::; tn¡(i¡1)]dip(i ¡ 1)!
... ¢ ¢ ¢...
pP
i=1
gm[tn; :::; tn¡(i¡1)]di1(i ¡ 1)! ¢ ¢ ¢pP
i=1
gm[tn; :::; tn¡(i¡1)]dip(i ¡ 1)!
1
CCCCCCCCCCCA
donde Dp;n £ A¡tp es una matriz de orden m£ p cuya j ¡ ¶esima columna pj es:
pj =
0
BBBBBBBBBBB@
pP
i=1
g1[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
pP
i=1
g2[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
...
pP
i=1
gm[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
1
CCCCCCCCCCCA
49
que sustituída enpP
j=1
Gj(hn+1)pj permite escribir:
pX
j=1
Gj(hn+1)pj =pX
j=1
Gj(hn+1)
0
BBBBBBBBBBB@
pP
i=1
g1[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
pP
i=1g2[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
...
pP
i=1
gm[tn; :::; tn¡(i¡1) ]dij(i ¡ 1)!
1
CCCCCCCCCCCA
=
=
pX
j=1
Gj(hn+1)
0
BBBBBBBBBB@
pX
i=1
(i ¡ 1)!dij
0
BBBBBBBBBB@
g1[tn; :::; tn¡(i¡1)]
g2[tn; :::; tn¡(i¡1)]
...
gm[tn; :::; tn¡(i¡1)]
1
CCCCCCCCCCA
1
CCCCCCCCCCA
=
=pX
j=1
0
BBBBBBBBBB@
pX
i=1
(i ¡ 1)!dijGj(hn+1)
0
BBBBBBBBBB@
g1[tn; :::; tn¡(i¡1)]
g2[tn; :::; tn¡(i¡1)]
...
gm[tn; :::; tn¡(i¡1)]
1
CCCCCCCCCCA
1
CCCCCCCCCCA
=
=
pX
i=1
0
BBBBBBBBBB@
ÃpX
j=1
(i ¡ 1)!dijGj(hn+1)
!
0
BBBBBBBBBB@
g1[tn; :::; tn¡(i¡1)]
g2[tn; :::; tn¡(i¡1)]
...
gm[tn; :::; tn¡(i¡1)]
1
CCCCCCCCCCA
1
CCCCCCCCCCA
=
=pX
i=1
¤i
0
BBBBBBBBBB@
g1[tn; :::; tn¡(i¡1)]
g2[tn; :::; tn¡(i¡1)]
...
gm[tn; :::; tn¡(i¡1)]
1
CCCCCCCCCCA
50
donde
¤i =
pX
j=1
(i ¡ 1)!dijGj(hn+1) con i = 1; :::; p
Sustituyendo esta última expresión en xn+1 = G0(hn+1)xn + "pP
j=1
Gj(hn+1)pj
conseguimos la fórmula siguiente, para un método multipaso explícito:
xn+1 = G0(hn+1)xn + "
pX
i=1
¤i
0
BBBBBBBBBB@
g1[tn; :::; tn¡(i¡1)]
g2[tn; :::; tn¡(i¡1)]
...
gm[tn; :::; tn¡(i¡1)]
1
CCCCCCCCCCA
De…nition 20 Introducimos la siguiente notación:
²xn es la aproximación al valor de la solución en tn.
²¤i =pP
j=1
(i ¡ 1)!dijGj(hn+1) donde (dij)p£p = A¡tp
²F tn;i =
µ
g1[tn; :::; tn¡(i¡1)]; ¢ ¢ ¢ ; gm[tn; :::; tn¡(i¡1)]
¶
²Inicialización x: x0, x1, x2, x3, ... ,xp¡1.
De…nition 21 El método explícito, con tamaño de paso variable, de p pasos, E.I.pE,
para sistemas lineales perturbados, se formula mediante la ecuación:
xn+1 = G0(hn+1)xn + "
pX
i=1
¤iFn;i con n ¸ p¡ 1
Proposition 22 El método explícito, con tamaño de paso variable, de p pasos, E.I.pE
para sistemas lineales perturbados, es de orden p y " siempre es factor común del error
de truncación en cada paso.
D/.
51
Supongamos que el valor calculado para x en tn es exacto y que también son
exactos los valores de f (x(tn);tn), ..., f (x(tn¡p+1);tn¡p+1).
Estudiemos la siguiente diferencia.
rn+1 = x(tn+1)¡ xn+1 = x(tn + hn+1) ¡ xn+1 =
=1X
j=0
xj)(tn)
j !hjn+1 ¡ G0(hn+1)xn ¡ "
pX
j=1
Gj(hn+1)pj =
=1X
j=0
hjn+1j !
xj)n ¡ G0(hn+1)xn ¡ "
pX
j=1
Gj(hn+1)pj =
=1X
j=0
(Gj(hn+1) ¡ AGj+1(hn+1)) xj)n ¡ G0(hn+1)xn ¡ "
pX
j=1
Gj(hn+1)pj =
=1X
j=1
Gj(hn+1)¡xj)n ¡ Axj¡1)n
¢¡ "
pX
j=1
Gj(hn+1)pj =
= "pX
j=1
Gj(hn+1)¡f j)(x(tn);tn)¡ pj
¢¡ "
1X
j=p+1
Gj(hn+1)fj)(x(tn);tn) =
= "
ÃpX
j=1
Gj(hn+1)¡f j)(x(tn);tn)¡ pj
¢¡
1X
j=p+1
Gj(hn+1)fj)(x(tn);tn)
!
Ä
En esta última expresión, las diferencias que aparecen en el primer sumatorio son
de orden hp¡j+1, como Gj(hn+1) es de orden hj , se obtiene un orden de hp+1. El
segundo sumatorio, es del orden de Gp+1(hn+1), es decir de orden hp+1
Corollary 23 Si " = 0 el metodo E.I.pE para sistemas lineales perturbados es exacto.
D/:
Se deduce trivialmente de la proposición anterior.Ä
Proposition 24 El método explícito, de p pasos, E.I.pE, es consistente de orden p
52
D/.
Para demostrar la consistencia, es su…ciente considerar los resultados obtenidos
en el (teorema no 18) y que Gj(h) = O(hj). Ä
2.3 Método implícito de p pasos E.I.pI para siste-
mas lineales perturbados
Para construir un método implícito, utilizaremos la misma idea que en el apartado
anterior.
Theorem 25 Consideramos hn+1 = tn+1 ¡ tn y sea Hi = tn ¡ tn¡i. Denotando por
Dp;n+1 la matriz siguiente,de orden m£ (p+ 1)
Dp;n+1 =
0
BBBBBBBBBB@
g1[tn+1] 1!g1[tn+1; tn] ¢ ¢ ¢ p!g1[tn+1; :::; tn+1¡p)]
g2[tn+1] 1!g2[tn+1; tn] ¢ ¢ ¢ p!g2[tn+1; :::; tn+1¡p)]
...... ¢ ¢ ¢
...
gm[tn+1] 1!gm[tn+1; tn] ¢ ¢ ¢ p!gm[tn+1; :::; tn+1¡p)]
1
CCCCCCCCCCA
y
H = max fhn+1; H1; :::; Hp¡1g
se veri…ca la igualdad:
Dtp;n+1 = Bp
0
BBBBBBBBBB@
g1(tn) g2(tn) ¢ ¢ ¢ gm(tn)
g0
1(tn) g0
2(tn) ¢ ¢ ¢ g0
m(tn)
...... ¢ ¢ ¢
...
gp)1 (tn) gp)2 (tn) ¢ ¢ ¢ gp)m(tn)
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp+1) O(Hp+1) ¢ ¢ ¢ O(Hp+1)
O(Hp) O(Hp) ¢ ¢ ¢ O(Hp)
...... ¢ ¢ ¢
...
O(H) O(H) ¢ ¢ ¢ O(H)
1
CCCCCCCCCCA
53
donde Bp es la matriz cuadrada de orden (p+ 1)
Bp =
0
BBBBBBBBBBBBBB@
1 P1[hn+1] P2[hn+1] ¢ ¢ ¢ Pp[hn+1]
0 1 1!P2[hn+1; 0] ¢ ¢ ¢ 1!Pp[hn+1; 0]
0 0 1 ¢ ¢ ¢ 2!Pp[hn+1; 0;¡H1]
......
..... .
...
0 0 0 ¢ ¢ ¢ 1
1
CCCCCCCCCCCCCCA
(p+1)£(p+1)
D/.
Aplicando a cada uno de los campos componentes gi(t) con i = 1; :::; m de la
función de perturbación g(t) el (lema no 17) y el hecho de que Pj [H1; :::; Hi+1] es de
orden j ¡ i en H, se obtienen las siguientes igualdades:
gi[tn+1] = P0[hn+1]gi(tn) +P1[hn+1]g0
i(tn) + ¢ ¢ ¢
¢ ¢ ¢ + Pp[hn+1]gp)i (tn) + O(H
p+1)
gi[tn+1; tn] = P0[hn+1; 0]gi(tn) + P1[hn+1; 0]g0
i(tn) + ¢ ¢ ¢
¢ ¢ ¢ + Pp[hn+1; 0]gp)i (tn) + O(H
p)
...
gi[tn+1; :::; tn+1¡p] = P0[hn+1; 0;¡H1;:::;¡Hp¡1]gi(tn) +
+P1[hn+1; 0;¡H1;:::;¡Hp¡1]g0
i(tn) + ¢ ¢ ¢
¢ ¢ ¢ + Pp[hn+1; 0;¡H1;:::;¡Hp¡1]gp)i (tn) + O(H)
54
matricialmente0
BBBBBBBBBB@
g1[tn+1] g2[tn+1] ¢ ¢ ¢ gm[tn+1]
g1[tn+1; tn] g2[tn+1; tn] ¢ ¢ ¢ gm[tn+1; tn]
...... ¢ ¢ ¢
...
g1[tn+1; :::; tn+1¡p] g2[tn+1; :::; tn+1¡p] ¢ ¢ ¢ gm[tn+1; :::; tn+1¡p]
1
CCCCCCCCCCA
=
=
0
BBBBBBBBBB@
P0[hn+1] P1[hn+1] ¢ ¢ ¢ Pp[hn+1]
P0[hn+1; 0] P1[hn+1; 0] ¢ ¢ ¢ Pp[hn+1; 0]
...... ¢ ¢ ¢
...
P0[hn+1; 0; :::;¡Hp¡1] P1[hn+1; 0; :::;¡Hp¡1] ¢ ¢ ¢ Pp[hn+1; 0; :::;¡Hp¡1]
1
CCCCCCCCCCA
£
£
0
BBBBBBBBBB@
g1(tn) g2(tn) ¢ ¢ ¢ gm(tn)
g0
1(tn) g0
2(tn) ¢ ¢ ¢ g0
m(tn)
...... ¢ ¢ ¢
...
gp)1 (tn) gp)2 (tn) ¢ ¢ ¢ gp)m (tn)
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp+1) O(Hp+1) ¢ ¢ ¢ O(Hp+1)
O(Hp) O(Hp) ¢ ¢ ¢ O(Hp)
...... ¢ ¢ ¢
...
O(H) O(H) ¢ ¢ ¢ O(H)
1
CCCCCCCCCCA
representando, simbólicamente el producto anterior, se obtiene la ecuación:
X(p+1)£m = Y(p+1)£(p+1) £ Z(p+1)£m + O(p+1)£m
pudiéndose escribir la matriz Y(p+1)£(p+1)en la forma:
Y(p+1)£(p+1) =
0
BBBBBBBBBBBBBB@
1 P1[hn+1] P2[hn+1] ¢ ¢ ¢ Pp[hn+1]
0 11!
P2[hn+1; 0] ¢ ¢ ¢ Pp[hn+1; 0]
0 0 12! ¢ ¢ ¢ Pp[hn+1; 0;¡H1]
......
.... . .
...
0 0 0 ¢ ¢ ¢ 1p!
1
CCCCCCCCCCCCCCA
55
Sustituyendo en la ecuación previa y efectuando las transformaciones elementales
pertinentes para eliminar los cocientes de factoriales, resulta:
Dtp;n+1 = Bp £ Z(p+1)£m + O(p+1)£m Ä
2.3.1 Estableciendo el método multipaso implícito
Truncando el desarrollo obtenido en (teorema no 25) y despejando Z(p+1)£m resulta:
Z(p+1)£m = B¡1p £ (Dt
p;n+1)(p+1)£m
reemplazando en xn+1 = G0(hn+1)xn + "p+1P
j=1
Gj(hn+1)gj¡1)(tn) las derivadas de los
campos componentes de la función de perturbación podemos escribir:
xn+1 = G0(hn+1)xn + "
p+1X
j=1
Gj(hn+1)pj
siendo pj con j = 1; :::; p + 1 la j-ésima columna de la matriz Z t. Al ser Z t =
Dp;n+1 £ B¡tp bastará tomar pj como la columna j-ésima de la matriz Dp;n+1 £B¡tp .
Designando por (dij)(p+1)£(p+1) = B¡tp resulta que la matriz Dp;n+1£B¡tp de orden
m£ (p +1), es igual a:
0
BBBBBBBBBBB@
p+1P
i=1
g1[tn+1; :::; tn+1¡(i¡1)]di1(i ¡ 1)! ¢ ¢ ¢p+1P
i=1
g1[tn+1; :::; tn+1¡(i¡1)]di(p+1)(i ¡ 1)!
p+1P
i=1
g2[tn+1; :::; tn+1¡(i¡1)]di1(i ¡ 1)! ¢ ¢ ¢p+1P
i=1
g2[tn+1; :::; tn+1¡(i¡1)]di(p+1)(i ¡ 1)!
... ¢ ¢ ¢...
p+1P
i=1
gm[tn+1; :::; tn+1¡(i¡1)]di1(i ¡ 1)! ¢ ¢ ¢p+1P
i=1
gm[tn+1; :::; tn+1¡(i¡1)]di(p+1)(i ¡ 1)!
1
CCCCCCCCCCCA
56
cuya j ¡ ¶esima columa pj es:
pj =
0
BBBBBBBBBBB@
p+1P
i=1
g1[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
p+1P
i=1g2[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
...
p+1P
i=1
gm[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
1
CCCCCCCCCCCA
que sustituída enp+1P
j=1
Gj(hn+1)pj permite escribir:
p+1X
j=1
Gj(hn+1)pj =
p+1X
j=1
Gj(hn+1)
0
BBBBBBBBBBB@
p+1P
i=1
g1[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
p+1P
i=1
g2[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
...
p+1P
i=1
gm[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
1
CCCCCCCCCCCA
=
=
p+1X
j=1
Gj(hn+1)
0
BBBBBBBBBB@
p+1X
i=1
(i ¡ 1)!dij
0
BBBBBBBBBB@
g1[tn+1; :::; tn+1¡(i¡1)]
g2[tn+1; :::; tn+1¡(i¡1)]
...
gm[tn+1; :::; tn+1¡(i¡1)]
1
CCCCCCCCCCA
1
CCCCCCCCCCA
=
=p+1X
j=1
0
BBBBBBBBBB@
p+1X
i=1
(i ¡ 1)!dijGj(hn+1)
0
BBBBBBBBBB@
g1[tn+1; :::; tn+1¡(i¡1)]
g2[tn+1; :::; tn+1¡(i¡1)]
...
gm[tn+1; :::; tn+1¡(i¡1)]
1
CCCCCCCCCCA
1
CCCCCCCCCCA
=
57
=p+1X
i=1
0
BBBBBBBBBB@
Ãp+1X
j=1
(i ¡ 1)!dijGj(hn+1)
!
0
BBBBBBBBBB@
g1[tn+1; :::; tn+1¡(i¡1)]
g2[tn+1; :::; tn+1¡(i¡1)]
...
gm[tn+1; :::; tn+1¡(i¡1)]
1
CCCCCCCCCCA
1
CCCCCCCCCCA
=
=
p+1X
i=1
¡i
0
BBBBBBBBBB@
g1[tn+1; :::; tn+1¡(i¡1)]
g2[tn+1; :::; tn+1¡(i¡1)]
...
gm[tn+1; :::; tn+1¡(i¡1)]
1
CCCCCCCCCCA
donde
¡i =
p+1X
j=1
(i ¡ 1)!dijGj(hn+1) con i = 1; :::; p+ 1
Sustituyendo esta última expresión en xn+1 = G0(hn+1)xn + "p+1P
j=1
Gj(hn+1)pj
conseguimos la fórmula siguiente, para un método multipaso implícito:
xn+1 = G0(hn+1)xn + "p+1X
j=1
¡i
0
BBBBBBBBBB@
g1[tn+1; :::; tn+1¡(i¡1)]
g2[tn+1; :::; tn+1¡(i¡1)]
...
gm[tn+1; :::; tn+1¡(i¡1)]
1
CCCCCCCCCCA
De…nition 26 Introducimos la siguiente notación:
²xn es la aproximación al valor de la solución en tn.
²¡i =p+1P
j=1
(i ¡ 1)!dijGj(hn+1) donde (dij)(p+1)£(p+1) = B¡tp
²T tn;i =
µ
g1[tn+1; :::; tn+1¡(i¡1) ]; ¢ ¢ ¢ ; gm[tn+1; :::; tn+1¡(i¡1)]
¶
²Inicialización para x: x0, x1, x2, x3, ... ,xp¡1.
58
De…nition 27 El método implícito, con tamaño de paso variable, de p pasos E.I.pI,
para sistemas lineales perturbados, se formula, mediante la ecuación:
xn+1 = G0(hn+1)xn + "
p+1X
i=1
¡iTn;i con n ¸ p ¡ 1
Daremos algunos resultados referentes a los métodos E.I.pI para sistemas lineales
perturbados, de los que no haremos las demostraciones por ser análogas a las del
método E.I.pE.
Proposition 28 El método implícito, con tamaño de paso variable, de p pasos E.I.pI
para sistemas lineales perturbados, es de orden p+1 y " siempre es factor común del
error de truncación en cada paso.
Corollary 29 Si " = 0 el método E.I.pI para sistemas lineales perturbados es exacto.
Proposition 30 El método explícito, de p pasos, E.I.pI, es consistente de orden p+1.
2.4 Método predictor corrector E.I.pPC para sis-
temas lineales perturbados
De…nition 31 De…nimos el método predictor-corrector, con tamaño de paso varia-
ble, de p pasos E.I.pPC para sistemas lineales perturbados como el que tiene como
predictor a E.I.pE y como corrector a E.I.pI.
El método predictor corrector empleado, es del tipo P (EC)¹E1¡t con t = 1 y ¹
entero positivo, es decir un predictor y ¹ veces evaluador-corrector, P (EC)¹ [50]. Al
59
aplicar el P (EC )¹ para obtener corrección de convergencia, se observa que si x[j]n es
la j-ésima corrección de xn y ¹ = 2, entonces°°°x
[2]n ¡ x [1]n
°°° es su…cientemente pequeño
y el cálculo de x[2]n incrementa signi…cativamente el coste computacional.
Además si ¹ = 1; P (EC) tiene el mismo orden que el corrector, pero los errores
de truncación son distintos.
Capítulo 3
Implementación de los métodos
multipaso variable para la
integración de sistemas lineales
perturbados
3.1 Introducción
En el capítulo anterior se han expuesto los métodos E.I.pE, E.I.pI y E.I.pPC, para la
integración de sistemas lineales perturbados. Estos métodos presentan la di…cultad
de que sus coe…cientes matriciales no están expresados de manera recurrente, lo que
di…culta, su codi…cación para automatizar su cálculo. En este capítulo resolveremos
este problema, lo que nos permitirá codi…car los métodos, pudiendo escoger el tamaño
61
62
del paso y el número de pasos, que requiera cada ejecución.
Para el método E.I.pE tendríamos que poder calcular de manera recurrente los
coe…cientes
¤i =
pX
j=1
(i ¡ 1)!dijGj(hn+1) con i = 1; :::; p
donde la matriz (dij)p£p = A¡tp . Y para el método E.I.pI tendríamos que poder
calcular de forma recurrente los coe…cientes
¡i =p+1X
j=1
(i ¡ 1)!dijGj(hn+1) con i = 1; :::; p+ 1
donde la matriz (dij)(p+1)£(p+1) = B¡tp . Luego el problema se reduce a encontrar una
fórmula recurrente, que nos permita calcular los elementos de las matrices A¡tp y B¡tp .
El problema del cálculo recurrente de las matrices A¡tp y B¡tp no lo abordaremos
directamente, sino que obtendremos unas matrices, que denotaremos por Sn;p y Sn;p+1
respectivamente, sobre las que de…niremos las recurrencias y posteriormente las re-
lacionaremos con las matrices A¡tp y B¡tp . El cálculo de las matrices Sp;n y Sp;n+1 se
fundamentará en el estudio y aplicación de los polinomios simétricos y sus relaciones
con las diferencias divididas.
Una vez conseguidas las relaciones de recurrencia, para las matrices Sp;n y Sp;n+1 y
su conexión con las matrices A¡tp y B¡tp , procederemos a rede…nir los métodos E.I.pE,
E.I.pI y E.I.pPC, de manera que sea posible una implementación efectiva para su
cálculo automático.
En este capítulo, también se expondrán los códigos de los nuevos algoritmos, im-
plementados en MAPLE V Release 4, así como una introducción a los problemas sti¤
[43],[50],[64]. Por último resolveremos varios ejemplos, mediante los códigos E.I.pE,
63
E.I.pI y E.I.pPC y los compararemos con otros métodos conocidos.
3.2 Polinomios Simétricos
El propósito de esta sección es proporcionar una notación y terminología que será
empleada a continuación, y exponer algunos resultados importantes de las funciones
simétricas [4],[8],[46],[52],[54].
Consideremos un anillo K[X; Y ]. A todo polinomio P (X; Y ) hacemos correspon-
der el polinomio P0obtenido escribiendo Y en lugar de X y X en lugar de Y , dicho
de otra manera P0(X; Y ) = P (Y; X). Evidentemente, (P
0)0= P . La correspondencia
P $ P0es un automor…smo del anillo K[X; Y ], ya que P $ P
0y Q $ Q
0implican
de manera mani…esta
(P + Q)0
$ P0+ Q
0
(PQ)0
$ P0
Q0
En general, en K [X1; X2; :::; Xn] consideremos una permutacion ¾ hecha sobre las
letras X1; X2; :::; Xn y sea ¾(Xi) = X0
i . La correspondencia
P (X1; X2; :::; Xn)$ P0= P (X
0
1; X0
2; :::; X0
n)
es un automor…smo, porque es compatible con la igualdad, la suma y el producto en
el anillo K[X1; X2; :::; Xn].
De…nition 32 Los polinomios invariantes respecto al conjunto de los automor…smos
anteriormente de…nidos se llaman simétricos.
64
Ya que una permutación cualquiera es un producto de trasposiciones, bastaría
comprobar su invarianza en todas las trasposiciones posibles, para asegurarse que es
un polinomio simétrico.
Sea el monomio x®1x¯2 ¢ ¢ ¢ x¸n en el que los enteros ®; ¯; :::; ¸ pueden ser nulos. Efec-
tuando en él todas las permutaciones sobre las variables x1x2 ¢ ¢ ¢ xn se obtiene varios
monomios distintos cuya suma es evidentemente un polinomio simétrico denotado por
Xx®1x
¯2 ¢ ¢ ¢ x¸n
así p. ej., el polinomio simétrico en n variables P = x31 + x32 + ¢ ¢ ¢ + x3n se escribe
Px31x
02 ¢ ¢ ¢ x0n siendo el número de términos distintos n!
(n¡1)! = n ya que las sustitucio-
nes sobre las n ¡ 1 últimas letras proporcionan el mismo monomio [52].
Consideremos el anillo de los polinomios simétricos en n variables independientes
t1; :::; tn:
De…nition 33 Para cada 0 5 r 5 n, la r-ésima función simétrica elemental en;r es
la suma de todos los productos de r variables distintas ti, siendo
en;0 = 1
en;r =nX
i1<i2<¢¢¢<ir
ti1 ¢ ¢ ¢ tir
p. ej. para tres variables, t1; t2; t3 tenemos: e30 = 1, e3;1 = t1 + t2 + t3, e3;2 =
t1t2+ t1t3 + t2t3, e3;3 = t1t2t3.
En el caso de que r < 0 se de…ne
en;r = 0
65
La función generatriz de en;r es:
En(t) =nX
r=0
en;r ¢ tr =nY
i=1
(1 + tit)
es decir, efectuando un desarrollo de Mac Laurin de la función En(t) =nQ
i=1
(1 + tit)
hasta orden n, sus coe…cientes serían las funciones simétricas elementales en;r.
De…nition 34 Sea ¸ = (¸1 ¢ ¢ ¢ ¸n) 2 Nn , j¸j = ¸1 + ¢ ¢ ¢ + ¸n. Para cada r = 0 la r-
ésima función simétrica completa hn;r se de…ne como la suma de todos los monomios
de grado total r en las variables t1; :::; tn, es decir
hn;r =X
j¸j=r
X
S¸
t®
donde S¸ = f todas las distintas permutaciones ® = (®1 ¢ ¢ ¢ ®n) de ¸g y t® = t®11 :::t®nn. .
En particular hn;0 = 1 y hn;1 = en;1. [89]
p. ej. para tres variables, t1; t2; t3 tenemos:
h30 = 1
h3;1 = e3;1 = t1 + t2 + t3
h3;2 = t21 + t22 + t
23 + t1t2 + t1t3+ t2t3
h3;3 = t31 + t32 + t
33 + t
21t2 + t
21t3+ t
22t1 + t1t
22 + t1t
23 + t2t
23 + t1t2t3
En el caso de que r < 0 se de…ne
hn;r = 0
La función generatriz de hn;r es:
Hn(t) =nX
r=0
hn;r ¢ tr =nY
i=1
(1¡ tit)¡1
66
es decir, efectuando un desarrollo de Mac Laurin de la función Hn(t) =nQ
i=1(1 + tit)¡1
hasta orden n, sus coe…cientes serían las funciones simétricas completas hn;r [54].
Proposition 35 Entre los polinomios simétricos elementales y los completos se es-
tablece al siguiente relación
nX
r=0
(¡1)r ¢ hn;®¡r ¢ em;r = 0 8m = n = 1 y ® > m¡ n
D/.
De En(t) =nQ
i=1(1 + tit) y de Hn(t) =
nQ
i=1(1¡ tit)¡1 se tiene
Hn(t)Em(¡t) =nY
i=1
(1 ¡ tit)¡1
mY
i=1
(1 + ti(¡t)) =mY
i=n+1
(1 ¡ tit)
llamando j = i ¡ n tenemos
mY
i=n+1
(1 ¡ tit) =m¡nY
j=1
(1¡ tit) = Em¡n(¡t)
y de aquí se sigue que los coe…cientes de t® para ® > m¡ n son cero, lo que equivale
a:nX
r=0
(¡1)r ¢ hn;®¡r ¢ em;r = 0 8m = n = 1 y ® > m ¡ n Ä
Denotaremos por g [t0; t1; :::; tk] la diferencia dividida de orden k de una función g
en los valores t0; t1; :::; tk. [89]
Proposition 36 Las diferencias divididas son funciones simétricas de sus argumen-
tos.
D/.
67
Por de…nición
g[t; t1] =g(t)¡ g(t1)
t¡ t1=
g(t)
t¡ t1+g(t1)
t1 ¡ t
y obtenemos sin di…cultad
g [t; t1; t2] =g(t)
(t ¡ t1)(t¡ t2)+
g(t1)
(t1 ¡ t)(t1 ¡ t2)+
g(t2)
(t2 ¡ t)(t2 ¡ t1)
probándose por inducción que
g[t; t1;:::; tn] =g(t)
(t¡ t1)(t¡ t2) ¢ ¢ ¢ (t¡ tn)+
g(t1)
(t1 ¡ t)(t1 ¡ t2) ¢ ¢ ¢ (t1 ¡ tn)+ ¢ ¢ ¢
¢ ¢ ¢ +g(tn)
(tn ¡ t)(tn ¡ t1) ¢ ¢ ¢ (tn ¡ tn¡1)
evidentemente si intercambiamos dos argumentos cualesquiera no se altera el valor de
la diferencia dividida, por tanto éstas son funciones simétricas de sus argumentos.
Proposition 37 La diferencia dividida de la función g(t) = tm se puede obtener
mediante la siguiente expresión
g[t1; t2; :::; tn] =
nX
i=1
0 tmi(ti ¡ t1)(ti ¡ t2) ¢ ¢ ¢ (ti ¡ tn)
donde la notaciónP0
indica que el factor ti ¡ ti está excluído para i = 1; 2; :::; n .
D/.
Esto último es el coe…ciente de tm¡n+1 en el desarrollo de la función
nX
i=1
tn¡1i
(ti ¡ t1) ¢ ¢ ¢ (ti ¡ ti¡1)(1¡ tit)(ti ¡ ti+1) ¢ ¢ ¢ (ti ¡ tp+1)
esta expresión es el resultado de introducir en las fracciones parciales la función
(1 ¡ t1t)¡1(1 ¡ t2t)
¡1 ¢ ¢ ¢ (1 ¡ tnt)¡1
68
y por consiguiente [60] el coe…ciente de tm¡n+1 es la suma de los productos homogéneos
de grado m¡ n + 1 de t1; :::; tn.
Entonces
g[t1; t2; :::; tn] =X
t®11 t®22 ¢ ¢ ¢ t®nn
donde el sumatorio se extiende a todos los enteros positivos, incluído el cero, que
satisfacen la relación:
®1+®2+¢¢¢+®n = m¡ n +1: Ä
Entre las diferencias divididas de g(t) = tm que denotaremos por tm[t1; :::; tn] y
los polinomios simétricos completos podemos establecer la siguiente relación:
Corollary 38 tm[t1; :::; tn] = hn;m¡n+1
D/.
Trivial, por la de…nición de hn;r y por la proposición anterior.Ä
Finalmente veremos la relación existente entre las diferencias divididas y los poli-
nomios simétricos elementales.
De…nition 39 Sea:
qi;j = tj¡1[t1; :::; ti] = hi;j¡i
y
¾i;j = (¡1)j¡iej¡1;j¡i
De…nition 40 Sean las matrices cuadradas de orden n: P = (qi;j) y S = (¾i;j)
Proposition 41 Las matrices P y S son triangulares superiores, con unos en la
diagonal principal. Además las matrices P y S son inversas.
69
D/.
Dado que hn;r = en;r = 0, para r < 0 y hn;0 = en;0 = 1 evidentemente son
triangulares superiores, con unos en su diagonal principal. Como jP j = jSj = 1 6= 0
son inversibles, bastaría con demostrar que PS = I. Las relaciones expresadas en
(de…nición no33, de…nición no34 y proposición no35), muestran que PS = I.
3.3 Cálculo recurrente de las matrices A¡tp y B¡t
p .
Sea t¤ 2 [a; b], consideramos la función simétrica completa qi;j en los valores
Hn¡k = tn¡k ¡ t¤ con k = 0; :::; i ¡ 1
Es importante precisar que trabajamos en el punto tn y denotaremos
qi;j(n) = tj¡1[Hn; :::;Hn¡(i¡1)]
La función ¾i;j en los mismos puntos se denotará por ¾i;j(n).
Por (proposición no41) las matrices cuadradas de orden k; Pk;n = (qi;j(n)) y Sk;n =
(¾i;j(n)) son inversas una de otra.
Como
Hn¡j = tn¡j ¡ t¤
y
Hj = tn ¡ tn¡j
se veri…ca que
(tn ¡ t¤) ¡ Hj = Hn¡j con j = 0; :::; i ¡ 1
Particularizando al caso: t¤ = tn tendríamos Hn¡j = ¡Hj con j = 0; :::; i ¡ 1
70
3.3.1 Cálculo recurrente de A¡tp .
El siguiente lema nos permite aproximar la diferencia dividida de orden k de la fun-
ción g(t) por sus derivadas; para simpli…car la exposición, consideramos que g(t) es
analítica.
Lemma 42 Las diferencias divididas de una función g satisfacen la siguiente pro-
piedad
g[tn; tn¡1; :::; tn¡(i¡1)] =1X
j=0
qi;j+1(n)1
j!gj)(t¤)
D/.
La demostración es realmente sencilla, si reemplazamos los desarrollos en t¤ de
g(tn); :::; g(tn¡i+1) por una adecuada expresión de diferencias …nitas.
g[tn; tn¡1; :::; tn¡(i¡1)] =1X
j=0
tj [tn ¡ t¤; :::; tn¡(i¡1) ¡ t¤]
j!gj)(t¤) =
=1X
j=0
qi;j+1(n)1
j !gj)(t¤) Ä
Si H = max©
jHnj ; :::;¯¯Hn¡(i¡1)
¯¯ª, como las qi;j(n) tienen orden j¡ i en H el (lema
no42), nos permite escribir:
g[tn; tn¡1; :::; tn¡(i¡1)] =
p¡1X
j=0
qi;j+1(n)1
j !g j)(t¤) + O(Hp¡(i¡1))
con i = 1; :::; p.
71
Considerando t¤ = tn y expresando matricialmente estas igualdades, tenemos
0
BBBBBBBBBB@
g[tn]
g[tn; tn¡1]
...
g[tn;:::; tn¡(p¡1)]
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
q1;1(n) ¢ ¢ ¢ q1;p(n)
q2;1(n) ¢ ¢ ¢ q2;p(n)
.... . .
...
qp;1(n) ¢ ¢ ¢ qp;p(n)
1
CCCCCCCCCCA
0
BBBBBBBBBB@
g(tn)
g0(tn)1!
...
g(p¡1)(tn)(p¡1)!
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp)
O(Hp¡1)
...
O(H)
1
CCCCCCCCCCA
y como qi;j+1(n) = hi;j en los argumentos Hn; :::;Hn¡(i¡1), podemos escribir
0
BBBBBBBBBB@
g[tn]
g[tn; tn¡1]
...
g[tn;:::; tn¡(p¡1)]
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
1 h1;1 ¢ ¢ ¢ h1;p¡1
0 1 ¢ ¢ ¢ h2;p¡2
......
. . ....
0 0 ¢ ¢ ¢ 1
1
CCCCCCCCCCA
0
BBBBBBBBBB@
g(tn)
g0(tn)1!
...
g(p¡1)(tn)(p¡1)!
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp)
O(Hp¡1)
...
O(H)
1
CCCCCCCCCCA
La siguiente proposición nos permite el cálculo recurrente de la matriz Sp;n.
Proposition 43
¾i;j(n) = ¾i¡1;j¡1(n) ¡ Hn¡j+2¾i;j¡1(n)
con i; j = 2.
D/.
Es inmediata. [89]Ä
72
Si consideramos t¤ = tn, entonces:
Sp;n =
0
BBBBBBBBBBBBBBBBBBBBBBBBBB@
1 0 0 0 0 0
0 1 ! ¾2;3(n) ! ¾2;4(n) ! ¾2;5(n) ¢ ¢ ¢ ! ¾2;p(n)
& & &
0 0 1 ¾3;4(n) ! ¾3;5(n) ¢ ¢ ¢ ! ¾3;p(n)
& &
0 0 0 1 ! ¾4;5(n) ¢ ¢ ¢ ! ¾4;p(n)
......
......
.... . .
...
0 0 0 0 1
1
CCCCCCCCCCCCCCCCCCCCCCCCCCA
El siguiente teorema nos permite obtener de forma recurrente la matriz A¡tp de…-
nida en el capítulo dos.
Theorem 44
A¡tp = Mp;n £ S tp;n £ Np;n
donde
Mp;n =
0
BBBBBBBBBB@
10!
11!
. ..
1(p¡1)!
1
CCCCCCCCCCA
y
Np;n =
0
BBBBBBBBBB@
0!
1!
. ..
(p¡ 1)!
1
CCCCCCCCCCA
73
D/.
Como t¤ = tn y qi;j+1(n) = tj [0;¡H1; :::;¡Hi¡1] = j!Pj [0;¡H1; :::;¡Hi¡1], resulta
Pp;n =
0
BBBBBBBBBB@
0!P0[0] ¢ ¢ ¢ (p ¡ 1)!Pp¡1[0]
0!P0[0;¡H1] ¢ ¢ ¢ (p ¡ 1)!Pp¡1[0;¡H1]
......
0!P0[0;¡H1; :::;¡Hp¡1] ¢ ¢ ¢ (p ¡ 1)!Pp¡1[0;¡H1; :::;¡Hp¡1]
1
CCCCCCCCCCA
efectuando el producto Np;n £ Pp;n £ Mp;n se obtiene la matriz Ap. Trasponiendo e
invirtiendo el producto anterior se consigue:
A¡tp = Mp;n £ P¡tp;n £ Np;n = Mp;n £ S tp;n £ Np;n =
µ(j ¡ 1)!¾j;i(n)
(i ¡ 1)!
¶
Ä
La expresión precedente, permite obtener la matriz A¡tp por recurrencia, a partir
de la matriz Stp;n; tal y como se indicaba en la introducción al capítulo. Basándonos en
esta recurrencia, se podrían calcular, directamente, relaciones recurrentes análogas,
para los elementos di;j de la matriz A¡tp , en efecto:
Como
¾i;j =(j ¡ 1)!
(i ¡ 1)!dj;i
despejando di;j según los casos y sutituyendo en la relación propuesta en (proposición
no43), tenemos
d1;1 = 1
d1;j = 0 con j = 2; :::; p
di;1 = 0 con i = 2; :::; p
di;j =j ¡ 1
i ¡ 1di¡1;j¡1 ¡
1
i¡ 1di¡1;jHn¡i+2 con 2 · i; j · p
74
3.3.2 Cálculo recurrente de B¡tp .
Lemma 45 Sea hn+1 = tn+1¡t¤.Las diferencias divididas de una función g satisfacen
la siguiente propiedad
g[tn+1; tn; :::; tn¡(i¡1)] =1X
j=0
qi+1;j+1(n)1
j !gj)(t¤)
D/.
La demostración es realmente sencilla, si reemplazamos los desarrollos en t¤ de
g(tn+1); :::; g(tn¡i+1) en una adecuada expresión de diferencias …nitas.
g[tn+1; tn; :::; tn¡(i¡1)] =1X
j=0
tj [tn+1 ¡ t¤; :::; tn¡(i¡1) ¡ t¤]
j!g j)(t¤) =
=1X
j=0
qi+1;j+1(n)1
j !gj)(t¤) Ä
Si H = max©jhn+1j ; jHnj ; :::;
¯¯Hn¡(i¡1)
¯¯ª, como las qi;j(n) tienen orden j ¡ i en H
el (lema no45), nos permite escribir:
g[tn+1; tn; :::; tn¡(i¡1)] =p¡1X
j=0
qi+1;j+1(n)1
j !gj)(t¤) +O(Hp¡(i¡1))
con i = 1; :::; p.
Considerando t¤ = tn y expresando matricialmente estas igualdades, tenemos
0
BBBBBBBBBB@
g[tn+1]
g[tn+1; tn]
...
g[tn+1;:::; tn¡(p¡1) ]
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
q1;1(n) ¢ ¢ ¢ q1;p+1(n)
q2;1(n) ¢ ¢ ¢ q2;p+1(n)
.... . .
...
qp+1;1(n) ¢ ¢ ¢ qp+1;p+1(n)
1
CCCCCCCCCCA
0
BBBBBBBBBB@
g(tn)
g0(tn)1!
...
gp)(tn)p!
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp+1)
O(Hp)
...
O(H)
1
CCCCCCCCCCA
75
y como qi+1;j+1(n) = hi+1;j¡i en los argumentos hn+1;Hn; :::;Hn¡(i¡1), podemos escri-
bir0
BBBBBBBBBB@
g[tn+1]
g[tn+1; tn]
...
g[tn+1;:::; tn¡(p¡1) ]
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
1 h1;1 ¢ ¢ ¢ h1;p+1
0 1 ¢ ¢ ¢ h2;p+1
......
. . ....
0 0 ¢ ¢ ¢ 1
1
CCCCCCCCCCA
0
BBBBBBBBBB@
g(tn)
g0(tn)1!
...
gp)(tn)p!
1
CCCCCCCCCCA
+
0
BBBBBBBBBB@
O(Hp+1)
O(Hp)
...
O(H)
1
CCCCCCCCCCA
La siguiente proposición nos permite el cálculo recurrente de la matriz Sp;n+1.
Proposition 46
¾i;j(n) = ¾i¡1;j¡1(n) ¡ Hn¡j+3¾i;j¡1(n)
con i; j = 2.
D/.
Análoga a la proposición no 43, [89] Ä
Si consideramos t¤ = tn, entonces:
Sp;n+1 =
0
BBBBBBBBBBBBBBBBBBBBBBBBBB@
1 ¡hn+1 0 0 0 0
0 1 ! ¾2;3(n) ! ¾2;4(n) ! ¾2;5(n) ¢ ¢ ¢ ! ¾2;p+1(n)
& & &
0 0 1 ¾3;4(n) ! ¾3;5(n) ¢ ¢ ¢ ! ¾3;p+1(n)
& &
0 0 0 1 ! ¾4;5(n) ¢ ¢ ¢ ! ¾4;p+1(n)
......
......
.... . .
...
0 0 0 0 1
1
CCCCCCCCCCCCCCCCCCCCCCCCCCA
El siguiente teorema nos permite obtener de forma recurrente la matriz B¡tp de…-
nida en el capítulo dos.
76
Theorem 47
B¡tp =Mp;n+1 £ Stp;n+1 £ Np;n+1
donde
Mp;n+1 =
0
BBBBBBBBBB@
10!
11!
. ..
1p!
1
CCCCCCCCCCA
y
Np;n+1 =
0
BBBBBBBBBB@
0!
1!
.. .
p!
1
CCCCCCCCCCA
D/.
Como tn = t¤ y qi+1;j+1(n) = tj [hn+1; 0;¡H1; :::;¡Hi¡1] = j!Pj[hn+1; 0;¡H1; :::;¡Hi¡1],
resulta
Pp;n+1 =
0
BBBBBBBBBB@
0!P0[hn+1] ¢ ¢ ¢ p!Pp¡1[hn+1]
0!P0[hn+1; 0] ¢ ¢ ¢ p!Pp¡1[hn+1; 0]
......
0!P0[hn+1; 0; :::;¡Hp¡1] ¢ ¢ ¢ p!Pp¡1[hn+1; 0; :::;¡Hp¡1]
1
CCCCCCCCCCA
efectuando el producto Np;n+1 £ Pp;n+1 £Mp;n+1 resulta la matriz Bp. Trasponiendo
e invirtiendo el producto anterior obtenemos
B¡tp =Mp;n+1£ P¡tp;n+1£ Np;n+1 = Mp;n+1£ Stp;n+1 £Np;n+1 =
µ(j ¡ 1)!¾j;i(n)
(i ¡ 1)!
¶
Ä
77
La expresión anterior, permite obtener la matriz B¡tp por recurrencia, a partir de
la matriz S tp;n+1; tal y como se indicaba en la introducción al capítulo. Basándonos en
esta recurrencia, se podrían obtener, directamente, relaciones recurrentes análogas,
para los elementos di;j de la matriz B¡tp , en efecto:
Como
¾i;j =(j ¡ 1)!
(i ¡ 1)!dj;i
despejando di;j según los casos y sutituyendo en la relación propuesta en (proposición
no46), tenemos
d1;1 = 1
d1;j = 0 con j = 2; :::; p+ 1
d2;1 = ¡hn+1
di;1 = 0 con i = 3; :::; p + 1
di;j =j ¡ 1
i ¡ 1di¡1;j¡1 ¡
1
i ¡ 1di¡1;jHn¡i+3 con 2 · i; j · p+ 1
3.4 Rede…nición de los métodos: E.I.pE, E.I.pI y
E.I.pPC
3.4.1 Método E.I.pE
En el capítulo dos, se de…nió el método E.I.pE, de paso variable, mediante la expresión:
xn+1 = G0(hn+1)xn + "pX
j=1
Gj(hn+1)pj
siendo pj con j = 1; :::; p la j-ésima columna de la matriz Z t. Es decir:
78
pj =
0
BBBBBBBBBBB@
pP
i=1g1[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
pP
i=1g2[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
...
pP
i=1gm[tn; :::; tn¡(i¡1)]dij(i ¡ 1)!
1
CCCCCCCCCCCA
Basándonos en la relación:
A¡tp =
µ(j ¡ 1)!¾j;i(n)
(i ¡ 1)!
¶
se obtiene:
pj =
0
BBBBBBBBBBB@
pP
i=1
g1[tn; :::; tn¡(i¡1)](j ¡ 1)!¾j;i(n)
pP
i=1g2[tn; :::; tn¡(i¡1)](j ¡ 1)!¾j;i(n)
...
pP
i=1
gm[tn; :::; tn¡(i¡1)](j ¡ 1)!¾j;i(n)
1
CCCCCCCCCCCA
= (j¡1)!
0
BBBBBBBBBBB@
pP
i=1
g1[tn; :::; tn¡(i¡1)]¾j;i(n)
pP
i=1g2[tn; :::; tn¡(i¡1)]¾j;i(n)
...
pP
i=1
gm[tn; :::; tn¡(i¡1)]¾j;i(n)
1
CCCCCCCCCCCA
De…nition 48 Introducimos la siguiente notación:
²xnes la aproximación al valor de la solución en tn.
²¤i =pP
j=1(j ¡ 1)!¾j;i(n)Gj(hn+1)
²F tn;i =
µ
g1[tn; :::; tn¡(i¡1)]; ¢ ¢ ¢ ; gm[tn; :::; tn¡(i¡1)]
¶
²Inicialización para x: x0, x1, x2, x3, ... ,xp¡1.
Podemos proponer una nueva de…nición del método E.I.pE.
De…nition 49 El método explícito de p pasos E.I.pE, para sistemas lineales pertur-
bados se formula,mediante la ecuación:
xn+1 = G0(hn+1)xn + "pX
i=1
¤iFn;i con n ¸ p¡ 1
79
Métodos E.I.pE, de orden bajo.
² Orden 1:
xn+1 = G0(hn+1)xn + "
0
BBBBBB@
G1(hn+1)
0
BBBBBB@
g1(tn)
...
gm(tn)
1
CCCCCCA
+ G2(hn+1)
0
BBBBBB@
g1 [tn; tn¡1]
...
gm [tn; tn¡1]
1
CCCCCCA
1
CCCCCCA
² Orden 2:
xn+1 = G0(hn+1)xn + "
0
BBBBBB@
G1(hn+1)
0
BBBBBB@
g1(tn)
...
gm(tn)
1
CCCCCCA
+
+G2(hn+1)
0
BBBBBB@
g1 [tn; tn¡1] + hng1 [tn; tn¡1; tn¡2]
...
gm [tn; tn¡1] + hngm [tn; tn¡1; tn¡2]
1
CCCCCCA
+
+ 2G3(hn+1)
0
BBBBBB@
g1 [tn; tn¡1; tn¡2]
...
gm [tn; tn¡1; tn¡2]
1
CCCCCCA
1
CCCCCCA
3.4.2 Método E.I.pI
En el capítulo dos, se de…nió el método E.I.pI, mediante la expresión:
xn+1 = G0(hn+1)xn + "p+1X
j=1
Gj(hn+1)pj
80
siendo pj con j = 1; :::; p+ 1 la j-ésima columna de la matriz Z t = Dp;n+1£ B¡tp .
pj =
0
BBBBBBBBBBB@
p+1P
i=1
g1[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
p+1P
i=1
g2[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
...
p+1P
i=1
gm[tn+1; :::; tn+1¡(i¡1)]dij(i ¡ 1)!
1
CCCCCCCCCCCA
Como
B¡tp =
µ(j ¡ 1)!¾j;i(n)
(i ¡ 1)!
¶
se tiene:
pj =
0
BBBBBBBBBBB@
p+1P
i=1
g1[tn+1; :::; tn+1¡(i¡1)](j ¡ 1)!¾j;i(n)
p+1P
i=1
g2[tn+1; :::; tn+1¡(i¡1)](j ¡ 1)!¾j;i(n)
...
p+1P
i=1
gm[tn+1; :::; tn+1¡(i¡1)](j ¡ 1)!¾j;i(n)
1
CCCCCCCCCCCA
=
= (j ¡ 1)!
0
BBBBBBBBBBB@
p+1P
i=1g1[tn+1; :::; tn+1¡(i¡1)]¾j;i(n)
p+1P
i=1
g2[tn+1; :::; tn+1¡(i¡1)]¾j;i(n)
...
p+1P
i=1gm[tn+1; :::; tn+1¡(i¡1)]¾j;i(n)
1
CCCCCCCCCCCA
dando lugar a una nueva de…nición del método E.I.pI.
De…nition 50 Introducimos la siguiente notación:
²xn es la aproximación al valor de la solución en tn.
²¡i =p+1P
j=1
(j ¡ 1)!¾j;i(n)Gj(hn+1)
81
²T tn;i =
µ
g1[tn+1; :::; tn+1¡(i¡1) ]; ¢ ¢ ¢ ; gm[tn+1; :::; tn+1¡(i¡1)]
¶
²Inicialización para x: x0, x1, x2, x3, ... ,xp¡1.
De…nition 51 Se de…ne el método implícito de p pasos E.I.pI, para sistemas lineales
perturbados mediante la ecuación:
xn+1 = G0(hn+1)xn + "
p+1X
i=1
¡iTn;i con n ¸ p ¡ 1
Métodos E.I.pI, de orden bajo.
² Orden 1:
xn+1 = G0(hn+1)xn + "
0
BBBBBB@
G1(hn+1)
0
BBBBBB@
g1(tn+1) ¡ hn+1g1 [tn+1; tn]
...
gm(tn+1) ¡ hn+1gm [tn+1; tn]
1
CCCCCCA
+
+G2(hn+1)
0
BBBBBB@
g1 [tn+1; tn]
...
gm [tn+1; tn]
1
CCCCCCA
1
CCCCCCA
² Orden 2:
xn+1 = G0(hn+1)xn + "
0
BBBBBB@
G1(hn+1)
0
BBBBBB@
g1(tn+1) ¡ hn+1g1 [tn+1; tn]
...
gm(tn+1) ¡ hn+1gm [tn+1; tn]
1
CCCCCCA
+
+G2(hn+1)
0
BBBBBB@
g1 [tn+1; tn]¡ hn+1g1 [tn+1; tn; tn¡1]
...
gm [tn+1; tn]¡ hn+1gm [tn+1; tn; tn¡1]
1
CCCCCCA
+
82
+ 2G3(hn+1)
0
BBBBBB@
g1 [tn+1; tn; tn¡1]
...
gm [tn+1; tn; tn¡1]
1
CCCCCCA
1
CCCCCCA
3.4.3 Método E.I.pPC
De…nition 52 De…nimos el nuevo método predictor-corrector de p pasos E.I.pPC pa-
ra sistemas lineales perturbados como el que tiene como predictor a E.I.pE (de…nición
no49)y como corrector a E.I.pI(de…nición no51).
3.5 Códigos para los métodos: E.I.pE y E.I.pPC
3.5.1 Código para E.I.pE
Las variables de entrada son:
Número de ecuaciones del sistema: q
Número de pasos del método: p
Número de iteraciones: n
Tamaño de paso: h
Matriz del sistema: A
Ecuaciones del sistema: sys
Condiciones iniciales: init
Componentes de la función de perturbación: f.k con k: 1, ... ,q
Para el cálculo de las G-funciones de Scheifele se utilizan los algoritmos descritos
en el capítulo 1, cuyos códigos …guran en los anexos.
83
Se implementa la matriz recurrente A¡tp , mediante las fórmulas descritas en la
sección: ”Cálculo recurrente de las matrices A¡tp y B¡tp .” , de este capítulo.
Como inicializador del código, se ha utilizado el LSODE[adamsfunc] de Maple V.
Se obtiene la tabla de diferencias divididas, en los i primeros puntos con i =
0; :::; p¡ 1.
Por (de…nición no 49), calculamos la aproximación xp, que permite escribir la
siguiente línea de la tabla de diferencias divididas y obtener la aproximación xp+1:
Ver Anexo V.
3.5.2 Código para E.I.pPC
Las variables de entrada son:
Número de ecuaciones del sistema: q
Número de pasos del método: p
Número de iteraciones: n
Tamaño de paso: h
Matriz del sistema: A
Ecuaciones del sistema: sys
Condiciones iniciales: init
Componentes de la función de perturbación: f.k con k: 1, ... ,q
Para el cálculo de las G-funciones de Scheifele se utilizan los algoritmos descritos
en el capítulo 1, cuyos códigos …guran en los anexos.
Se implementan las matrices recurrentes A¡tp y B¡tp , mediante las fórmulas descri-
84
tas en la sección: ”Cálculo recurrente de las matrices A¡tp y B¡tp .” , de este capítulo.
Como inicializador del código, se ha utilizado el LSODE[adamsfunc] de Maple V.
Se obtiene la tabla de diferencias divididas, en los i primeros puntos con i =
0; :::; p¡ 1.
Por (de…nición no 49), calculamos la aproximación xp, que permite escribir la
siguiente línea de la tabla de diferencias divididas y obtener la aproximación xp+1:
Tomando la …la p de la tabla de diferencias divididas, por (de…nición no 51),
calculamos una corrección.
Ver Anexo VI.
3.6 Ejemplos numéricos
3.6.1 Problemas sti¤
Los modelos matemáticos de los fenómenos físicos dan lugar muchas veces a sistemas
de ecuaciones diferenciales ordinarias y P.V.I. Los PVI sti¤ aparecen por primera vez
en el estudio de resortes elásticos de rigidez variable, de ahí su nombre, [43]. Los
métodos de diferencias …nitas son excelentes para el tratamiento numérico de dichos
problemas desde que fue posible su implementación a un ordenador. El desarrollo
de los algoritmos se ha fundamentado en gran parte tanto en los teoremas sobre
convergencia y estabilidad de Dahlquist [9],[10],[11],[12], como en los tratados de
Henrici [44] , Stetter [80] y los trabajos de Gear [40] y Lambert [50]. Muchos de estos
P.V.I., presentan di…cultades de integración por los métodos numéricos tradicionales.
85
Lambert [50] propone los dos problemas siguientes:
Problema no10
BB@
x0
1
x0
2
1
CCA =
0
BB@
¡2 1
1 ¡2
1
CCA
0
BB@
x1
x2
1
CCA +
0
BB@
2 sin(t)
2(cos(t)¡ sin(t))
1
CCA
0
BB@
x1(0)
x2(0)
1
CCA =
0
BB@
2
3
1
CCA
Problema no20
BB@
x0
1
x0
2
1
CCA =
0
BB@
¡2 1
998 ¡999
1
CCA
0
BB@
x1
x2
1
CCA +
0
BB@
2 sin(t)
999(cos(t) ¡ sin(t))
1
CCA
0
BB@
x1(0)
x2(0)
1
CCA =
0
BB@
2
3
1
CCA
ambos tienen la misma solución exacta:0
BB@
x1
x2
1
CCA = 2e¡t
0
BB@
1
1
1
CCA +
0
BB@
sin(t)
cos(t)
1
CCA
Para integrar los dos problemas anteriores en el intervalo [0; 10], aplica el código
RKF45 al problema no1, con TOL = 0:01 y h0 = 0:1 necesitando un número N = 60
evaluaciones para la integración completa en este intervalo. Aplicando el mismo
código con los mismos valores de TOL y h0 se requieren N = 3373 evaluaciones para
completar la solución. Sin embargo cuando les aplica el método 2-step Gauss, (que
tiene orden cuatro como el RKF45, pero es implícito), necesita N = 29 y N = 24
evaluaciones, para el problema no1 y el problema no2, respectivamente. Se tiene dos
problemas similares que se comportan de manera muy diferente cuando se intentan
resolver numéricamente.
86
El fenómeno aquí mostrado se conoce como sti¤ness (rigidez); el problema no2 es
sti¤, el problema no1 no lo es. Ver Lambert [50].
El fenómeno no puede depender de la solución exacta, ya que es la misma para
ambos problemas, y debe ser una característica del sistema diferencial en sí mismo,
por tanto es más apropiado hablar de sistemas sti¤ antes que de problemas sti¤. Esto
induce a considerar no las soluciones particulares de los problemas no1 y no2 que
satisfacen las condiciones iniciales dadas, sino las soluciones generales del sistema, en
las que se requiere calcular los autovalores de la matriz de coe…cientes. En el problema
no1, los autovalores son ¡1 y ¡3; en el problema no2 son ¡1 y ¡1000. Aunque dar
una de…nición rigurosa de sti¤ness, es difícil, Lambert en 1973, propuso la siguiente
”de…nición”.
Sea un sistema lineal no homogéneo de coe…cientes constantes
x0= Ax + g(t)
donde x; g 2Rm y A es una matriz constante de orden m con autovalores ¸i 2 C que
se consideran distintos, con i = 1; :::; m y autovectores correspondientes ci 2 Cm. La
solución general viene dada en la forma
x(t) =mX
i=1
·iet¸ici + xp(t)
donde ·i es una constante arbitraria y xp(t) es una solución particular del sistema
anterior.
Supongamos que Re(¸i) < 0 con i = 1; :::; m. Sean ¸, ¸ 2 f¸i; i = 1; :::; mg
de…nidas del modo siguiente
¯¯Re¸
¯¯ = jRe ¸ij = jRe¸j
87
con i = 1; :::; m. Consideramos la ratio sti¤ness como la razónjRe¸jjRe¸j
que proporciona
una medida de la rigidez del sistema.
En estos términos un sistema lineal de coe…cientes constantes es sti¤ si todos sus
autovalores tienen parte real negativa y la ratio sti¤ness es grande.
Sin embargo esta ”de…nición” no es enteramente satisfactoria, pues se encuentran
ejemplos que la cumplen y no son estrictamente sti¤. [50].
Quizá la mejor ”de…nición” sea la que interpreta lo que ocurre en la práctica: ”Si
un método numérico con una región …nita de estabilidad absoluta, aplicado a un sis-
tema con cualesquiera condiciones iniciales, se ve forzado a usar en un cierto intervalo
de integración, un tamaño de paso que es excesivamente pequeño con respecto a la
suavidad de la solución exacta, en ese intervalo, entonces el sistema se dice sti¤ en
ese intervalo.” [50]
3.6.2 Ejemplo 1
En este ejemplo numérico, vamos a comparar las aproximaciones obtenidas mediante
el método E.I.pPC, aplicado al problema no1 de Lambert, del que sabemos que es no
sti¤ [50], con las obtenidas por el LSODE.
0
BB@
x0
1
x0
2
1
CCA =
0
BB@
¡2 1
1 ¡2
1
CCA
0
BB@
x1
x2
1
CCA +
0
BB@
2 sin(t)
2(cos(t)¡ sin(t))
1
CCA
0
BB@
x1(0)
x2(0)
1
CCA =
0
BB@
2
3
1
CCA
88
con solución exacta:0
BB@
x1
x2
1
CCA = 2e¡t
0
BB@
1
1
1
CCA +
0
BB@
sin(t)
cos(t)
1
CCA
y autovalores ¸ = ¡3 y ¸ = ¡1.
Para un método explícito de p = 7 pasos y 1000 iteraciones (tamaño de paso h =
0:01), obtenemos la grá…ca, (Figura no 3.3) del logaritmo decimal del módulo del error
relativo del método E.I.pE (grá…ca azul), contrastada con la del logaritmo decimal
del módulo del error relativo del LSODE[backfunc], MapleV, con tol = 10¡15(grá…ca
roja).
Para un método predictor-corrector de p = 7 pasos y 1000 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca, (Figura no 3.4) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo del LSODE[backfunc], MapleV, con
tol = 10¡15(grá…ca roja).
Vamos ahora a comparar las aproximaciones obtenidas mediante el método E.I.pPC,
aplicado al problema sti¤ no2 de Lambert [50] con las obtenidas mediante el código
LSODE, Hindmarsh 1980 [1], de paso y orden variable que incorpora Adams Moulton
de orden p : 1 5 p 5 12 para la fase no sti¤ y BDF de orden 1 5 p 5 5 para la
fase sti¤. Este método combina las capacidades de los códigos Gear y GearB, para
resolver problemas sti¤. Ola Fatunla, S [64].
0
BB@
x0
1
x0
2
1
CCA =
0
BB@
¡2 1
998 ¡999
1
CCA
0
BB@
x1
x2
1
CCA +
0
BB@
2 sin(t)
999(cos(t) ¡ sin(t))
1
CCA
89
0
BB@
x1(0)
x2(0)
1
CCA =
0
BB@
2
3
1
CCA
con solución exacta, idéntica a la del problema no 1 anterior, y valores propios ¸ =
¡1000 y ¸ = ¡1.
Para un método explícito de p = 7 pasos y 1000 iteraciones (tamaño de paso h =
0:01), obtenemos la grá…ca, (Figura no 3.5) del logaritmo decimal del módulo del error
relativo del método E.I.pE (grá…ca azul), contrastada con la del logaritmo decimal
del módulo del error relativo del LSODE[backfunc], MapleV, con tol = 10¡15(grá…ca
roja).
Para un método predictor-corrector de p = 7 pasos y 1000 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca, (Figura no 3.6) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo del LSODE[backfunc], MapleV, con
tol = 10¡15(grá…ca roja).
Si comparamos los resultados obtenidos en el problema no 1 y el no 2, de este
ejemplo, se observa que un método numérico potente, como es el LSODE, no presenta
mayor di…cultad en la integración del problema no 1, pero es de resaltar la diferencia
de coste computacional, ver …guras 3.3, 3.4, 3.5, 3.6, cuando se trata de un problema
sti¤, como es el no 2.
Para un método predictor-corrector de p = 7 pasos y 1000 iteraciones (tamaño de
paso h = 0:01), obtenemos la grá…ca (Figura no 3.7) del logaritmo decimal del módulo
del error relativo del método E.I.pE (grá…ca azul), contrastada con la del logaritmo
90
decimal del módulo del error relativo de los siguientes códigos:
- MGEAR[msteppart], Maple V, con errorper = Float(1;¡13) (grá…ca ver-
de).
- LSODE[backfunc], MapleV, con tol = 10¡15(grá…ca roja).
- GEAR, Maple V, con errorper = F loat(1;¡12) (grá…ca negra).
Las grá…cas de tiempo de acceso a la CPU, medido en seg., para el método E.I.pE
de tres, cinco, siete y diez pasos, contrastadas con los tiempos de acceso a la CPU del
LSODE[backfunc], MGEAR[msteppart], GEAR, están representadas en la (Figura no
3.8).
Las grá…cas de tiempo de acceso a la CPU, medido en seg., para el método E.I.pPC
de tres, cinco, siete y diez pasos, contrastadas con los tiempos de acceso a la CPU del
LSODE[backfunc], MGEAR[msteppart], GEAR, están representadas en la siguiente
(Figura no 3.9).
3.6.3 Ejemplo 2
Consideremos el problema siguiente, propuesto, en [57], donde la matriz de coe…cientes
del sistema, tiene autovalores con parte real negativa.
0
BBBBBB@
x0
1
x0
2
x0
3
1
CCCCCCA
=
0
BBBBBB@
0 2 ¡1
¡2 ¡4 2
¡2 ¡3 1
1
CCCCCCA
0
BBBBBB@
x1
x2
x3
1
CCCCCCA
+2"(x3¡ x2)2
0
BBBBBB@
0
1
1
1
CCCCCCA
91
con las condiciones iniciales0
BBBBBB@
x1(0)
x2(0)
x3(0)
1
CCCCCCA
=
0
BBBBBB@
1
1
2
1
CCCCCCA
+ "
0
BBBBBB@
1
¡2
¡2
1
CCCCCCA
solución exacta0
BBBBBB@
x1(t)
x2(t)
x3(t)
1
CCCCCCA
= e¡t
0
BBBBBB@
1 + sin(t)
cos(t) ¡ sin(t)
1 + cos(t) ¡ sin(t)
1
CCCCCCA
+ "e¡2t
0
BBBBBB@
1
¡2
¡2
1
CCCCCCA
y autovalores ¸ = ¡1, ¸ = ¡1 + i, ¸ = ¡1¡ i.
Para un método explícito de p = 8 pasos y 500 iteraciones (tamaño de paso h =
0:1), obtenemos la grá…ca, (Figura no 3.10) del logaritmo decimal del módulo del error
relativo del método E.I.pE (grá…ca azul), contrastada con la del logaritmo decimal
del módulo del error relativo del LSODE[backfunc], MapleV, con tol = 10¡15(grá…ca
roja), y " = 10¡3.
Para un método predictor-corrector de p = 8 pasos y 500 iteraciones (tamaño
de paso h = 0:1), obtenemos la grá…ca, (Figura no 3.11) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo del LSODE[backfunc], MapleV, con
tol = 10¡15(grá…ca roja), y " = 10¡3:
Para un método predictor-corrector de p = 8 pasos y 1000 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca (Figura no 3.12) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo de los siguientes códigos:
92
- MGEAR[msteppart], Maple V, con errorper = Float(1;¡15) (grá…ca ver-
de).
- LSODE[backfunc], MapleV, con tol = 10¡15(grá…ca roja).
- GEAR, Maple V, con errorper = F loat(1;¡12) (grá…ca negra).
3.6.4 Ejemplo 3
Consideramos el sistema, propuesto en [57], con autovalores imaginarios puros, si-
guiente:
0
BBBBBBBBBB@
x0
1
x0
2
x0
3
x0
4
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
¡1 1 1 0
¡1 1 1 1
¡1 0 0 ¡1
4 ¡4 0 0
1
CCCCCCCCCCA
0
BBBBBBBBBB@
x1
x2
x3
x4
1
CCCCCCCCCCA
+ "
0
BBBBBBBBBB@
0
0
¡8 sin(3t)
¡5e¡t
1
CCCCCCCCCCA
con las condiciones iniciales0
BBBBBBBBBB@
x1(0)
x2(0)
x3(0)
x4(0)
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
1
1
0
2
1
CCCCCCCCCCA
+ "
0
BBBBBBBBBB@
0
¡1
4
1
1
CCCCCCCCCCA
solución exacta0
BBBBBBBBBB@
x1(t)
x2(t)
x3(t)
x4(t)
1
CCCCCCCCCCA
=
0
BBBBBBBBBB@
cos(t)
cos(t) + sin(2t)
¡ sin(t)¡ sin(2t)
2 cos(2t)
1
CCCCCCCCCCA
+ "
0
BBBBBBBBBB@
sin(3t)
sin(3t) ¡ e¡t
3 cos(3t) + e¡t
e¡t
1
CCCCCCCCCCA
93
y autovalores: ¸ = i, ¸ = ¡i, ¸ = 2i, ¸ = ¡2i.
Para un método explícito de p = 8 pasos y 1000 iteraciones (tamaño de paso
h = 0:1), obtenemos la grá…ca, (Figura no 3.13) del logaritmo decimal del módulo
del error relativo del método E.I.pE (grá…ca azul), contrastada con la del logaritmo
decimal del módulo del error relativo del LSODE[backfunc], MapleV, con tol = 10¡10
(grá…ca roja), y " = 10¡3.
Para un método predictor-corrector de p = 8 pasos y 1000 iteraciones (tamaño
de paso h = 0:1), obtenemos la grá…ca, (Figura no 3.14) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo del LSODE[backfunc], MapleV, con
tol = 10¡10(grá…ca roja), y " = 10¡3:
Para un método predictor-corrector de p = 10 pasos y 1000 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca (Figura no 3.15) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo de los siguientes códigos:
- MGEAR[msteppart], Maple V, con errorper = Float(1;¡18) (grá…ca ver-
de).
- LSODE[backfunc], MapleV, con tol = 10¡20(grá…ca roja).
- GEAR, Maple V, con errorper = F loat(1;¡13) (grá…ca negra).
94
3.6.5 Ejemplo 4
Veamos un caso inestable de autovalores con parte real positiva.
0
BB@
x0
1
x0
2
1
CCA =
0
BB@
1 0
0 1
1
CCA
0
BB@
x1
x2
1
CCA + "
px1
0
BB@
0
1
1
CCA
con las condiciones iniciales
0
BB@
x1(0)
x2(0)
1
CCA =
0
BB@
1
0
1
CCA
y solución exacta 0
BB@
x1
x2
1
CCA = et
0
BB@
1
2"(1¡ e¡t2 )
1
CCA
Para un método explícito de p = 8 pasos y 1000 iteraciones (tamaño de paso
h = 0:1), obtenemos la grá…ca, (Figura no 16) del logaritmo decimal del módulo
del error relativo del método E.I.pE (grá…ca azul), contrastada con la del logaritmo
decimal del módulo del error relativo del LSODE[backfunc], MapleV, (grá…ca roja).
Con tol = 10¡12 y " = 10¡3.
Para un método predictor-corrector de p = 8 pasos y 1000 iteraciones (tamaño
de paso h = 0:1), obtenemos la grá…ca, (Figura no 3.17) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del lo-
garitmo decimal del módulo del error relativo del LSODE[backfunc], MapleV, (grá…ca
roja).Con tol = 10¡12 y " = 10¡3.
Para un método predictor-corrector de p = 8 pasos y 1000 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca (Figura no 3.18) del logaritmo decimal del
95
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo de los siguientes códigos:
- MGEAR[msteppart], Maple V, con errorper = Float(1;¡14) (grá…ca ver-
de).
- LSODE[backfunc], MapleV, con tol = 10¡20(grá…ca roja).
- GEAR, Maple V, con errorper = F loat(1;¡15) (grá…ca negra).
3.6.6 Ejemplo 5
Para aproximar la solución de un PVI de segundo orden como:
x00
= f (t; x; x0
) con x(t0) = x0 y x0
(t0) = x0
0
se reduce la ecuación diferencial a un sistema de dos ecuaciones de primer orden.
Para ello bastará sustituir x0= v transformándose el PVI anterior en:
x0
= v
v0= f(t; x; v)
x(t0) = x0 y v(t0) = x0
0
Si empleamos un procedimiento como el que acabamos de describir, con frecuencia
podemos reducir un sistema de ecuaciones diferenciales de orden superior a uno de
ecuaciones de primer orden, despejando primero la derivada de orden máximo de cada
variable dependiente y luego haciendo las sustituciones adecuadas para las derivadas
de orden menor.[94].
Consideremos el PVI:
96
x00
1 + 2x00
2 = x0
1¡ 5x1 + et
x00
2 = 2x1 ¡ 2x2 +3t2
x1(0) = 1; x0
1(0) = 0
x2(0) = 0; x0
2(0) = 0
Si de…nimos x0
1 = v y x0
2 = w, las ecuaciones anteriores se transforman en:
x0
1 = v
x0
2 = w
v0= ¡9x1+ 4x2 + v + e
t ¡ 6t2
w0= 2x1 ¡ 2x2+ 3t
2
x1(0) = 1, x2(0) = 0; v(0) = 0; w(0) = 0
y autovalores ¸ = 0:444315 § 3:11327i ,¸ = 0:0556848§ 1:004i.
Para un método predictor-corrector de p = 8 pasos y 200 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca (Figura no 3.19) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo de los siguientes códigos:
- MGEAR[msteppart], Maple V, con errorper = Float(1;¡15) (grá…ca ver-
de).
- LSODE[backfunc], MapleV, con tol = 10¡20(grá…ca roja).
- GEAR, Maple V, con errorper = F loat(1;¡14) (grá…ca negra).
97
3.6.7 Ejemplo 6
Consideremos el problema, altamente oscilatorio, propuesto por G. Denk [14].
0
BB@
x0
1
x0
2
1
CCA =
0
BB@
0 1
¡{2 0
1
CCA
0
BB@
x1
x2
1
CCA +{2
0
BB@
0
t
1
CCA
con { = 314:16, t 2 [0; 1] y condiciones iniciales
0
BB@
x1(0)
x2(0)
1
CCA =
0
BB@
10¡5
1¡ 10¡5{cos{
sin {
1
CCA
solución exacta0
BB@
x1
x2
1
CCA =
0
BB@
t+ 10¡5³cos({ t)¡
cos{
sin {sin({ t)
´
1¡ 10¡5{³sin({ t) +
cos{
sin{cos({ t)
´
1
CCA
y autovalores: ¸ = { i = 314:16i y ¸ = ¡{ i = ¡314:16i.
Para un método predictor-corrector de p = 9 pasos y 100 iteraciones (tamaño
de paso h = 0:01), obtenemos la grá…ca (Figura no 3.20) del logaritmo decimal del
módulo del error relativo del método E.I.pPC (grá…ca azul), contrastada con la del
logaritmo decimal del módulo del error relativo de los siguientes códigos:
- MGEAR[msteppart], Maple V, con errorper = Float(1;¡20) (grá…ca ver-
de).
- LSODE[backfunc], MapleV, con tol = 10¡20(grá…ca roja).
- GEAR, Maple V, con errorper = F loat(1;¡16) (grá…ca negra).
98
3.7 Figuras capítulo 3
3.7.1 Ejemplo 1
LSODE
Método adaptado
t
log(error)
LSODE
Método adaptado
t
log(error)
Figura no 3.3.
Método explícito de 7 pasos, tamaño de paso 0.01
LSODE[backfunc] con tolerancia 10¡15
Tiempos de CPU.LSODE = 74.32 seg
Método adaptado = 262.60 seg
99
LSODE
Método adaptado
t
log(error)
LSODE
Método adaptado
t
log(error)
Figura no 3.4.
Método PC de 7 pasos, tamaño de paso 0.01
LSODE[backfunc] con tolerancia 10¡15
Tiempos de CPU.LSODE = 74.32 seg
Método adaptado = 590.14 seg
100
t
log(error)
LSODE
Métodoadaptado
Figura no 3.5.
Método explícito de 7 pasos, tamaño de paso 0.01
LSODE[backfunc] con tolerancia 10¡15
Tiempos de CPU.LSODE = 574.27 seg
Método adaptado = 272.17 seg
101
t
log(error)
Método
adaptado
LSODE
Figura no 3.6.
Método PC de 7 pasos, tamaño de paso 0.01
LSODE[backfunc] con tolerancia 10¡15
Tiempos de CPU.LSODE = 574.27 seg
Método adaptado = 580.65 seg
102
t
log (error)
MGEAR
LSODE
GEAR
Método adaptado
Figura no 3.7.
Método PC de 7 pasos, tamaño de paso 0.01
MGEAR[msteppart] con errorper Float(1,-13)
LSODE[backfunc] con tolerancia 10¡15
GEAR con errorper Float(1,-12)
Tiempos de CPU.
LSODE = 574.27 seg
MGEAR = 13.44 seg
GEAR= = 1830.45 seg
Método adaptado = 580.65 seg
103
Tiempos de la CPU en seg..
log (error)LSODE
GEARMGEAR
Método de tres pasos
Método decinco pasos
Método de siete pasos
Método dediez pasos
Figura no 3.8.
Grá…cas de tiempo de acceso a la CPU, del método
E.I.pE, contrastadas con los métodos LSODE,
MGEAR y GEAR.
104
Método detres pasos
Método de cinco pasos
Método de siete pasos
Métodode diezpasos
LSODE
GEAR
MGEAR
Tiempos de la CPU en seg
log (error)
Figura no 3.9.
Grá…cas de tiempo de acceso a la CPU, del método
E.I.pPC, contrastadas con los métodos LSODE,
MGEAR y GEAR.
105
3.7.2 Ejemplo 2
t
log(error)
LSODE
Método
adaptado
Figura no 3.10.
Método explícito de 8 pasos, tamaño de paso 0.1 y " igual a 10¡3
LSODE[backfunc] con tolerancia 10¡15.
Tiempos de CPU.LSODE =75.76 seg
Método adaptado =167.67 seg
106
t
log(error)LSODE
Método
adaptado
Figura no 3.11.
Método PC de 8 pasos, tamaño de paso 0.1 y " igual a 10¡3
LSODE[backfunc] con tolerancia 10¡15.
Tiempos de CPU.LSODE =75.76 seg
Método adaptado =392.60 seg
107
t
log (error)
Método adaptado
LSODE
GEAR
MGEAR
Figura no 3.12.
Método PC de 8 pasos, tamaño de paso 0.01 y " igual a 10¡3
MGEAR con errorper Float(1,-15)
LSODE[backfunc] con tolerancia 10¡15
GEAR con errorper Float(1,-12)
Tiempos de CPU.
LSODE = 153.61 seg
MGEAR = 60.27 seg
GEAR = 42.2 seg
Método adaptado = 768.24 seg
108
3.7.3 Ejemplo 3
t
log(error)
LSODE
Mëtodo
adaptado
Figura no 3.13.
Método explícito de 8 pasos, tamaño de paso 0.1 y " igual a 10¡3
LSODE[backfunc] con tolerancia 10¡10
Tiempos de CPU.LSODE =316.99 seg
Método adaptado =450.21 seg
109
t
log(error)
LSODE
Método adaptado
Figura no 3.14
Método PC de 8 pasos, tamaño de paso 0.1 y " igual a 10¡3
LSODE[backfunc] con tolerancia 10¡10
Tiempos de CPU.LSODE =316.99 seg
Método adaptado =1010.63 seg
110
LSODE
t
log (error)
Métodoadaptado
GEAR
MGEAR
Figura no 3.15
Método PC de 10 pasos, tamaño de paso 0.01 y " igual a 10¡3
MGEAR con errorper Float(1,-18)
LSODE[backfunc] con tolerancia 10¡20
GEAR con errorper Float(1,-13)
Tiempos de CPU.
LSODE = 982.65 seg
MGEAR = 307.11 seg
GEAR = 90.82 seg
Método adaptado = 1129.69 seg
111
3.7.4 Ejemplo 4
t
log(error)
LSODE
Método
adaptado
Figura no 3.16
Método explícito de 8 pasos, tamaño de paso 0.1 y " igual a 10¡3
LSODE[backfunc] con tolerancia 10¡12
Tiempos de CPU.LSODE = 355.34 seg
Método adaptado = 416.85 seg
112
t
log(error)
Método
adaptado
LSODE
Figura no 3.17
Método PC de 8 pasos, tamaño de paso 0.1 y " igual a 10¡3
LSODE[backfunc] con tolerancia 10¡12
Tiempos de CPU.LSODE = 355.34 seg
Método adaptado = 834.26 seg
113
t
log (error)
MGEAR
LSODE
GEAR
Método adaptado
Figura no 3.18
Método PC de 8 pasos, tamaño de paso 0.01 y " igual a 10¡3
MGEAR con errorper Float(1,-14)
LSODE[backfunc] con tolerancia 10¡20
GEAR con errorper Float(1,-15)
Tiempos de CPU.
LSODE = 574.27 seg
MGEAR = 263.58 seg
GEAR = 102.53 seg
Método adaptado = 272.17 seg
114
3.7.5 Ejemplo 5
t
log(error)
MGEAR
LSODE
GEAR
Método adaptado
Figura no 3.19
Método PC de 8 pasos, tamaño de paso 0.01.
MGEAR con errorper Float(1,-15)
LSODE[backfunc] con tolerancia 10¡20
GEAR con errorper Float(1,-14)
Tiempos de CPU.
LSODE = 544.27 seg
MGEAR = 55.60 seg
GEAR = 48.36 seg
Método adaptado = 221.84 seg
115
3.7.6 Ejemplo 6
LSODE
MGEAR
GEAR
Método adaptado
t
log(error)
LSODE
MGEAR
GEAR
Método adaptado
t
log(error)
Figura no 3.20
Método PC de 9 pasos, tamaño de paso 0.01.
MGEAR con errorper Float(1,-20)
LSODE[backfunc] con tolerancia 10¡20
GEAR con errorper Float(1,-16)
Tiempos de CPU.
LSODE = 8848.92 seg
MGEAR = 3534.13 seg
GEAR = 196.60 seg
Método adaptado = 73.14 seg
Anexo I
> w0:=proc(kmax)
> local Y,i,k,g0,C,sigma;
> with(linalg):
> Digits:=:
> Y:=array(0..kmax,0..kmax);
> sigma:=proc(indice,matriz)
> local f,c,resultado;
> f:=rowdim(matriz);
> c:=coldim(matriz);
> resultado:=(array(1..f,1..c,identity)+matriz/indice)^indice;
> RETURN(resultado);
> end;
> for i from 0 to kmax do Y[i,0]:=sigma(2^i,H) od;
> for k from 1 to kmax do
> for i from 0 to kmax-k do
> Y[i,k]:=Y[i+1,k-1]+1/(2^k-1)*(Y[i+1,k-1]-Y[i,k-1]);
117
Anexo II
> w1:=proc(kmax)
> local Y,i,k,g1,C,sigma1;
> with(linalg):
> Digits:=:
> Y:=array(0..kmax,0..kmax):
> sigma1:=proc(n,matriz)
> local resultado:
> resultado:=sum(’(product((n-p),p=0..(j-1))/(j!*n^j))*matriz^(j-1)’,’j=1..n’):
> RETURN(resultado):
> end:
> for i from 0 to kmax do Y[i,0]:=sigma1(2^i,H) od:
> for k from 1 to kmax do
> for i from 0 to kmax-k do
> Y[i,k]:=Y[i+1,k-1]+1/(2^(k-1))*(Y[i+1,k-1]-Y[i,k-1]):
> od
> od:
119
Anexo III
> w2:=proc(kmax)
> local Y,i,k,g2,C,sigma2;
> with(linalg):
> Digits:=:
> Y:=array(0..kmax,0..kmax):
> sigma2:=proc(n,matriz)
> local resultado:
> resultado:=sum(’(product((n-p),p=0..(j-1))/(j!*n^j))*matriz^(j-2)’,’j=2..n’):
> RETURN(resultado):
> end:
> for i from 0 to kmax do Y[i,0]:=sigma2(2^i,H) od:
> for k from 1 to kmax do
> for i from 0 to kmax-k do
> Y[i,k]:=Y[i+1,k-1]+1/(2^(k-1))*(Y[i+1,k-1]-Y[i,k-1]):
> od
> od:
121
Anexo IV
> w3:=proc(kmax)
> local Y,i,k,g3,C,sigma3;
> with(linalg):
> Digits:=:
> Y:=array(0..kmax,0..kmax):
> sigma3:=proc(n,matriz)
> local resultado:
> resultado:=sum(’(product((n-p),p=0..(j-1))/(j!*n^j))*matriz^(j-3)’,’j=3..n’):
> RETURN(resultado):
> end:
> for i from 0 to kmax do Y[i,0]:=sigma3(2^i,H) od:
> for k from 1 to kmax do
> for i from 0 to kmax-k do
> Y[i,k]:=Y[i+1,k-1]+1/(2^(k-1))*(Y[i+1,k-1]-Y[i,k-1]):
> od
> od:
123
Anexo V
> restart:
> Digits:=:
> with(linalg):
> q:=:
> p:=:
> n:=:
> h:=:
Matriz del sistema
> A:=matrix(q,q,[]);
> zz:=array(1..q,1..1):
Ecuaciones del sistema
> f.1:=;
> f.2:=:
> sys:=:
> init:=:
> fcns :=[]:
125
126
Cálculo de las funciones G
> P:=inverse(A):
> J:=evalm(array(identity,1..q,1..q)):
> H:=evalm(h*A):
> w0:=proc(kmax)
> local Y,i,k,g0,C,sigma;
> Y:=array(0..kmax,0..kmax);
> sigma:=proc(indice,matriz)
> local f,c,resultado;
> f:=rowdim(matriz);
> c:=coldim(matriz);
> resultado:=(array(1..f,1..c,identity)+matriz/indice)^indice;
> RETURN(resultado);
> end;
> for i from 0 to kmax do Y[i,0]:=sigma(2^i,H) od;
> for k from 1 to kmax do
> for i from 0 to kmax-k do Y[i,k]:=Y[i+1,k-1]+1/(2^k-1)*(Y[i+1,k-1]-Y[i,k-1]);
> od
> od;
> Y[0,kmax];
> C:= evalf(evalm(Y[0,kmax]));
> RETURN(C);
> end:
127
> kmax:=15:
> g0:=w0(kmax):
> g:=array(0..p):
> g[0]:=evalm(w0(kmax)):
> for j from 1 to p do:
> g[j]:=evalm(P&*(g[j-1]-h^(j-1)/(j-1)!*J)):
> od:
Matriz recurrente.
> S:=array(1..p,1..p):
> S[1,1]:=1:
> for i from 2 to p do
> S[i,1]:=0:
> od:
> for j from 2 to p do
> S[1,j]:=0:
> od:
> for j from 2 to p do
> for i from 2 to p do
> S[i,j]:=S[i-1,j-1]-S[i,j-1]*(2-j)*h:
> od:
> od:
Cálculo de ¤i
> l:=array(0..p):
128
> for j from 1 to p do
> l[j]:=evalm(sum(’S[i,j]*(i-1)!*g[i]’, ’i’=1..j));
> od:
Cálculo de las diferencias divididas.
> x:=array(0..n):
> for i from 0 to n do
> x[i]:=array(1..q,1..1);
> od:
> t:=array(0..n):
> for i from 0 to n do t[i]:=h*i od:
> for j from 1 to q do y.j:=array(0..n):
> od:
> for k from 1 to q do
> for i from 0 to (p-1) do y.k[i]:=evalf(f.k(t[i],x[i])) od:
> od:
> for j from 1 to q do DIF.j:=array(0..n,0..(p-1)) od:
> for k from 1 to q do
> for i from 0 to (p-1) do DIF.k[i,0]:=y.k[i] od:
> od:
> for k from 1 to q do
> for j from 1 to (p-1) do
> for i from j to (p-1) do
> DIF.k[i,j]:=(DIF.k[i,j-1]-DIF.k[i-1,j-1])/(t[i]-t[i-j]);
129
> od:
> od:
> od:
Aplicación del método explícito.
> a:=array(1..p):
> for i from 1 to p do
> a[i]:=array(1..q,1..1);
> od:
> for i from (p-1) to (n-1) do
> for j from 1 to p do
> for k from 1 to q do
> a[j][k,1]:=DIF.k[i,j-1];
> od:
> od:
> x[i+1]:=evalm(g[0]&*x[i]+sum(’l[j]&*a[j]’,’j’=1..p));
> for k from 1 to q do
> y.k[i+1]:=evalf(f.k(t[i+1],x[i+1])):
> od:
> for j from 1 to q do
> DIF.j[i+1,0]:=y.j[i+1]:
> od:
> for k from 1 to (p-1) do
> for u from 1 to q do
Anexo VI
> restart:
> Digits:=:
> with(linalg):
> q:=:
> p:=:
> n:=:
> h:=:
Matriz del sistema.
> A:=matrix(q,q,[]);
Ecuaciones del sistema.
> f.1:=
> f.2:=
> sys:=:
> init:=:
> fcns :=
Cálculo de las funciones G
131
132
> P:=inverse(A):
> J:=evalm(array(identity,1..q,1..q)):
> H :=evalm(h*A):
> w0:=proc(kmax)
> local Y,i,k,g0,C,sigma;
> with(linalg):
> Y:=array(0..kmax,0..kmax);
> sigma:=proc(indice,matriz)
> local f,c,resultado;
> f:=rowdim(matriz);
> c:=coldim(matriz);
> resultado:=(array(1..f,1..c,identity)+matriz/indice)^indice;
> RETURN(resultado);
> end;
> for i from 0 to kmax do Y[i,0]:=sigma(2^i,H) od;
> for k from 1 to kmax do
> for i from 0 to kmax-k do Y[i,k]:=Y[i+1,k-1]+1/(2^k-1)*(Y[i+1,k-1]-Y[i,k-1]);
> od
> od;
> Y[0,kmax];
> C:= evalf(evalm(Y[0,kmax]));
> RETURN(C);
> end:
133
> kmax:=15:
> g0:=w0(kmax):
> g:=array(0..p+1):
> g[0]:=evalm(w0(kmax)):
> for j from 1 to p+1 do:
> g[j]:=evalm(P&*(g[j-1]-h^(j-1)/(j-1)!*J)):
> od:
Cálculo de la matriz recurrente, explícito.
> S:=array(1..p,1..p):
> S[1,1]:=1:
> for i from 2 to p do
> S[i,1]:=0:
> od:
> for j from 2 to p do
> S[1,j]:=0:
> od:
> for j from 2 to p do
> for i from 2 to p do
> S[i,j]:=S[i-1,j-1]-S[i,j-1]*(2-j)*h:
> od:
> od:
Cálculo de la matriz recurrente, implícito.
> Q:=array(1..p+1,1..p+1):
134
> Q[1,1]:=1:
> Q[1,2]:=-h:
> for i from 2 to p+1 do
> Q[i,1]:=0:
> od:
> for j from 3 to p+1 do
> Q[1,j]:=0:
> od:
> for j from 2 to p+1 do
> for i from 2 to p+1 do
> Q[i,j]:=Q[i-1,j-1]-Q[i,j-1]*(3-j)*h:
> od:
> od:
Cálculo de las ¤i.
> l:=array(0..p):
> for j from 1 to p do
> l[j]:=evalm(sum(’S[i,j]*(i-1)!*g[i]’, ’i’=1..j));
> od:
Cálculo de las ¡i.
> ll:=array(0..p+1):
> for j from 1 to p+1 do
> ll[j]:=evalm(sum(’Q[i,j]*(i-1)!*g[i]’, ’i’=1..j));
> od:
135
Cálculo de las diferencias divididas.
> x:=array(0..n):
> for i from 0 to n do
> x[i]:=array(1..q,1..1);
> od:
> X:=array(0..n):
> for i from 0 to n do
> X[i]:=array(1..q,1..1);
> od:
> t:=array(0..n):
> for i from 0 to n do t[i]:=h*i od:
> for j from 1 to q do y.j:=array(0..n):
> od:
> for k from 1 to q do
> for i from 0 to (p-1) do y.k[i]:=evalf(f.k(t[i],x[i])) od:
> od:
> for j from 1 to q do DIF.j:=array(0..n,0..p) od:
> for k from 1 to q do
> for i from 0 to (p-1) do DIF.k[i,0]:=y.k[i] od:
> od:
> for k from 1 to q do
> for j from 1 to (p-1) do
> for i from j to (p-1) do
136
> DIF.k[i,j]:=(DIF.k[i,j-1]-DIF.k[i-1,j-1])/(t[i]-t[i-j]);
> od:
> od:
> od:
Aplicación del método predictor-corrector.
> a:=array(1..p):
> for i from 1 to p do
> a[i]:=array(1..q,1..1);
> od:
> b:=array(1..p+1):
> for i from 1 to p+1 do
> b[i]:=array(1..q,1..1);
> od:
> for i from (p-1) to (n-1) do
> for j from 1 to p do
> for k from 1 to q do
> a[j][k,1]:=DIF.k[i,j-1];
> od:
> od:
> x[i+1]:=evalm(g[0]&*x[i]+sum(’l[j]&*a[j]’,’j’=1..p));
> for k from 1 to q do
> y.k[i+1]:=evalf(f.k(t[i+1],x[i+1])):
> od:
137
> for j from 1 to q do
> DIF.j[i+1,0]:=y.j[i+1]:
> od:
> for k from 1 to p do
> for u from 1 to q do
> DIF.u[i+1,k]:=(DIF.u[i+1,k-1]-DIF.u[i,k-1])/(t[i+1]-t[i+1-k]):
> od:
> od:
> for j from 1 to p+1 do
> for k from 1 to q do
> b[j][k,1]:=DIF.k[i+1,j-1];
> od;
> od;
> X[i+1]:=evalm(g[0]&*x[i]+sum(’ll[j]&*b[j]’,’j’=1..p+1));
> x[i+1]:=evalm(X[i+1]):
> od:
BIBLIOGRAFIA138
Alan C.: Odepack, a Systemized Collection of ODE Solvers. Hindmarsh Scienti-…c Computing, R. S. Stepleman et al. (eds.) North-Holland, Amsterdam, (1983).
Battin, R.H.: An introduction to the Mathematics and Methods of Astrodyna-mics. New York: AIAA (1987).
Bettis, D.G.: Numerical Integration of Products of Fourier and Ordinary Poli-nomials. Numer. Math. 14 (1970), 421.
Birkho¤, G.y MacLane, S.:Algebra Moderna. Ed. Vicens Vives, (1980).
Cash, J.R.: On the exponential …tting of composite, multiderivative linear mul-tistep methods. SIAM J. Numer. Anal. Vol. 18, no5 (1981), 808.
Carrillo de Albornoz, A.,Llamas Centeno, I..: Maple V, aplicaciones matemáti-cas. RA-MA. Madrid (1995).
Carrillo, P. and Saad, Y.: Preconditioning the Matrix Exponential Operatorwith Applications. Journal of Scienti…c Computing. Vol 13, no 3, (1998), 275.
Clark, A.: Elementos de Álgebra Abstracta. Ed. Alhambra, (1974)
Dahlquist, C.: Convergence and stability in the numerical integration of ordi-nary di¤erential equations. Math. Scand. 4, (1956), 33.
Dahlquist, C.: Stability and error bounds in the numerical solutions of ordi-nary di¤erential equations. Thesis in Trans. Royal Inst of Technology no130.Stockholm. (1959)
Dahlquist, C.: On stability error Analysis for sti¤ non linear problems. Reportno TRITA-NA-7508, Dept. of Information Processing, Computer Science, RoyalInst of Technology. Stockholm. (1975).
Dahlquist, C.: Error analysis for a class of a methods for sti¤ non linear initialvalue problems. Springer Verlag. Berlin. (1976).
Deprit, A, Elipe, A. and Ferrer, S. Celes. Mech. 58 (1994), 151.
Denk, G.: A new numerical method for de integration of highly oscillatorysecond-order ordinary di¤erential equations .App. Num. Math. 13 (1993), 57.
Deu‡hard, P.: A study of extrapolation methods based on multistep schemeswithout parasitic solutions. ZAMP. 30 (1979), 177.
Deu‡hard, P.: Kepler discretization in regular celestial mechanics. Celes. Mech.21 (1980), 213
139
Edwards W.S., Tuckerman, L.S., Friesner R.A., and Sorensen,D.C.: Krylovmethods for the incompressible Navier-Stokes equations. J. Comput. Phys, 110,(1994), 82.
Enright, W.H.:The Relative E¢ciency of Alternative Defect Control Schemesfor High Order Continuous Runge-Kutta Formulas. Technical Report 252/91,(1991).
Fairén, V., Martín, P. and Ferrándiz, J.M.: Numerical tracking of small devia-tions from analytically known periodic orbits. Computers in Physics. Vol 8, no
4, (1994), 455.
Ferrándiz, J.M.: A general cononical transformation increasing the number ofvariables with application to the two-body problem. Celes. Mech. 41 (1988),343.
Ferrándiz, J.M.: Linearization in special cases of perturbed Keplerian motions.Celes. Mech. 39 (1986) 23
Ferrándiz, J.M.: A new set of canonical variables for orbit calculation. Proce-edings of the Second International Symposium on Spacecraft Flight Dynamics,Darmstadt, FR Germany, ESA SP-255, (1986), 361.
Ferrándiz, J.M.: A general canonical transformation increasing the number ofvariables with application to the two-body problem. Celes. Mech. 41 (1988),343.
Ferrándiz, J.M., Ferrer, S. y Sein-Echaluce, L.: Genaralized elliptic anomalies.Celes. Mech. 40, (1987), 315.
Ferrándiz, J.M., Martín, P., Vigo, J.: Special algorithms to limit the errorgrowth in long-term computation of satellite orbits. Proceeding AAS/AIAASpace‡igh Mechanics meeting. Colorado-Spring (1992), 1167.
Ferrándiz, J.M and Novo, S.: Improved Bettis methods for long-term prediction.Predictability, Stability and Chaos in N-Body Dynamical Systems. A.E. Roy Ed,Plenum Publishing Corporation, NATO ASI Series C. (1991), 515.
Ferrándiz, J.M. y Sansaturio, M. E.: Elemento de tiempo en variables de Fe-rrándiz. Actas XIV Jornadas Hispano-Lusas de Matematicas, Puerto de la Cruz,Vol III, (1989), 1231.
Ferrándiz, J.M. y Sansaturio, M.E.: Extend canonical transformations with re-dundant variables: Hamiltonian and Lagrangian formulations and degenerition.(1992).
Ferrándiz, J.M, Sansaturio, M.E. and Pojmand J.R.: Increased accuracy of com-putations in the main satellite problem throught linearization methods. Celes.Mech. 53 (1992), 347.
140
Ferrándiz, J.M, Sansaturio, M.E. and Vigo, J.: On Long-time predictions ofsatellite orbits by numerical integrations on Predictability, Stability and Chaosin N-Body Dynamical Systems. A.E. Roy Ed, Plenum Publishing Corporation,NATO ASI Series C. (1991), 387.
Ferrándiz, J.M, Sansaturio, M.E. and Vigo, J.: Long-time predictions for highlyeccentric orbits. Instability, Chaos and Predictability in Celestial Mechanics andStellar Dynamics. I U A Symp (1993), 353.
Ferrándiz, J.M, Vigo J. and .Sansaturio, M.E.: On the Accurate NumericalComputation of Highly eccentric Orbits. Proceeding AAS/AIAA Space‡igh Me-chanics meeting. Colorado-Spring (1992), 1185.
Ferrándiz, J.M, and Vigo, J.: Integración numérica precisa de osciladores per-turbados a largo plazo. Actas del XII CEDYA / II Congreso de MatemáticaAplicada, Oviedo. (1991), 123
Ferrándiz, J.M, Vigo, J. and Martín, P.: Reducing the error growth in thenumerical propagation of satellite orbits. Proceedings of the Second Internatio-nal Symposium on Spacecraft Flight Dynamics, Darmstadt, FR Germany, ESASP-326, (1991), 49.
Ferrándiz, J.M, Vigo-Aguiar, J.: New numerical method improving the integra-tion of time in KS regularization. J. Guidance. Vol 19, no 3, (1996), 742.
Ferrard, J-M.: Maths et Maple. Dunod. Paris (1998).
Franco, J.M., Correas, J.M. y Petriz, F.: Métodos adaptados de tipo Störmer- Cowell de orden elevado. Revista Internacional de Métodos Numéricos paraCálculo y Diseño en Ingeniería. Vol 7, no 2 (1991), 193.
Friesner, R.A., Tuckerman, L.S., Dornblaser, B.C., and Russo, T.V.: A met-hod of exponential propagation of large system of sti¤ nonlinear di¤erentialequations. J. Sci. Comput. 4, (1989), 327.
Gautschi, W.: Numerical integration of ordinary di¤erential equations bases ontrigonometric polynomials. Numer. Math, 3 (1961), 381.
Gear, C.W.: Numerical Initial Value Problems in Ordinary Di¤erential Equa-tions. Prentice-Hall, (1971).
Grigorie¤, R.D.:Stability of Multistep- Methods on Variable Grids. Numer.Math. 42, (1983), 359.
Goodyear, W.H.: Completely General Closed-Form Solution for Coordinatesand Partial Derivatives of the Two-Body Problem. Astron. J. 70, (1965), 189.
Hairer, E., Wanner, G.:Solving Ordinary Di¤erential Equations II. Springer-Verlag. New York, (1996).
141
Henrici, P.: Discrete variable methods in ordinary di¤erential equations. JohnWiley and Sons, Inc. New York (1962).
Herrick, S.: Universal Variables. Astron. J. 70, (1965), 309.
Herstein, I.N.: Álgebra Moderna. Ed. Trillas. Mexico (1980)
Hochbruck, M and Lubich, Ch.: On Krylov subespace approximations to thematrix exponential operator. SIAM, J. Numer Anal. 34, (1997), 1911.
Kirchgraber, U.: An ODE-Solver Based on the Method of Averaging. Numer.Math. 53, (1988), 621
Kreider, D.L., Kuller, R.G. y Ostberg, D.R.: Ecuaciones Diferenciales. FondoEducativo Interamericano, (1973).
Lambert, J.D.: Numerical methods for ordinary di¤erential systems. John Wi-lley and Sons Ltd., New York, 1991.
Lambert, J.D.and Sigurdsson, S.T.: Multistep methods with variable matrixcoe¢cients. SIAM J. Numer. Analysis, 4 (1972), 715
Lentin, A., and Rivaud, J.: Álgebra Moderna. Ed. Aguilar, (1967).
Lyche, T.: Chebyshevian Multistep Methods for Ordinary Di¤erential Equa-tions. Numer. Math. 19 (1972), 65.
MacDonald, I.G.: Symmetric Functions and Hall Polinomials. Oxford Univer-sity Press Inc. New York (1998)
Martín, J.A., Morera, J.L. and Sirvent, A.:Linear Multistep Matrix Methods fora Class of Functional Di¤erential Equations: Convergence and Error Bounds.Mathl. Comput. Modelling. Vol 28, no 10, (1998), 17.
Martín, P. and Ferrándiz, J. M.: Multistep numerical methods based on Scheife-le G-functions with application to satellite dynamics. SIAM J. Numer. Analysis,34 (1997), 359
Martín, P. and Ferrándiz. J.M.: Numerical integration of perturbed linear sys-tems. Applied Numerical Mathematics, 31 (1999), 183.
Meinardus, G.: On the asymptotic behavior of iteration sequences. Proceedingsof the Fifth South African Symposium on Numerical Analysis. Durban (199).
Meinardus, G. und Merz, G.: Praktische Mathematik II. Bibliographisches Ins-titud. Mannheim-Zürich. (1982).
Milne-Thomson, L.M.: The calculus of …nite di¤erences. The Macmillan Press.New York, 1981.
142
Moler, C. and van Loan, C.: Nineteen dubious ways to compute the exponentialof a matrix. SIAM. Rev. 29, (1978), 801.
Nagle, R. K. y Sa¤, E. B.: Fundamentos de ecuaciones diferenciales. Addison -Wesley Iberoamericana (1992)
Neta, B. and Ford, C.H.: Families of methods for ordinary di¤erential equationsbased on trigonometric polynomials. J. of Comp. and Appl. Math. 10 (1984),33.
Ola Fatunla, S.:Numerical methods for initial value problems in ordinary di¤e-rential equations. Academic Press Inc.New York, (1988).
Palacios, M. and Franco, J.M. Adv. Astronaut. Sci. 68 (1989), 3.
Pérez López, C.: Métodos matemáticos y programación con Maple V. Ed. RA-MA, (1998).
Pitkin, E.T.: A Regularized Approach to Universal Variables. AIAA Journal 3,no 8, (1965).
Pitkin, E.T.: Second Transition Partial Derivatives Via Universal Variables.Journal of the Astronautical Sciencies 13, no 3, (1965).
Pitkin, E.T.: Integration with Universal Variables. AIAA J. 4, no 3, (1966).
Richardson, D. L. and Vigo-Aguiar, J.: A family of Variable Step ChebyshevMethods for Precise Integration of Perturbed Harmonic Oscillator.Adv. Astro-naut. Sci. vol 95 (1997), 1525.
Roy, A.E.: Orbital Motion. Institute of Physics Publishing. London (1978).
Simos, T. E.: Some new four-step exponential-…tting methods for de numericalsolution of the radial Schrödinger equation. IMA J. Numer. Anal. 11 (1991),347.
Simos, T. E. and Raptis, A. D.: A fourth-order Bessel …tting method for thenumerical solution of the Schrödinger equation. J. Comp. and Appl. Math. 43(1992), 313.
Scheifele, G.: On numerical integration of perturbed linear oscillating systems.ZAMP. 22 (1971), 186.
Shepperd, S.W.: Universal Keplerian State Transition Matrix. Celes. Mech. 35,(1985), 129.
Shepperd, S.W.: Naturally Ocurring Continued Fractions in the Variation ofKepler´s Equation. Celes. Mech. 42, (1988), 91.
143
Ste¤ensen, J.F.: On the Di¤erential Equations of Hill in the Theory of theMotion of the Moon. Acta Mathematica. 93, (1955), 169.
Ste¤ensen, J.F.: On the Di¤erntial Equations of Hill in the Theory of the Motionof the Moon (II). Acta Mathematica. 95, (1955), 25.
Ste¤ensen, J.F.: On the Restricted Problem of Three Bodies.Mat. Fys. Danske,Vid. Selsk 30, no 18, (1956).
Stetter, H.J. Analysis of discretization methods for ordinary di¤erential equa-tions. Springer, Berlin-Heildelberg-New York, 1973.
Stickel, E.: Über die Berechnung elementarer Matrixfunktionen. DissertationUniversität Ulm. 1985.
Stiefel, E.L. and Scheifele, G.: Linear and Regular Celestial Mechanics. Sprin-ger, Berlin-Heldelberg-New York (1971).
Szebehely, V. G.: Theory of Orbits, the Restricted Problem of three Bodies.Academic Press, New York, 1967.
Van Dooren, R.: Stabilization of Cowell’s clasical …nite di¤erence method fornumerical integration. J. of Comp. Physics, 16, (1974), 186.
Vanthournout, J., Vande Berge, G. and De Meyer, H.: Families of backwarddi¤erentiation methods based on a new type of mixed interpolation. Comput.Math. Appl. 20 (1990), 19.
Vigo-Aguiar, J. Doctoral Dissertation. University of Valladolid (1993).
Vigo-Aguiar, J. and Ferrándiz, J.M.: Higher-order varible-step algorithms adap-ted to the accurate numerical integration of perturbed oscillators. Computer inPhysics, vol 12, (1998), 467.
Vigo-Aguiar, J. and Ferrándiz, J.M.: A General Procedure for the Adaptationof Multistep Algorithms to the Integration of Oscillatory Problems. SIAM J. ofNumerical Analysis. vol 35 no 4 (1998), 1.684.
Vigo-Aguiar, J. An Approach to Variable Coe¢cients Methods for Special Di¤e-rential Equations. International Journal of Applied Mathematics Ed AcademicPub. vol 1 no 8 (1999), 168.
Vigo-Aguiar, J. and Ferrándiz, J.M.: Implementation of Bettis algorithms forthe numerical integration of perturbed oscillating systems. Computational Phy-sics Ed Word Scienti…c (1993). 349
Vigo-Aguiar, J. and Ferrándiz, J.M.: VSVO Adapted Multistep Methods for theNumerical Integration of Second Order Di¤erential Equations. Applied Mathe-matics Letters vol 11 no3 (1998), 83.
144
Walz, G.: Approximation von Funktionen durch asymptotische Entwicklungenund Eliminationsprozeduren. Dissertation. Universität Mannheim. (1987).
Walz, G.: Computing the matrix exponential and other matrix functions. Jour-nal of Computational and Applied Mathematics. North-Holland 21, (1988), 119
Zill, D.G.: Ecuaciones Diferenciales. Ed. International, Thomson Editores,(1997).
top related