sistemas de ecuaciones lineales
TRANSCRIPT
UNIVERSIDAD FERMÍN TORO
VICERECTORADO ACÁDEMICO
FACULTAD DE INGENIERIA
ESCUELA DE ELECTRICIDAD
SISTEMAS DE ECUACIONES LINEALES
Edisson Adan CI: 23488760
Profesor: Domingo Méndez
Sección: SAIA B
Método de Eliminación Gaussiana
El método de eliminación Gaussiana para la solución de sistemas de
ecuaciones lineales consiste en convertir a través de operaciones básicas
llamadas operaciones de renglón un sistema en otro equivalente más sencillo cuya
respuesta pueda leerse de manera directa. El método de eliminación Gaussiana
es el mismo para sistemas de ecuaciones 2×2, 3×3, 4×4 y así sucesivamente
siempre y cuando se respete la relación de al menos una ecuación por cada
variable.
Antes de ilustrar el método con un ejemplo, es necesario primeramente conocer
las operaciones básicas de renglón las cuales son presentas a continuación:
1. Ambos miembros de una ecuación pueden multiplicarse por una constante
diferente de cero.
2. Los múltiplos diferentes de cero de una ecuación pueden sumarse a otra
ecuación
3. El orden de las ecuaciones es intercambiable.
Una vez conocidas las operaciones que en mi afán por resolver un sistema de
ecuaciones puedo realizar procedo a ilustrar el método con un ejemplo:
1. Resolver el siguiente sistema de ecuaciones:
x + 2y + 3z = 1
4x + 5y + 6z= −2
7x + 8y + 10z = 5
Donde cada ecuación representa un renglón y las variables iguales de las 3
ecuaciones representan las columnas 1, 2 y 3 respectivamente.
Usando el método de eliminación Gaussiana.
Solución:
Para simplificar las operaciones se retiran las variables y se mantienen
exclusivamente los coeficientes de cada una, el signo de igual también es
eliminado pero se mantienen los datos del lado derecho de la ecuación.
Quedando como sigue:
Diagonal principal
La diagonal principal de la matriz busca quede conformada por solo unidades
(1) la parte inferior a la diagonal debe quedar en ceros. Esto se hace utilizando las
operaciones básicas de renglón para las ecuaciones, de arriba hacia abajo y de
izquierda a derecha.
Multiplico la ecuación 1 por −4 y el resto de la ecuación 2, de igual forma la
multiplico por −7 y el resto de la 3 obteniendo.
Después divido la ecuación 2 (renglón 2) entre −3 para hacer el componente de
la diagonal principal 1 quedando como sigue:
Multiplico la ecuación 2 (renglón 2) por 6 y lo sumo a la ecuación 3 (renglón 3).
Una vez lograda la diagonal principal formada por unidades y los datos por
debajo de la diagonal principal ceros reintegro las variables en cada ecuación y
también el signo igual de las ecuaciones obteniendo:
Donde el valor de z= 10 y al sustituir este valor en la ecuación resultante 2,
tendríamos
y + 2z = 2 al sustituir el valor de z obtenemos que:
y + 2(10) = 2
y + 20 = 2
y = 2- 20
y = −18
Al sustituir estos valores en la ecuación resultante 1 se tiene:
1x + 2y + 3z = 1
Si z= 10 y y=−18, entonces el valor de x será:
1x + 2y + 3z = 1
x + 2(−18) + 3(10)= 1
x – 36 + 30 = 1
x – 6 = 1
x = 1 + 6
x = 7
La solución del sistema de ecuaciones sería x= 7, y= −18, y z= 10.
Método de Gauss-Jordán
Este método se trata de una serie de algoritmos del algebra lineal para
determinar los resultados de un sistema de ecuaciones lineales y así hallar
matrices e inversas. El sistema de Gauss se utiliza para resolver un sistema de
ecuaciones y obtener las soluciones por medio de la reducción del sistema dado a
otro que sea equivalente en el cual cada una de las ecuaciones tendrá una
incógnita menos que la anterior. La matriz que resulta de este proceso lleva el
nombre que se conoce como forma escalonada.
Este método, permite resolver hasta 20 ecuaciones simultáneas. Lo que lo
diferencia del método Gaussiano es que cuando es eliminada una incógnita, se
eliminará de todas las ecuaciones restantes, o sea, las que anteceden a la
ecuación principal así como de las que la siguen a continuación. De esta manera
el paso de eliminación forma una matriz identidad en vez de una matriz triangular.
No es necesario entonces utilizar la sustitución hacia atrás para conseguir la
solución.
Para resolver sistemas de ecuaciones lineales con el método Gauss Jordán,
debemos en primer lugar anotar los coeficientes de las variables del sistema de
ecuaciones lineales con la notación matricial, por ejemplo:
Luego de realizado lo anterior procederemos a transformar dicha matriz en una
matriz identidad, o sea una matriz equivalente a la inicial, de la forma:
Logramos esto aplicando a las distintas columnas y filas de las matrices, restas,
sumas, multiplicaciones y divisiones. Debemos tener en cuenta que las
operaciones utilizadas se aplicarán en todos los elementos de la fila.
En dicha matriz identidad no vemos los términos independientes. Esto sucede ya
que cuando la matriz original alcance la matriz identidad, los términos serán la
solución del sistema y verificarán la igualdad para cada variable que se
corresponderán de la forma siguiente:
d1=x
d2=y
d3 = z
Ahora teniendo clara esta base, analicemos detalladamente este método con un
ejemplo concreto.
Sea el siguiente sistema de ecuaciones:
Aplicaremos luego el primer paso, o sea que lo anotaremos en forma matricial:
Realizado lo anterior, podemos operar con las distintas columnas y filas de la
matriz para así convertirla en la matriz identidad, sin olvidar la forma del sistema:
Ahora debemos transformar el 2 de la primera fila de la matriz original en el 1 de la
primera fila de matriz identidad. Para realizar este paso multiplicamos toda la fila 1
por el inverso de 2, o sea ½. Veamos cómo nos queda:
A continuación debemos obtener los dos ceros de la primera columna de la matriz
identidad. Para lograrlo buscaremos el opuesto de los números que se encuentren
por debajo del 1 de la primera columna. El opuesto de 3 será -3 y el de 5 -5.
Hecho esto multiplicaremos los opuestos de estos números por cada uno de los
elementos de la fila primera y estos se adicionarán a los números de sus
respectivas columnas Por ejemplo en el caso de la segunda fila, se multiplicará a -
3 que es el opuesto de 3, por cada uno de los elementos de la primera fila y se
añadirá el resultado con el número correspondiente de la columna de la segunda
fila. Veamos el ejemplo:
A medida que realicemos este procedimiento operando con las distintas filas y
columnas de la matriz, observaremos como esta se transforma en el modelo de la
matriz identidad. Finalizado el proceso, encontraremos finalmente en la cuarta
columna los valores de las variables. Veamos entonces como nos quedaría:
x=1y=-1z= 2
Método de descomposición LU
La factorización LU de una matriz es una factorización que resume el proceso
de eliminación gaussiana aplicado a la matriz y que es conveniente en términos
del número total de operaciones de punto flotante cuando se desea calcular la
inversa de una matriz o cuando se resolverá una serie de sistemas de ecuaciones
con una misma matriz de coeficientes. En la lectura, primeramente
consideraremos la factorización LU sin intercambio basada en matrices
elementales y que es conocida como de Doolittle y posteriormente veremos el
algoritmo que da la factorización PA = LU.
Suponga que la matriz A es una matriz m × n se puede escribir como el
producto de dos matrices:
A = L U
Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m
× n. Entonces para resolver el sistema:
A x = b,
Escribimos
A x = (L U) x = L (U x).
Una posible estrategia de solución consiste en tomar y = U x y resolver para y:
L y = b.
Como la matriz L es triangular superior este sistema puede resolverse mediante
sustitución hacia abajo, lo cual se hace fácilmente en m2 FLOPS. Una vez con los
valores encontrados de y, las incógnitas al sistema inicial se resuelve despejando
x de
U x = y.
Nuevamente, como U es escalonada, este sistema puede resolverse en caso
de tener solución mediante sustitución hacia atrás, lo cual es sencillo. Estas
observaciones nos dan la pauta para ver la conveniencia de una factorización
como la anterior, es decir factorizar A como el producto de una matriz L triangular
superior, por otra U la cual es escalonada. Esta factorización se llama usualmente
Descomposición LU.
Ejemplo:
Resolver el siguiente sistema de ecuaciones, factorizando la matriz en LU:
Las matrices de factores L y U de A son:
L= U=
El primer paso es resolver la ecuación L Y = b por sustitución progresiva para
obtener los elementos del vector auxiliar Y:
Donde
El segundo paso es resolver la ecuación U X = Y para encontrar los elementos
de X, por sustitución regresiva:
De donde se obtiene:
Cuando se tiene una matriz a coeficientes reales, simétrica y definida positiva,
entonces se dispone de una factorización de tipo LU especial, donde U = LT. El
método de Cholesky es el que aprovecha la ventaja de la simetría de A para
encontrar una matriz L tal que A = L LT. Esta descomposición es única.
Si A = L LT, el sistema original A x = b se puede escribir como:
Este método tiene un planteo recursivo, en el que se descomponen
sucesivamente los menores principales de la matriz A. Se llamará A [m] a
los menores principales de orden m. Se empieza por el menor principal de
orden 1, luego el de orden 2 y así sucesivamente hasta el de orden n, es
decir la matriz original. La incógnita es una única matriz triangular inferior
L, y su transpuesta hace de matriz triangular superior.
Suponiendo ahora descompuesto el menor de orden k, es decir A [k]=
L[k] U[k], interesa estudiar cómo se descompone el siguiente menor principal
A [k+1]. Así,
A [k+1] = L[k+1] U[k+1]
Donde f[k+1] = (ak+1 1, ak+1 2, ak+1 3, . . ., ak+1 k)T, y l[k+1] = (lk+1 1, lk+1 2, lk+1 3, . . ., lk+1 k)T
Tras proceder a multiplicar L[k+1] y U[k+1], se obtienen las ecuaciones
necesarias para la descomposición del menor principal A[k+1]:
L[k] l[k+1] = f[k+1]
La cantidad de de operaciones necesarias para el método de Cholesky es:
El algoritmo que permite obtener la matriz L, a partir de A se escribe a partir de
las siguientes expresiones:
Factorización QR
Es una transformación que refleja el espacio con respecto a un plano
determinado. Esta propiedad se puede utilizar para realizar la transformación
QR de una matriz si tenemos en cuenta que es posible elegir la matriz de
Householder de manera que un vector elegido quede con una única componente
no nula tras ser transformado (es decir, pre multiplicando por la matriz
de Householder). Gráficamente, esto significa que es posible reflejar el vector
elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes
de la base cartesiana.
La manera de elegir el plano de reflexión y formar la matriz de Householder
asociada es el siguiente:
Sea un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es
un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante,
entonces α debe adoptar el signo contrario que 1 para evitar pérdida de
precisión).
Entonces, siendo el vector (1,0,...,0)T, y ||·|| la norma euclídea, se define:
Es un vector unitario perpendicular al plano de reflexión elegido. Es una
matriz de Householder asociada a dicho plano.
Esta propiedad se puede usar para transformar gradualmente los vectores
columna de una matriz A de dimensiones m por n en una matriz triangular
superior. En primer lugar se multiplica A con la matriz de Householder Q1 que
obtenemos al elegir como vector la primera columna de la matriz. Esto
proporciona una matriz QA con ceros en la primera columna (excepto el elemento
de la primera fila).
El procedimiento se puede repetir para A′ (que se obtiene de A eliminando la
primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que
tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere
con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda,
completando con un uno en la diagonal, o en general:
Tras repetir el proceso veces, donde ,
Es una matriz triangular superior. De forma que tomando
Es una descomposición QR de la matriz .
Este método tiene una estabilidad numérica mayor que la del método de Gram-
Schmidt descrito arriba.
Una pequeña variación de este método se utiliza para obtener matrices
semejantes con la forma de Hessenberg, muy útiles en el cálculo de auto valores
por acelerar la convergencia del algoritmo QR reduciendo así enormemente su
coste computacional.
Ejemplo:
Vamos a calcular la descomposición de la matriz
En primer lugar necesitamos encontrar una reflexión que transforme la primera
columna de la matriz A, vector , en
Usando la expresión,
Y
En nuestro caso:
y
Por lo tanto
y ,
Entonces
Ahora observamos:
Con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero
en el elemento (3,2).
Tomando la sub matriz bajo el (1, 1) y aplicando de nuevo el proceso a
Mediante el mismo método que antes obtenemos la matriz de Householder
Finalmente obtenemos
La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la
descomposición QR buscada.
Método de Gauss-Seidel
El método de eliminación para resolver ecuaciones simultáneas suministra
soluciones suficientemente precisas hasta para 15 o 20 ecuaciones. El número
exacto depende de las ecuaciones de que se trate, del número de dígitos que se
conservan en el resultado de las operaciones aritméticas, y del procedimiento de
redondeo. Utilizando ecuaciones de error, el número de ecuaciones que se
pueden manejar se puede incrementar considerablemente a más de 15 o 20, pero
este método también es impráctico cuando se presentan, por ejemplo, cientos de
ecuaciones que se deben resolver simultáneamente. El método de inversión de
matrices tiene limitaciones similares cuando se trabaja con números muy grandes
de ecuaciones simultáneas.
Sin embargo, existen varias técnicas que se pueden utilizar, para resolver
grandes números de ecuaciones simultáneas. Una de las técnicas más útiles es
el método de Gauss-Seidel. Ninguno de los procedimientos alternos es totalmente
satisfactorio, y el método de Gauss-Seidel tiene la desventaja de que no siempre
converge a una solución o de que a veces converge muy lentamente. Sin
embargo, este método convergirá siempre a una solución cuando la magnitud del
coeficiente de una incógnita diferente en cada ecuación del conjunto, sea
suficientemente dominante con respecto a las magnitudes de los otros coeficientes
de esa ecuación.