sistemas de ecuaciones lineales

21
UNIVERSIDAD FERMÍN TORO VICERECTORADO ACÁDEMICO FACULTAD DE INGENIERIA ESCUELA DE ELECTRICIDAD SISTEMAS DE ECUACIONES LINEALES

Upload: christopheradan50

Post on 20-Feb-2017

182 views

Category:

Engineering


2 download

TRANSCRIPT

Page 1: Sistemas de Ecuaciones Lineales

UNIVERSIDAD FERMÍN TORO

VICERECTORADO ACÁDEMICO

FACULTAD DE INGENIERIA

ESCUELA DE ELECTRICIDAD

SISTEMAS DE ECUACIONES LINEALES

Edisson Adan CI: 23488760

Profesor: Domingo Méndez

Sección: SAIA B

Page 2: Sistemas de Ecuaciones Lineales

Método de Eliminación Gaussiana

El método de eliminación Gaussiana para la solución de sistemas de

ecuaciones lineales consiste en convertir a través de operaciones básicas

llamadas operaciones de renglón un sistema en otro equivalente más sencillo cuya

respuesta pueda leerse de manera directa. El método de eliminación Gaussiana

es el mismo para sistemas de ecuaciones 2×2, 3×3, 4×4 y así sucesivamente

siempre y cuando se respete la relación de al menos una ecuación por cada

variable.

Antes de ilustrar el método con un ejemplo, es necesario primeramente conocer

las operaciones básicas de renglón las cuales son presentas a continuación:

1. Ambos miembros de una ecuación pueden multiplicarse por una constante

diferente de cero.

2. Los múltiplos diferentes de cero de una ecuación pueden sumarse a otra

ecuación

3. El orden de las ecuaciones es intercambiable.

Una vez conocidas las operaciones que en mi afán por resolver un sistema de

ecuaciones puedo realizar procedo a ilustrar el método con un ejemplo:

1. Resolver el siguiente sistema de ecuaciones:

x + 2y + 3z = 1

4x + 5y + 6z= −2

7x + 8y + 10z = 5

Donde cada ecuación representa un renglón y las variables iguales de las 3

ecuaciones representan las columnas 1, 2 y 3 respectivamente.

Usando el método de eliminación Gaussiana.

Solución:

Page 3: Sistemas de Ecuaciones Lineales

Para simplificar las operaciones se retiran las variables y se mantienen

exclusivamente los coeficientes de cada una, el signo de igual también es

eliminado pero se mantienen los datos del lado derecho de la ecuación.

Quedando como sigue:

Diagonal principal

La diagonal principal de la matriz busca quede conformada por solo unidades

(1) la parte inferior a la diagonal debe quedar en ceros. Esto se hace utilizando las

operaciones básicas de renglón para las ecuaciones, de arriba hacia abajo y de

izquierda a derecha.

Multiplico la ecuación 1 por −4 y el resto de la ecuación 2, de igual forma la

multiplico por −7 y el resto de la 3 obteniendo.

Después divido la ecuación 2 (renglón 2) entre −3 para hacer el componente de

la diagonal principal 1 quedando como sigue:

Multiplico la ecuación 2 (renglón 2) por 6 y lo sumo a la ecuación 3 (renglón 3).

Una vez lograda la diagonal principal formada por unidades y los datos por

debajo de la diagonal principal ceros reintegro las variables en cada ecuación y

también el signo igual de las ecuaciones obteniendo:

Donde el valor de z= 10 y al sustituir este valor en la ecuación resultante 2,

tendríamos

y + 2z = 2 al sustituir el valor de z obtenemos que:

y + 2(10) = 2

y + 20 = 2

y = 2- 20

y = −18

Al sustituir estos valores en la ecuación resultante 1 se tiene:

1x + 2y + 3z = 1

Si z= 10 y y=−18, entonces el valor de x será:

Page 4: Sistemas de Ecuaciones Lineales

1x + 2y + 3z = 1

x + 2(−18) + 3(10)= 1

x – 36 + 30 = 1

x – 6 = 1

x = 1 + 6

x = 7

La solución del sistema de ecuaciones sería x= 7, y= −18, y z= 10.

Método de Gauss-Jordán

Este método se trata de una serie de algoritmos del algebra lineal para

determinar los resultados de un sistema de ecuaciones lineales y así hallar

matrices e inversas. El sistema de Gauss se utiliza para resolver un sistema de

ecuaciones y obtener las soluciones por medio de la reducción del sistema dado a

otro que sea equivalente en el cual cada una de las ecuaciones tendrá una

incógnita menos que la anterior. La matriz que resulta de este proceso lleva el

nombre que se conoce como forma escalonada.

Este método, permite resolver hasta 20 ecuaciones simultáneas. Lo que lo

diferencia del método Gaussiano es que cuando es eliminada una incógnita, se

eliminará de todas las ecuaciones restantes, o sea, las que anteceden a la

ecuación principal así como de las que la siguen a continuación. De esta manera

el paso de eliminación forma una matriz identidad en vez de una matriz triangular.

No es necesario entonces utilizar la sustitución hacia atrás para conseguir la

solución.

Para resolver sistemas de ecuaciones lineales con el método Gauss Jordán,

debemos en primer lugar anotar los coeficientes de las variables del sistema de

ecuaciones lineales con la notación matricial, por ejemplo:

Page 5: Sistemas de Ecuaciones Lineales

Luego de realizado lo anterior procederemos a transformar dicha matriz en una

matriz identidad, o sea una matriz equivalente a la inicial, de la forma:

Logramos esto aplicando a las distintas columnas y filas de las matrices, restas,

sumas, multiplicaciones y divisiones. Debemos tener en cuenta que las

operaciones utilizadas se aplicarán en todos los elementos de la fila.

En dicha matriz identidad no vemos los términos independientes. Esto sucede ya

que cuando la matriz original alcance la matriz identidad, los términos serán la

solución del sistema y verificarán la igualdad para cada variable que se

corresponderán de la forma siguiente:

d1=x

d2=y

d3 = z

Ahora teniendo clara esta base, analicemos detalladamente este método con un

ejemplo concreto.

Sea el siguiente sistema de ecuaciones:

Page 6: Sistemas de Ecuaciones Lineales

Aplicaremos luego el primer paso, o sea que lo anotaremos en forma matricial:

Realizado lo anterior, podemos operar con las distintas columnas y filas de la

matriz para así convertirla en la matriz identidad, sin olvidar la forma del sistema:

Ahora debemos transformar el 2 de la primera fila de la matriz original en el 1 de la

primera fila de matriz identidad. Para realizar este paso multiplicamos toda la fila 1

por el inverso de 2, o sea ½. Veamos cómo nos queda:

A continuación debemos obtener los dos ceros de la primera columna de la matriz

identidad. Para lograrlo buscaremos el opuesto de los números que se encuentren

por debajo del 1 de la primera columna. El opuesto de 3 será -3 y el de 5 -5.

Page 7: Sistemas de Ecuaciones Lineales

Hecho esto multiplicaremos los opuestos de estos números por cada uno de los

elementos de la fila primera y estos se adicionarán a los números de sus

respectivas columnas Por ejemplo en el caso de la segunda fila, se multiplicará a -

3 que es el opuesto de 3, por cada uno de los elementos de la primera fila y se

añadirá el resultado con el número correspondiente de la columna de la segunda

fila. Veamos el ejemplo:

A medida que realicemos este procedimiento operando con las distintas filas y

columnas de la matriz, observaremos como esta se transforma en el modelo de la

matriz identidad. Finalizado el proceso, encontraremos finalmente en la cuarta

columna los valores de las variables. Veamos entonces como nos quedaría:

x=1y=-1z= 2

Método de descomposición LU

La factorización LU de una matriz es una factorización que resume el proceso

de eliminación gaussiana aplicado a la matriz y que es conveniente en términos

del número total de operaciones de punto flotante cuando se desea calcular la

inversa de una matriz o cuando se resolverá una serie de sistemas de ecuaciones

Page 8: Sistemas de Ecuaciones Lineales

con una misma matriz de coeficientes. En la lectura, primeramente

consideraremos la factorización LU sin intercambio basada en matrices

elementales y que es conocida como de Doolittle y posteriormente veremos el

algoritmo que da la factorización PA = LU.

Suponga que la matriz A es una matriz m × n se puede escribir como el

producto de dos matrices:

A = L U

Donde L es una matriz triangular inferior m × m y U es una matriz escalonada m

× n. Entonces para resolver el sistema:

A x = b,

Escribimos

A x = (L U) x = L (U x).

Una posible estrategia de solución consiste en tomar y = U x y resolver para y:

L y = b.

Como la matriz L es triangular superior este sistema puede resolverse mediante

sustitución hacia abajo, lo cual se hace fácilmente en m2 FLOPS. Una vez con los

valores encontrados de y, las incógnitas al sistema inicial se resuelve despejando

x de

U x = y.

Nuevamente, como U es escalonada, este sistema puede resolverse en caso

de tener solución mediante sustitución hacia atrás, lo cual es sencillo. Estas

observaciones nos dan la pauta para ver la conveniencia de una factorización

como la anterior, es decir factorizar A como el producto de una matriz L triangular

superior, por otra U la cual es escalonada. Esta factorización se llama usualmente

Descomposición LU.

Ejemplo:

Resolver el siguiente sistema de ecuaciones, factorizando la matriz en LU:

Page 9: Sistemas de Ecuaciones Lineales

Las matrices de factores L y U de A son:

L= U=

El primer paso es resolver la ecuación L Y = b por sustitución progresiva para

obtener los elementos del vector auxiliar Y:

Donde 

 

 

 

El segundo paso es resolver la ecuación U X = Y para encontrar los elementos

de X, por sustitución regresiva:

Page 10: Sistemas de Ecuaciones Lineales

De donde se obtiene:

 

 

 

Cuando se tiene una matriz a coeficientes reales, simétrica y definida positiva,

entonces se dispone de una factorización de tipo LU especial, donde U = LT. El

método de Cholesky es el que aprovecha la ventaja de la simetría de A para

encontrar una matriz L tal que A = L LT. Esta descomposición es única.

Si A = L LT, el sistema original A x = b se puede escribir como:

                                               

Este método tiene un planteo recursivo, en el que se descomponen

sucesivamente los menores principales de la matriz A. Se llamará A [m] a

los menores principales de orden m. Se empieza por el menor principal de

orden 1, luego el de orden 2 y así sucesivamente hasta el de orden n, es

decir la matriz original. La incógnita es una única matriz triangular inferior

L, y su transpuesta hace de matriz triangular superior.

Page 11: Sistemas de Ecuaciones Lineales

Suponiendo ahora descompuesto el menor de orden k, es decir A [k]=

L[k] U[k], interesa estudiar cómo se descompone el siguiente menor principal

A [k+1]. Así,

A [k+1] = L[k+1] U[k+1]

             

Donde f[k+1] = (ak+1 1, ak+1 2, ak+1 3, . . ., ak+1 k)T, y l[k+1] = (lk+1 1, lk+1 2, lk+1 3, . . ., lk+1 k)T

Tras proceder a multiplicar L[k+1] y U[k+1], se obtienen las ecuaciones

necesarias para la descomposición del menor principal A[k+1]:

                     L[k] l[k+1] = f[k+1]

 

La cantidad de de operaciones necesarias para el método de Cholesky es:

    

El algoritmo que permite obtener la matriz L, a partir de A se escribe a partir de

las siguientes expresiones:

                              

                       

Page 12: Sistemas de Ecuaciones Lineales

Factorización QR

Es una transformación que refleja el espacio con respecto a un plano

determinado. Esta propiedad se puede utilizar para realizar la transformación

QR de una matriz si tenemos en cuenta que es posible elegir la matriz de

Householder de manera que un vector elegido quede con una única componente

no nula tras ser transformado (es decir, pre multiplicando por la matriz

de Householder). Gráficamente, esto significa que es posible reflejar el vector

elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes

de la base cartesiana.

La manera de elegir el plano de reflexión y formar la matriz de Householder

asociada es el siguiente:

Sea   un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es

un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante,

entonces α debe adoptar el signo contrario que  1 para evitar pérdida de

precisión).

Entonces, siendo   el vector (1,0,...,0)T, y ||·|| la norma euclídea, se define:

 Es un vector unitario perpendicular al plano de reflexión elegido.   Es una

matriz de Householder asociada a dicho plano.

Esta propiedad se puede usar para transformar gradualmente los vectores

columna de una matriz A de dimensiones m por n en una matriz triangular

superior. En primer lugar se multiplica A con la matriz de Householder Q1 que

obtenemos al elegir como vector   la primera columna de la matriz. Esto

Page 13: Sistemas de Ecuaciones Lineales

proporciona una matriz QA con ceros en la primera columna (excepto el elemento

de la primera fila).

El procedimiento se puede repetir para A′ (que se obtiene de A eliminando la

primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que

tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere

con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda,

completando con un uno en la diagonal, o en general:

Tras repetir el proceso   veces, donde ,

Es una matriz triangular superior. De forma que tomando

 

Es una descomposición QR de la matriz .

Este método tiene una estabilidad numérica mayor que la del método de Gram-

Schmidt descrito arriba.

Una pequeña variación de este método se utiliza para obtener matrices

semejantes con la forma de Hessenberg, muy útiles en el cálculo de auto valores

por acelerar la convergencia del algoritmo QR reduciendo así enormemente su

coste computacional.

Ejemplo:

Vamos a calcular la descomposición de la matriz

Page 14: Sistemas de Ecuaciones Lineales

En primer lugar necesitamos encontrar una reflexión que transforme la primera

columna de la matriz A, vector , en 

Usando la expresión,

Y

En nuestro caso:

 y 

Por lo tanto

 y  ,

Entonces

Ahora observamos:

Page 15: Sistemas de Ecuaciones Lineales

Con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero

en el elemento (3,2).

Tomando la sub matriz bajo el (1, 1) y aplicando de nuevo el proceso a

Mediante el mismo método que antes obtenemos la matriz de Householder

Finalmente obtenemos

La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la

descomposición QR buscada.

Método de Gauss-Seidel

El método de eliminación para resolver ecuaciones simultáneas suministra

soluciones suficientemente precisas hasta para 15 o 20 ecuaciones. El número

exacto depende de las ecuaciones de que se trate, del número de dígitos que se

conservan en el resultado de las operaciones aritméticas, y del procedimiento de

redondeo. Utilizando ecuaciones de error, el número de ecuaciones que se

Page 16: Sistemas de Ecuaciones Lineales

pueden manejar se puede incrementar considerablemente a más de 15 o 20, pero

este método también es impráctico cuando se presentan, por ejemplo, cientos de

ecuaciones que se deben resolver simultáneamente. El método de inversión de

matrices tiene limitaciones similares cuando se trabaja con números muy grandes

de ecuaciones simultáneas.

Sin embargo, existen varias técnicas que se pueden utilizar, para resolver

grandes números de ecuaciones simultáneas. Una de las técnicas más útiles es

el método de Gauss-Seidel. Ninguno de los procedimientos alternos es totalmente

satisfactorio, y el método de Gauss-Seidel tiene la desventaja de que no siempre

converge a una solución o de que a veces converge muy lentamente. Sin

embargo, este método convergirá siempre a una solución cuando la magnitud del

coeficiente de una incógnita diferente en cada ecuación del conjunto, sea

suficientemente dominante con respecto a las magnitudes de los otros coeficientes

de esa ecuación.