universidad autÓnoma san frnacisco lic. sujey herrera ramos
TRANSCRIPT
![Page 1: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/1.jpg)
UNIVERSIDAD AUTÓNOMA SAN FRNACISCO
LIC. SUJEY HERRERA RAMOS
![Page 2: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/2.jpg)
Matrices
Corolario Rango por columnas = rango por filas
Teorema (espacios renglón iguales). Sea A1 y A2 matrices de tamaño r*q y s*q respectivamente. El espacio renglón de A1 es igual al espacio rengloón de A2 ssi los renglones no cero de las matrices de Gauss coinciden.
![Page 3: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/3.jpg)
El maldito Kernel otra vez
Definición: Sea f:XY una función de X a Y. Con f se asocia una relación de equivalencia llamada equivalencia kernel de f y se denota por Ker f y está definida como sigue:
x1,x2X, x1~x2 ssi f(x1)=f(x2)
(mostrar que sí es una relación de equivalencia y por tanto particiona a X)
![Page 4: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/4.jpg)
Por qué se le llama equivalencia kernel Sucede que en el caso de homomorfismos
si f(x1)=f(x2) f(x1)-f(x2)=0 f(x1-x2)=0, i.e. x1-x2 está en el kernel de f.
Claramente una matriz A puede ser considereda como una función (y aún más, un homomerfismo, chequen en clase esto y verán que si la hace). Entonces el kernel que definimos de A es consistente con el kernel en homomerfismos y sucede que:
![Page 5: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/5.jpg)
Por qué se le llama equivalencia kernel El kernel de A es un subespacio La imagen de A es un subespacio Ya qué no saben qué, A/ker A es un
espacio y se le llama espacio cociente.
![Page 6: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/6.jpg)
Entendamos bien esto, que está demasiado fácil, salvo la primera vez Encontrar Kernel, imagen (range, no
rank), A/Ker A de la siguiente matriz A.
1 -1
-1 1
![Page 7: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/7.jpg)
Sistemas Lineales III:
Control Geométrico-1.8
Sean X y Y dos conjuntos cualesquiera. Sea A:XY una función cualquiera. Entonces se puede definir la relación Ker A de la siguiente forma:
x1~x2 ssi A(x1)=A(x2)
Note que la relación Ker A es una relación de equivalencia.
Como es una relación de equivalencia, entonces diremos que x1x2 (mod Ker A) –x1 es equivalente a x2 módulo Ker A- -También se dice que x1 es congruente a x2 vía Ker A o que la relación Ker A es una congruencia-
![Page 8: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/8.jpg)
Significado geométrico de esta relación
x2
x1
x4
x3
x6
x5y4
y3
y2
y1
Observe que hay tantos clusters como imágenes de A
clustersX Y
Podemos hacer el conjunto de los clusters
Imagen de A
![Page 9: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/9.jpg)
Significado geométrico de esta relación
(A menudo yo le llamo conjunto de clustercillos)
clusters
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
A este conjunto lo llamaremos X/Ker A, o conjunto cociente X/Ker A
![Page 10: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/10.jpg)
Significado geométrico de esta relaciónX/Ker A
c1={x1, x2, x3}
c2={x4}
c3={x5, x6}
Noten que la relación Ker A está dando una medida de la inyectividad de A. Si el número de clusters es igual al número de elementos en X, entonces A es inyectiva.
A los clusters se les llama coconjuntos (cosets) y son justamente los subconjuntos de X sobre los cuales A tiene diferente valor. También se les suele llamar las “fibras” de A.
![Page 11: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/11.jpg)
c1=[0 4 8]
c2=[1 5 9]
c3=[2 6]c4=[3 7]
0 4 81 5 9
2 6
3 7
X
01
2
3
YX/Ker A
Aquí está A
Ejem. A(x)=x módulo 4 -es el residuo de la división, no la congruencia
Como X/Ker A y la imagen de A tienen la misma cantidad de elementos, entoces hay un isomorfismo entre X/Ker A y Im(A) [X/Ker AIm(A)]
Significado geométrico de esta relación
![Page 12: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/12.jpg)
c1=[0 4 8]
c2=[1 5 9]
c3=[2 6]c4=[3 7]
0 4 81 5 9
2 6
3 7
X
01
2
3
YX/Ker A
Aquí está A
Significado geométrico de esta relaciónProposición. Sea A:XY y sea PA:XX/Ker A su proyección canónica, entonces g:X/ker Aim(A) tal que A=gPA, donde g es un isomorfismo.
PA
![Page 13: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/13.jpg)
Demostración Definir g(z)=A(x) ssi z=PA(x). Se afirma que g(z) es
función Cubre todo X. Como A es función, entonces a cubre todo
X, y por la definición anterior, g también cubrirá todo X Un valor de X/Ker A no está asociado a dos valores de Y.
Suponer que si es así, (z,y1), (z,y2)g. Entonces y1y2. Por la definición de g se tiene: z= PA(x1), y1=A(x1) y además z= PA(x2), y2=A(x2) Como PA(x1),= PA(x2) implica que A(x1)= A(x2) Entonces y1=y2, una contradicción, entonces Un valor de X/Ker A no está asociado a dos valores de Y
Por tanto g(z) si es función.
![Page 14: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/14.jpg)
Demostración Ahora veremos que g es un isomorfismo.
g es inyectiva. Suponer que no es así, i.e. (z,y),(z’,y)g Entonces zz’ Entonces z=PA(x) y z’=PA(x’) Además A(x)=A(x’)=y. Como tienen la misma y, entonces PA(x)=PA(x’), una
contradicción. Por tanto es inyectiva. g es sobre. Como g:X/Ker AIm(A), sólo abarca las
imágenes de A. Por definición de g, cualquier imagen de A tiene una preimagen en X/Ker A. Por lo tanto g es sobre.
Como es inyectiva y sobre, es un isomorfismo.
![Page 15: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/15.jpg)
Demostración Por definición A=goPA
![Page 16: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/16.jpg)
Significado geométrico de esta relaciónEstamos en los límites...
Si los conjuntos tienen estructura matemática, p.e. X, Y son espacios vectoriales y la función A resulta ser un operador lineal.
Ax1=Ax2 es la relación Ker A. Un caso particular es para la imagen cero.
En este caso todos los x, tales que Ax=0 formarán una clase de equivalencia. Las demás clases de equivalencia las obtendremos al estudiar las otras imágenes de A.
Sin embargo, este proceso puede resultar muy lento, sobre todo porque Y tiene un número infinito de elementos. Una forma más adecuada es estudiarlos a través de la clase de equivalencia del 0 [0].
![Page 17: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/17.jpg)
Significado geométrico de esta relaciónEstamos en los límites...Por ejemplo, si queremos estudiar el caso para la imagen y, entonces debemos encontrar todos los x tales que Ax=y.
x1, x2 [x], Ax1=Ax2=y, entonces A(x1-x2)=0. Entonces si x1[x], se tiene que x2[x] ssi (x1-x2)[0].
Como la clase [0] es un subespacio de X
De hecho si Ax=0 y Ay=0, entonces A(x+y)=0 y por tanto es un subespacio
entonces (x1-x2) span[0], o (x1-x2) = 1e1+2e2+...+nen
Si x1 está fijo, entonces x2= x1-1e1-2e2-...-nen.............................(1)
Como con la clase de equivalencia [0] se generan todas las demás, a está clase la llamaremos genéricamente Kernel de A.
![Page 18: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/18.jpg)
Significado geométrico de esta relaciónEstamos en los límites...
Como se observa, la ecuación (1) es un método para calcular todas las clases de equivalencia [x2].
Se puede ver que es un un espacio vectorial (el del Kernel) desplazado por x1 (cualquier vector de la clase).
A esta clase de equivalencia, y sólo cuando hablamos de operadores lineales en espacios vectoriales, le llamaremos una variedad lineal. No es un espacio, ya que en general, el cero no está incluído en dicha variedad, pero si será un espacio vectorial vía módulo algún vector de la clase.
Ejemplos
![Page 19: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/19.jpg)
Significado geométrico de esta relaciónEstamos en los límites...
A:22 tal que A([x y]T)=[x–y y-x]T. Claramente A es un operador lineal y un vector de la forma [k k]T está en la clase de equivalencia [0] o Kernel de A.
El vector [2 1]T no está en la clase [0], pero si está en la clase [[2 1]T]. Los vectores que pertenecen a esta clase, de acuerdo a la ecuación (1) son:
X=[2 1]T-[1 1]T
![Page 20: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/20.jpg)
Significado geométrico de esta relaciónEstamos en los límites...
Clase [0]
Clase [2 1]T
![Page 21: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/21.jpg)
Significado geométrico de esta relaciónEstamos en los límites...
En realidad, cada clase forma una línea paralela al Kernel de A.
![Page 22: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/22.jpg)
Significado geométrico de esta relación
Si tenemos un operador lineal A:VW, entonces el Kernel de A será un subespacio de V, y cada una de las clases de equivalencia será una variedad lineal paralela al Kernel de A.
Más aún, el conjunto de las clases de equivalencia se denotará en la forma común V/Ker A y será llamado el espacio cociente V/Ker A.
Proposición. Sea un operador lineal A:VW, entonces el conjunto V/Ker A es un espacio vectorial.
Demo. En este espacio, el vector nulo es la clase [0]. De hecho se tiene
![Page 23: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/23.jpg)
Significado geométrico de esta relación
[v1]=[v1]+[0] para cualquier v1V. De la ecuación (1) x2= v1-1e1-2e2-...-nen se observa que esto es cierto, ya que x2[v1].
Los escalares, son los del campo definido en V.
La suma de vectores [v1]+[v2]=[v3] se define como x1[v1], x2[v2] y x1+x2[v3]. Note que está bien definida ya que cualquier x1[v1] y x2[v2] sirven. De hecho v1- 1[0]+v2- 2[0]=v1+v2- [0]=[v3]
Todas las propiedades se pueden demostrar y resulta un espacio vectorial
![Page 24: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/24.jpg)
Significado geométrico de esta relación,... Pero hay más cosas
Claramente, Im(A)V/Ker A. Vimos que esto se cumple aún en el caso que no sean espacios vectoriales.
Ahora volvamos a los conjuntos.
Vimos que si A:XY, entonces Ker A es una relación de equivalencia.
Por la definición, cualquier función deja una relación de equivalencia en su dominio. Pero, además, nosotros sabemos que una relación de equivalencia sobre un conjunto X es equivalente a una partición de X
![Page 25: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/25.jpg)
Espacios vectoriales con producto interno
![Page 26: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/26.jpg)
Espacios vectoriales con producto interno
5.1 Producto interno 5.2 Desigualdad de Cauchy-Schwarz 5.3 Ortogonalidad 5.4 Procedimiento de Gram-Schmidt 5.5 Espacios normados
![Page 27: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/27.jpg)
Norma
Definición.- Una norma (o norma vectorial) en (V,F) es una funcional que asigna a cada vector v un número real no negativo, llamado norma del vector v, y es denotado por ||v|| y satisface: ||v||>0 para v0, y ||0||=0 ||v||=|| ||v|| escalar y v vector ||u+v||||u||+||v||
![Page 28: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/28.jpg)
Norma
Definición.- Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||||1=|x1|+|x2|+...+|xp| ||||2=(|x1|2+|x2|2+...+|xp|2)1/2
||||=max{|x1|, |x2|, ...,|xp|}
![Page 29: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/29.jpg)
Norma
Definición.- Sea |||| una norma en (V,F). Una secuencia de vectores vi se dice que converje al vector v ssi la secuencia de número reales ||vi-v|| Para vectores x=[x1 x2 ... xp]T, las normas ||||1, ||||2, |||| son llamadas norma 1, norma 2 y norma infinito respectivamente y se definen como: ||||1=|x1|+|x2|+...+|xp| ||||2=(|x1|2+|x2|2+...+|xp|2)1/2
||||=max{|x1|, |x2|, ...,|xp|}
![Page 30: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/30.jpg)
Norma
Teorema: Sean x, y dos vectores. Entonces |xTy|||x||2||y||2
Demostración. sabemos 0||x+y||=(x+y)T(x+y)=||x||2
2+ 2 ||y||
22+2 |xTy|
si =-||x||22/xTy, entonces
0-||x||22+(||x||2
4||y||22/xTy|2)
Despejando se llega a la desigualdad
![Page 31: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/31.jpg)
Producto interno
Definición. El producto interno en (V,F) sobre un par de vectores (u,v) que satisface: (u,v)=(v,u) (u+v,w)= (u,w)+ (v,w) (w,u+v)= (w,u)+ (w,v) (u,u)>0, y es igual a cero si u es cero.
![Page 32: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/32.jpg)
Producto interno
El producto interno (u,v)1/2 induce una norma en el espacio vectorial.
Definición. Sean el producto interno (,) u, v son ortogonales ssi (u,v)=0 Un conjunto de vectores son ortogonales ssi cada par de
vectores (u,v) son ortogonales Si un vector u es usado para producir u/||u|| tal que ||v||=1,
entonces u se dice ser normalizado para producir el vector normalizado v
Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||v||=1 para todo vector v
![Page 33: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/33.jpg)
Producto interno
Diferentes productos internos (u,v)=uTv si f y g son funciones real valuadas continuas en
0t1, entonces (f,g)=0 )()( dttgtf
![Page 34: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/34.jpg)
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Defínase la proyección ortogonal como sigue. Para cualquier vector v
P0v=1v1+...+qvq, donde i=(vi,v)/(vi,vi)
entonces v-P0v es ortogonal a todo vector v en (V0,F) P0(u+v)=P0u+P0v P0(v)= P0v
![Page 35: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/35.jpg)
Proyecciones ortogonales
Demostración (vi,v-P0v)=(vi,v)-1(vi,v1)-...-q(vi,vq)=(vi,v)-
i(vi,vi)=0 Los otros puntos salen de la definición de los
coeficientes .
vi
v
P0v= vi
v-P0v
![Page 36: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/36.jpg)
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial con producto interno y con su norma inducida por el producto interno ||||. Sea (V0,F) un subespacio generado por los vectores ortogonales S={v1,...,vq}. Entonces para cualquier v, P0v es el único punto más cercano en (V0,F) a v, y ||v-P0v|| es la distancia de v a (V0,F) ||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)
![Page 37: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/37.jpg)
Proyecciones ortogonales
Demostración. ||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v,
v-P0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0)
Sabemos que v- P0v es ortogonal a los vectores en (V0,F), entonces se obtiene que:
||v-v0||=||v- P0v||+|| P0v-v0||
entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v- P0v||+||
![Page 38: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/38.jpg)
Proyecciones ortogonales
Sea S={v1,...,vq} un conjunto de vectores ortogonales, entonces estos vectores son linealmente independientes.
si se toma el vector 0=c1v1+...+cqvq, tenemos que saber el valor de cada ci.
0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi) como (vi,vi)>0 ci=0 y son L.I.
![Page 39: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/39.jpg)
Proyecciones ortogonales
Se sigue que si el vector proyectado v está en el espacio (V0,F), entonces P0v será el mismo v y los valores de las i será la representación del vector en la base seleccionada S.
![Page 40: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/40.jpg)
Proyecciones ortogonales
Teorema. Sea B={v1,...vq} una base ortogonal. La representación del vector v se calcula como v=1v1+...+qvq, donde
i=(vi,v)/(vi,vi)
Note que si la base es ortonormal, entonces los i se calculan fácilmente
![Page 41: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/41.jpg)
Proyecciones ortogonales
Si tenemos S={v1,...,vq} un conjunto de vetores que genera (V,F) Tomar u1=v1,
desde 2 hasta q, ui=vi-Pi-1vi
![Page 42: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/42.jpg)
Transformaciones lineales
![Page 43: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/43.jpg)
Transformaciones lineales
6.1 Definición 6.2 Propiedades 6.3 Kernel e imagen de una transformación lineal 6.4 Representación matricial de una
transformación lineal 6.5 Isomorfismos 6.6 Operaciones con transformaciones lineales 6.7 Algebra de transformaciones lineales
![Page 44: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/44.jpg)
Transformaciones lineales
Definición. Sean (V,F) y (W,G) dos espacios vectoriales. Una transformación lineal T de (V,F) a (W,G) es una correspondencia que asigna a cada vector v en V un vector w en W tal que:
T(v1+v2)=T(v1)+T(v2) T(v)= T(v)
Se sigue que T(0)=0, ya que T(v)=T(v+0)=T(v)+T(0) lo que implica que T(0) debe ser el cero de W.
![Page 45: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/45.jpg)
Transformaciones lineales
El espacio imagen Todos los vectores w en (W,G) tal que w=T(v) Solución. Si w es fijo, entonces existe v en (V,F) tal
que T(v)=w ssi w está en la imagen de T.
Se aplica Sobre
Claramente el problema Solución tiene solución si T es onto.
![Page 46: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/46.jpg)
Transformaciones lineales
Otro problema es si la solución es única. T(v1)=T(v2)=w
Se aplica Inyectividad
Claramente la solución es única si w esta en la imagen de T y T es inyectiva.
T(v1)=T(v2) T(v1)-T(v2)=0 T(v1-v2)=0
También T tiene kernel.
![Page 47: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/47.jpg)
Transformaciones lineales
Más propiedades de las transformaciones lineales T(u-v)=T[u+(-1)v]=T(u)+T[(-1)v]=T(u)+(-1)T(v)=T(u)-T(v) T(1v1+...+nvn)= 1v1+...+nvn Esto se puede ver por asociatividad e inducción
Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v1,...vn} y T1, T2 dos transformaciones lineales. Si T1(vi)=T2(vi) para todo vi en B, entonces T1(v)=T2(v) para v en (V,F).
Demo, como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T1(v)=T1(1v1+...+nvn)= T1(1v1)+...+T1(nvn)=T2(1v1)+...+T2(nvn)=T2(v)
![Page 48: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/48.jpg)
Transformaciones lineales
Teorema. Sea (V,F) un espacio vectorial de dimensión finita con base B={v1,...vn} y (W,G) un espacio vectorial que contiene a los vectores w1,...,wn, entonces existe una única transformación lineal tal que T(vi)=wi, para vi en B.
Demo. Como cualquier vector de (V,F) se escribe como v= 1v1+...+nvn, entonces T se define como T(v)=1w1+...+nwn
T será una transformación lineal T(u+v)=T[(1v1+...+nvn)+(1v1+...+ nvn)]=
=T[(1+1) v1+...+( n+n) vn] Por la definición de T, = (1+1) w1+...+( n+n) wn=T(u)+T(v)
![Page 49: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/49.jpg)
Transformaciones lineales
De igual forma T(u)=T[(1v1+...+ nvn)] Por la definición de T, 1w1+...+ nwn= T(u) Por teorema anterior se tiene la unicidad
Tarea: Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformación lineal. Demsotrar que el kernel de T es un subespacio de (V,F) y que la imagen de T es un subespacio de (W,G).
![Page 50: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/50.jpg)
Transformaciones lineales
Definición. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformación lineal. Nulidad de T = (T) =dim (Ker (T)) rango de T = (T) = dim (Im (T))
Teorema. Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) una transformación lineal. (T)+ (T) = dim (V,F)
Demo. Suponer que (T)=r y que {v1,...vr} es una base para el kernel; además (T)=k y {w1,...wk} es una base para la imagen de T.
Entonces hay que demostrar que B={v1,...,vr,u1,...,uk}
![Page 51: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/51.jpg)
Transformaciones lineales
Sea un v que pertenece a (V,F). Como T(v)= 1w1+...+kwK Al Vector v lo podemos escribir como v= 1u1+...+kuK-v’ v´= 1u1+...+kuK-v T(v’)=T(1u1+...+kuK-v)= 1T(u1)+...+kT(uk)-T(v) = 1w1+...+kwK-T(v)=0 v’ está en el kernel de T
Como {v1,...vr} es una base de Kernel de T, existen escalares 1 ,.., r tal que v’= 1v1+ ... +rvr=1u1+...+kuK-v
Por tanto v= 1u1+...+kuK- 1v1- ... -rvr y {u1,...,uk, v1,..., vr} genera (V,F) Ahora hay que ver que sean L.I.
![Page 52: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/52.jpg)
Transformaciones lineales
Sea un vector 1u1+...+ kuK+ 1v1+ ... + rvr=0 Entonces T(1u1+...+ kuK+ 1v1+ ... + rvr)=0 Como los vi están en el kernel 0= 1w1+...+ kwK, como los wi son una base de la
magen, entonces son L.I. y la única solución es i=0 Entonces el vector se reescribe como 1v1+ ... + rvr=0 , como los vi son una base para el
kernel son L.I., entonces la única solución i=0 y los vectores son L.I.
y por lo tanto es una base y la dimensión de (V,F) es (T)+ (T) = dim (V,F)
![Page 53: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/53.jpg)
Transformaciones lineales
Sean (V,F) y (W,G) dos espacios vectoriales y T:(V,F)(W,G) , entonces existe una única matriz A (dim(v), dim(W)) tal que T(x)=Ax
A est la matriz de transformación correspondiente a T.
Demo sea B={e1,...,en} la base canónica en (V,F) T(ei)=wi Se puede formar la matriz A=[w1 wn] entonces Aei=wi (T(ei)=wi) En general T(x)=T(1e1+ ... +nen)= 1w1+ ... +nwn
También Ax=A[1e1+ ... +nen]= 1w1+ ... +nwn =T(x)
![Page 54: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/54.jpg)
Transformaciones lineales
Suponer que T(x)=Ax=Bx (A-B)x=0, para x=ei (A-B)ei=0 que la i-ésima columna de
(A-B) es cero, por lo que las matrices son iguales y A es única.
Teorema Sea A la matriz de transformación correspondiente a T, entonces
i) Im T Im A, pero isomorfo ii)(T)=(A) iii)Ker TKer A, pero isomorfo iv)(T)=(A)
![Page 55: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/55.jpg)
Transformaciones lineales
Teorema. Sean (V,F), (W,G) dos espacios vectoriales de dimensiones n y m respectivamente. Sea T(V,F)(W,G) una transformación lineal. Sean B1={v1,...,vn} y B2={w1,...,wm} las bases de los espacios respectivamente. Entonces existe una única matriz A (m,n) tal que: [T(x)]B2=A(xB1)
[T(x)]B2la representación de T(x) en B2 T(x)= 1w1+ ... +mwm [T(x)]B2=[1 ... m]T xB1 es la representación del vector en B1
La matriz A se conoce como la matriz de transformación correspondiente a T con respecto a las bases B1 y B2
![Page 56: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/56.jpg)
Transformaciones lineales
Considere los vectores T(v1, ...,T(vn), escríbase A=[[T(v1)]B2 ... [T(vn)]B2] Como AviB1=Aei= [T(vi)]B2 y xB1 es la representación del vector en B1, i.e. [1 ... n]T
entonces A xB1=[[T(v1)]B2 ... [T(vn)]B2] xB1= 1[T(v1)]B2+...+[T(vn)]B2]n Por otro lado T(xB1)=T(1v1+...+nvn)= 1T(v1)+...+nT(vn) Al poner cada uno de estos vectores en la representación de la base B2 se obtiene que: A xB1= T(xB1) La unicidad es similar al teorema anterior
![Page 57: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/57.jpg)
Transformaciones lineales
Teorema.- Sea A (m,n) la matriz de transformación correspondiente a T:(V,F)(W,G) con respecto a las bases B1={v1,...,vn} y B2={w1,...,wm} respectivamente.
Suponga que hay otras bases B1’={v1’,...,vn’} y B2’={w1’,...,wm’} de los espacios respectivos.
Entonces la matriz A’ correspondiente a la misma transformación T con respecto a las bases B1’ y B2’ está dada por: A’=P-1AQ
P es la matriz de transición (de paso) de la base B2’ en B2
Q es la matriz de transición (de paso) de la base B1’ en B1
![Page 58: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/58.jpg)
Transformaciones lineales
Demo. Sabemos que [T(x)]B2=AxB1 Ahora, xB1=QxB1’ y [T(x)]B2=P[T(x)]B2’ Por tanto P[T(x)]B2’=A QxB1’ [T(x)]B2’=P-1A QxB1’ A’=P-1AQ es la matriz de transformación
![Page 59: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/59.jpg)
Transformaciones lineales
En especial, si (V,F) y (W,G) son los mismos, entonces
A’=P-1AP Definición. Se dice que dos matrices cuadradas A y
B son similares si existe una matriz P no singular (determinante diferente de cero) tal que
B=P-1AP
![Page 60: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/60.jpg)
Transformaciones lineales
Transformaciones T Inyectiva Kernel T = {0} Sobre
Teorema. T:VW una transformación lineal y dim v=n y dim w=m
i) si n>m, T no es inyectiva ii) si m>n T no es sobre
Demo. Tarea.
![Page 61: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/61.jpg)
Transformaciones lineales
Definición. Una T.L es un Isomorfismos ssi es inyectiva y sobre.
La matriz de un isomorfismo es invertible. Definición. Se dice que (V,F) y (W,G) son isomorfos ssi existe
un isomorfismo entre ambos Teorema. Sean (V,F) y (W,G) dos espacios vectoriales de
dimensión finita. Entonces (V,F) y (W,G) son isomorfos si dim (V,F)=dim (W,G)
Demo. Obtener bases para cada uno. Entonces quedan representados en (Rn,R). Como son bases en el mismo espacio, existe una matriz de cambio de base A. por teoremas anteriores existe una T.L. asociada a A que es un isomorfismo.
Si existe el isomorfismo entre las representaciones, lo existe entre los espacios.
![Page 62: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/62.jpg)
Transformaciones lineales
Corolario. Cualquier espacio de dimensión n es isomorfo a (Rn,R)
Teorema. Si T:(V,F)(W,G) es un isomorfismo i) Si {v1,...vn} genera (V,F), entonces {T(v1),...,T(vn)} genera
(W,G) ii) Si {v1,...vn} son L.I., entonces {T(v1),...,T(vn)} son L.I. iii) si {v1,...vn} es una base, entonces {T(v1),...,T(vn)} es una
base. Demo.
i) v=1v1+ ... +nvn T(v)=w=1T(v1)+ ... +nT(vn) {T(v1),...,T(vn)} genera (W,G)
iii) Suponga que 0=T(v)=w=1T(v1)+ ... +nT(vn) , entonces T(1v1+ ... +nvn)=0, como T es isomorfismo T(0)=0 es el único. Entonces 1v1+ ... +nvn=0, pero como son L.I. i=0 y por tanto {T(v1),...,T(vn)} son L.I.
iii) se sigue de anteriores.
![Page 63: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/63.jpg)
Transformaciones lineales
Prop. Si T:(V,F)(W,G) es un isomorfismo, entonces para todo vector wW existe un único vector v V tal que
T-1(w)=v, donde T-1:(W,G)(V,F) es conocida como la transformación inversa de T.
Demo. 2 partes T-1 es T.L. y T-1(w)=v único T(v1)=w1; T-1(w1)=v1; T(v2)=w2 T-1(w2)=v2 T(v1+v2)=T(v1)+T(v2)=w1+w2 T-1(w1+w2)=v1+v2 T(v1)= T(v1)= w1 T-1(w1)= v1 Como T es isomorfiso, la definición de T-1 hace que
exista un único valor de regreso. Nota. T es T.L. A es su operador T-1 es la inversa de T, entonces A-1 es el operador
de T-1
![Page 64: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/64.jpg)
Transformaciones lineales
Operaciones con transformaciones lineales Sean (V,F) y (W,F) dos espacios vectoriales sobre
el mismo campo F. Hom(V,W) es el conjutno de todas las transformaciones lineales entre (V,F) y (W,F).
Sean T1 y T2 dos T.L. entre (V,F) y (W,F) Se define la suma T1+T2 como T1+T2:VW (T1+T2)(v)=T1(v)+T2(v) para todo F, T1 es (T1)(v)=T1(v)
![Page 65: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/65.jpg)
Transformaciones lineales
El conjunto Hom(V,W) definido anteriormente es un espacio vectorial sobre el campo F.
Demo. Tarea.
![Page 66: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/66.jpg)
Algebra de Transformaciones lineales
Definición. Un álgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operación producto que satisface para todos los elementos T1, T2, T3 A y F:
T1(T2+T3)=T1T2+T1T3 (T2+T3)T1=T2T1+T3T1 (T1T2)=(T1)T2=T1(T2) Si además se cumple que (T1T2)T3=T1(T2T3) entonces A es un álgebra asociativa
![Page 67: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/67.jpg)
Algebra de Transformaciones lineales
Definición. Sean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1:VU y T2:UW dos transformaciones lineales.
Se define la composición de T2 seguida de T1 T2T1 como la función de V a W (T2T1) :VW tal que (T2T1)(v)=T2(T1(v))
Proposición. Si T1 y T2 son TL, entonces T2T1 también lo es.
Demo. Sean u,v V y , F, entonces (T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u)) = (T2T1)(v)+ (T2T1)(u) (T2T1) es T.L.
Puede verse que Hom(V,V) con la composición es un álgebra asociativa.
![Page 68: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/68.jpg)
Adicional de Transformaciones lineales
Sean A, B dos matrices de qxn y nxp con coeficientes en el mismo campo.
Entonces (A)+(B)-n (AB) min((A), (B)) Demo
(B)(A)
R(B)
R(A) R(AB)
n(B)n(A)
p nd
![Page 69: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/69.jpg)
Adicional de Transformaciones lineales
De la figura (AB)min((A), (B)). También (AB)= (B)-d (la intersección de R(B) y
n(A). La dimensión de n(A)=n- (A) d n+ (A) y se sigue que (AB) (A)-n+ (B)
Si B es no singular (A)+(B)-n = (A) (AB) min((A),n) = (A)
(B)(A)
R(B)
R(A) R(AB)
n(B)n(A)
p nd
![Page 70: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/70.jpg)
4. Valores y vectores propios
![Page 71: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/71.jpg)
Valores y vectores propios
Definición y propiedades Teorema de Cayley-Hamilton Diagonalización de matrices
![Page 72: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/72.jpg)
Valores y vectores propios
Definición. Sea V un espacio vectorial y T:VV una transformación lineal del espacio en sí mismo. Sea vV un vector diferente de cero pa el cual existe un escalar tal que T(v)=v,
entonces se dice que es un valor propio de T y que v es un vector propio de T asociado a .
![Page 73: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/73.jpg)
Valores y vectores propios
Cuando V es un espacio de dimensión finita, la transformación T la podemos representar como una matriz A de n,n. Entonces podemos redefir los valores y vectores propios de la siguiente forma.
Definición. Sea A una matriz de n,n. El escalar se denomina valor propio de A si existe un vector x diferente del nulo, tal que Ax= x
nuevamente x es el vector propio asociado a .
![Page 74: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/74.jpg)
Valores y vectores propios
Teorema. Sea A una matriz de n,n. Entonces es un valor propio de A ssi det(I-A)=0
Demo. Sólo si. Suponga que es un valor propio de
A; entonces existe un vector x diferente de cero tal que Ax= x
(I-A)x=0, como x diferente de cero (I-A) es singular det(I-A)=0
![Page 75: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/75.jpg)
Valores y vectores propios
(si). Si det( I-A)=0 ( I-A) es singular
( I-A)x=0 tiene soluciones diferentes de cero, entonces existe x diferente de cero tal que Ax= x.
![Page 76: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/76.jpg)
Valores y vectores propios
Definición. La ecuación det(I-A)=0 se conoce como ecuación característica de A, y el polinomio p()=det(I-A)
Observe que p()=(det(I-A)=a0+a1+...+an por el teorema fundamental del álgebra, cualquier
polinomio de grado n tiene n raíces (contando multiplicidades).
p()=(det(I-A)=a0+a1+...+an= (- 1)r1...(- m)rm
Los número ri son la multiplicidad algebraica de los valores propios de 1,..., m.
![Page 77: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/77.jpg)
Valores y vectores propios
Teorema. Sea un valor propio de A y E={x|Ax= x}. Entonces E es un subespacio vectorial de Cn
Nótese que E son las soluciones de (I-A)x=0, es decir el kernel de un operador lineal es un subespacio vectorial.
![Page 78: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/78.jpg)
Valores y vectores propios
Definición. Sean un valor propio de A. Entonces E se denomina espacio propio de A correspondiente a .
Definición. Sea E el espacio propio de A debido a . A la dimensión de E se le conoce como multiplicidad geométrica de .
Multiplicidad geométrica de =dim E=dim{Ker (I-A)}
![Page 79: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/79.jpg)
Valores y vectores propios
Ejemplos y procedimientos de cálculo.
4 -2
1 1
2 -1
-4 2
1 -1
2 -1
![Page 80: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/80.jpg)
Valores y vectores propios
Teorema. Sea un valor propio de A. Entonces se cumple que la multiplicidad geométrica de multiplicidad algebraica de
![Page 81: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/81.jpg)
Valores y vectores propios Teorema. Sean 1, 2, ..., m valores propios
diferentes de A (n,n), donde mn y sean x1, x2,..., xm sus vectores propios correspondientes. Entonces x1, x2, ..., xm son linealmente independientes.
Demostración. Suponga que {x1,...,xm} son L.D. y que xs es el
primer vector L.D. de los previos xs=1x1+2x2+...+s-1xs-1
Multiplicando por A Axs= 1Ax1+2Ax2+...+s-1Axs-1
![Page 82: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/82.jpg)
Valores y vectores propios sxs= 1 1 x1+2 2 x2+...+s-1 s-1 xs-1 Restando ecuaciones y multiplicando por s se
tiene 0=1(1-s)x1+2 (2-s) x2+...+s-1 (s-1-s)xs-1 Como xs es el primer vector L.D. entonces 1(1-s)=2 (2-s)=...=s-1 (s-1-s)=0 como is i=0 xs=0, lo cual contradice la
suposición las vectores son L.I.
![Page 83: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/83.jpg)
Valores y vectores propios
Teorema. La matriz A (n,n) tiene n vectores propios L.I. ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica.
Tarea (Grossman, pag 545)
![Page 84: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/84.jpg)
Valores y vectores propios Definición. Sea F(x)=a0+a1x+a2x2+...+anxn un
polinomio y A una matriz cuadrada Se define el polinomio f(x) en la matriz A como: F(A)=a0I+a1A+a2A2+...+anAn
Sy f(A) es igual a la matriz cero, entonces se dice que A es raíz (o cero) del polinomio f(x).
Sea F() (n,n) una matriz polinomial en la variable , i.e.
F()=F0+F1+...+Fmm= F()=F0+F1+...+mFm
donde F0, F1,...,Fm son matrices cuadradas reales.
![Page 85: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/85.jpg)
Valores y vectores propios Se dice que F() es de orden n; y si Fm0, entonces
F() es de grado m. Además F() se dice regular si det(Fm)0
Definicion. Sean F() y G() matrices polinomiales de orden n., y G() es regular. Las matrices polinomiales Q() y R() se conocen como cociente derecho y residuo derecho respectivamente de F() dicidida por G() si
F()= Q() G() + R() y si el grado de R() es menor que el grado de G()
[R() puede ser cero]
![Page 86: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/86.jpg)
Valores y vectores propios
De manera similar se pueden definir el cociente izquierdo y residuo izquierdo
Sea A (n,n) y denota F(A) la evaluación por la derecha de A en la matriz polinomial F() , esto es, si
F()=F0+F1+...+Fmm=
F()= F0+F1A+...+FmAm
![Page 87: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/87.jpg)
Valores y vectores propios Teorema. Si la matriz polimial F() es dividida
por la derecha por la matriz (I-A) entonces el residuo es F(A), y si es dividida por la izquierda por (I-A) entonces el resiudo es F’(A) (por la izquierdA).
Demostración. Tarea. (teorema generalizado de Bezout,
Grantmatcher, pag 81)
![Page 88: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/88.jpg)
Valores y vectores propios Corolario. La matriz polinomial F() es divisible
por la derecha por la matriz (I-A) sin residuo (R()=0) ssi F(A)=0
(De manera similar se puede hacer por la izquierda)
Teorema (Cayley-Hamilton). Toda matriz A (n,n) es raíz de su polinomio característico.
Demostración. P()=det(I-A)=a0+a1+...+n
Hay que mostrar que P(A)=0
![Page 89: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/89.jpg)
Valores y vectores propios de teoremas previos (I-A)adj(I-A)=det(I-A)I=[adj(I-A)](I-A) Lo cual puede verse como P()=(I-A)Q()=Q()(I-A) donde Q()=adj(I-A) es una matriz polinomial en y P()=det(I-A)I=a0I+a1I+...+nI como P() es divisible por la derecha y por la
izquierda por (I-A) sin residuos, entonces P(A)=a0I+a1AI+...+AnI
![Page 90: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/90.jpg)
Valores y vectores propios
Definición. Se dice que el polinomio F() es un polinomio aniquilador de la matriz A (n,n) si F(A)=0
(p.e. el polinomio característico de A) Definición. Al polinomio aniquilador
mónico Q() de A de menor grado se le conoce como polinomio mínimo de A.
![Page 91: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/91.jpg)
Diagonalización de matrices Definición. Se dice que A (n,n) es
diagonalizable (bajo similaridad) si existe una matriz no singular P tal que P-1AP es diagonal
![Page 92: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/92.jpg)
Diagonalización de matrices Teorema. La matriz A (n,n) es diagonalizable
ssi tiene n vectores propios linealmente independientes
Si 1, 2, ..., n son los valores propios de A y los vectores propios x1, x2, ..., xn correspondientes a estos valores propios son linealmente independientes, entonces P-
1AP=diag{1, 2, ..., n}, donde P=[x1 x2 ... Xn]
![Page 93: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/93.jpg)
Diagonalización de matrices Demostración. (si) Suponga que A tiene n vectores propios L.I. x1 x2 ...
xn correspondientes a los valores propios 1, 2, ..., n (algunos pueden ser repetidos).
Sea P la matriz [x1 x2 ... xn], entonces AP= [Ax1 Ax2 ... Axn]= [1x1 2x2 ... nxn] = [x1 x2 ... xn]diag{1, 2, ..., n} =Pdiag{1, 2, ..., n} Como P es no singular tiene inversa P-1AP=diag{1, 2, ..., n}
![Page 94: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/94.jpg)
Diagonalización de matrices Demostración. (sólo si) Suponga que existe una matriz no
singular P tal que P-1AP=diag{1, 2, ..., n} AP=Pdiag{1, 2, ..., n} Para cada xi de P se tiene que: Axi= ix xi es vector propio de A i es valor propio de A P es no singular A tiene n vectores propios L.I.
![Page 95: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/95.jpg)
Diagonalización de matrices Corolario. La matriz A (n,n) es
diagonalizable ssi la multiplicidad geométrica de cada valor propio es igual a su multiplicidad algebraica. En particular A es diagonalizable si todos sus valores propios son distintos
![Page 96: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/96.jpg)
Diagonalización de matrices Teorema. Si A y B son similares,
entonces tienen el mismo polinomio característico, y por consiguiente los mismos valores propios.
Demo. det(I-B)=det(I-P-1AP)=det(P-
1P-P-1AP)=det(P-1(I-A)P)=det(P-
1)det(I-A)det(P)=det(I-A)
![Page 97: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/97.jpg)
Diagonalización de matrices Teorema. Si A y B son similares, i.e.
existe una matriz no singular tal que B=P-1AP. Entonces:
i) Bk=P-1AkP ii)Si f(x)=a0+a1x+...+anxn es un
polinomio cualquiera, entonces f(B)=P-1f(A)P
![Page 98: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/98.jpg)
Diagonalización de matrices
Demo Bk=(P-1AP)k= =(P-1AP)(P-1AP)...(P-1AP)= P-1AkP ii)Si f(B)=a0I+a1(P-1AP)+...+an(P-1AnP)=
=P-1(a0+a1A+...+anAn)P=P-1f(A)P
![Page 99: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/99.jpg)
Diagonalización de matrices
1 1 2
0 1 3
0 0 2
![Page 100: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/100.jpg)
Diagonalización de matrices
Tiene dos propio valores 1=1, 2=2 con multiplicidades algebraicas 2 y 1 y geométricas 1 y 1 respectivamente no es posible diagonalizar A, pero ¿es posible encontrar una bse donde A sea casi diagonal?
![Page 101: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/101.jpg)
Diagonalización de matrices
Definición.- Un vector v es llamado un vector propio generalizado de rango k de A asociado con iff (A- I)kv=0 (A- I)k-1v0
Note que si k=1 coincide con vector propio
![Page 102: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/102.jpg)
Diagonalización de matrices
Definición.- vk=v vector propio generalizado
vk-1=(A-I)v=(A-I)vk
vk-2=(A-I)2v=(A-I)vk-1
... v1=(A-I)k-1v=(A-I)v2
![Page 103: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/103.jpg)
Diagonalización de matrices
... vk-2=(A-I)2v=(A-I)vk-1
... Entonces para 1ik vi es un vector
propio generalizado de rango i, por ejemplo
(A-I)k-2vk-2=(A-I)k-2(A-I)2v=(A-I)kv=0 (A- I)k-1vk-2=(A-I)k-1v0
![Page 104: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/104.jpg)
Diagonalización de matrices
Definición.- Lleamaremos a los vectores {v1, v2,...,vk} una cadena de vectores propios generalizados si vk es un vector propio generalizado que dio origen a todos los demás vectores
![Page 105: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/105.jpg)
Diagonalización de matrices
Teorema. El conjunto de vectores propios generalizados v1, v2, ..., vk definidos anteriormente es L.I.
Demostración.- Suponer que v1, v2, ..., vk son L.D., entonces
existen soluciones diferentes de la trivial a: 1v1+2v2+...+kvk=0
Multiplicando por (A-I)k-1 y observando que vi=vk-(k-i)=(A-I)k-iv por definición
![Page 106: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/106.jpg)
Diagonalización de matrices
entonces (A-I)k-1vi=(A-I)2k-(i+1)v=0 para i=1,2,...,k-1 k(A-I)k-1vk=0 y sabiendo de la def. de vector propio generalizado
que (A-I)k-1vk0, k=0 Aplicando ahora (A-I)k-2 se demuestra que k-1=0 Siguiendo esto se tiene que i=0, lo que contradice
la suposición. son L.I.
![Page 107: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/107.jpg)
Diagonalización de matrices
Teorema: Los vectores propios generalizados de A asociados con diferentes propio valores son L.I.
Demostración. Sea v vector propio generalizado 1
vi=(A-1I)vi+1=(A-1I)k-iv Sea u vector propio generalizado 2
ui=(A-2I)ui+1=(A-2I)l-iu
Del teorema anterior los vi son L.I. y los ui son L.I, falta ver que {ui}, {vi} son L.I.
![Page 108: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/108.jpg)
Diagonalización de matrices
Suponer que vi es L.D. en {u1,...,ul} vi=1u1+2u2+...+lul
Aplicando (A-1I)i 0= (A-1I)i [1u1+2u2+...+lul ] Ahora aplicando (A-2I)l-1 y observando que (A-2I)l-1 (A-1I)i = (A-1I)i (A-2I)l-1
y el hecho de que (A-2I)l-1 uj=0, j=1,2,..., l-1 0=l(A-1I)i(A-2I)l-1ul=l(A-1I)iu1
Como (A-2I)u1=0 o Au1=2u1, la ecuación anterior se reduce a l(2-1)iu1=0
![Page 109: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/109.jpg)
Diagonalización de matrices
se reduce a l(2-1)iu1=0
lo cual implica que l=0. Un procedimiento similar llega a la
conclusión de que todos los i=0, lo que contradice la suposición y los vectores son L.I.
![Page 110: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/110.jpg)
Diagonalización de matrices
Teorema. Sean u y v propio vectores de rango o y l respectivamente, asociados con el mismo valor propio .
vi=(A-I)vi+1=(A-1I)k-iv
ui=(A-I)ui+1=(A-2I)l-iu
Si u1 y v1 son L.I. las cadenas son L.I.
![Page 111: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/111.jpg)
Diagonalización de matrices
El tratar de construir la forma casi diagonal (diagonal por bloques o forma de Jordan) se convierte en un proceso iterativo.
1.- se calculan propio valores y propio vectores de la forma tradicional.
2.- Si la multiplicidad algebraica es mayor que la geométrica tratar de encontrar una cadena lo suficientemente larga de vectores generalizados para construir los vectores L.I. independientes faltantes, de lo contrario construir cadenas más pequeñas hasta completarlos
![Page 112: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/112.jpg)
Matrices unitarias Si P es no singular B=P-1AP transformación
de similaridad Sirven para cambio de bases Más conveniente si las bases son ortogonales
y ortonormales Si {x1,...,xp} es un conjunto ortonormal
xiTxi=1 y xi
Txj=0
Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1
![Page 113: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/113.jpg)
Matrices unitarias Definición. Una matriz P (de reales) para la cual
PT=P-1 tal que PTP=I, se dice ser unitaria. Teorema. a) P unitaria el conjunto de vectores columna
es ortonormal b) P unitiaria |det(P)|=1 c) P unitaria <PX,Py>=<x,y> d) P unitaria si valor propio de P ||=1 Demo. Clara
![Page 114: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/114.jpg)
Matrices unitarias Teorema. Si B=P-1AP donde P es unitaria (se dice
transformación de similaridad unitaria) todo lo que se vió de propiedades de similaridad sigue valiendo.
![Page 115: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/115.jpg)
Matrices unitarias Teorema. Si A es una matriz de pxp. a) A es similar unitaria a una matriz triangular superior
T; T=P-1AP con P unitaria y con los propiovalores de A en su diagonal principal. T es llamada la forma de Shur de A y la descomposición A=PTP-1= PTPT es la descomposición Shur de A.
Demo. Si p=1 ya terminamos. Suponer que para p=k es cierto Para p=k+1 tenemos.
![Page 116: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/116.jpg)
Matrices unitarias 1 es el propio valor asociado a x1, podemos
normalizar este vector para que ||x1||2=1 Entonces x1 entra a la base que ya teníamos de
propiovectores ortonormalizados {w1,...,wk} si no es otronormal a esta base, aplicamos Gram-Schmidt y tenemos la nueva base {x1,w1,...,wk}
U= [x1,w1,...,wk]=[x1,W]
A’=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=
1 x1TAW
0 WTAW
1 bT
0 C=
![Page 117: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/117.jpg)
Matrices unitarias Definición. Una matriz A de pxp es
normal si ATA=AAT
Teorema. A normal D=PTAP, D es diagonal, y P es unitaria.
Por tanto los propio vectores de A son p linealmente independientes
![Page 118: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/118.jpg)
Matrices unitarias Veamos ahora el caso en que A=UVT,
con U y V unitarias de pxp y qxq, es pxq casi cero, excepto en la diagonal que vale ii=i que es un real no negativo.2 0 0
0 0 03 0 0
0 2 0
4 0
0 6
0 0
Así son
![Page 119: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/119.jpg)
Matrices unitarias Claramente se tendría AV=U Avi=iui para
1imin(p,q), dende los ui, vi son las columnas de U y V respectivamente.
Además ATA= (UVT)T (UVT)=VTUTUVT=V(T)VT
donde T=D=VTATAV es diagonal de qxq que los propio vectores de ATA sirven para
construir V y D tiene los valores propios D=T Similarmente para el caso AAT=U(T)UT en este caso D= T
![Page 120: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/120.jpg)
Matrices unitarias
Definición. A la descomposición que hemos venido manejando, A=UVT, se le conoce como descomposición en valores singulares de A.
Viendo lo que hicimos para la descomposición de Schur, podemos ver que la descomposición en valores singulares siempre existe.
Los valores singulares de A son los i, y el número de valores no cero es el rango de A. Los ui son los vetores singulares izquierdos y los vi los vectores singulares derechos relacionados con i.
![Page 121: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/121.jpg)
1 1
2 2
2 2
9 9
9 9A=
ATA
propiovalores 18 y 0. 1=18(1/2) y 2=0Un par de vectores propios de ATA normalizados son
v1=[1.71/2 1.71/2]T y v2=[1.71/2 -1.71/2]T
Entonces V=[V1 v2]
![Page 122: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/122.jpg)
1 1
2 2
2 2
A=AAT=
propiovalores 18 y 0. 1=18 y 2=0Vectores propios de AAT normalizados son
u1=[1/3 2/3 2/3]T u2=[(-2)51/2/5 51/2/5 0]T u3 =[(2)51/2/15 (4)51/2/15 (-1)51/2/3 ]T Entonces U=[u1 u2 u3]
2 4 4
4 8 8
4 8 8
![Page 123: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/123.jpg)
1 1
2 2
2 2
A=AAT=
2 4 4
4 8 8
4 8 8
3(2)1/2 0
0 0
0 0
![Page 124: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/124.jpg)
Mínimos cuadrados
Suponer que A=UVT, es la descomposición en valores singulares, donde A es de rango k. El problema es minimizar ||Ax-b||2 con respecto a x.
||Ax-b||2=||UVTx-b||2=||y-UTb||2
y=VTx ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y. ||y-b’||2
2=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2
b’=UTb Es minimizado si yi=bi’/i
![Page 125: UNIVERSIDAD AUTÓNOMA SAN FRNACISCO LIC. SUJEY HERRERA RAMOS](https://reader036.vdocuments.pub/reader036/viewer/2022062309/5665b4ec1a28abb57c94ce5a/html5/thumbnails/125.jpg)
Mínimos cuadrados
Entonces para ||Ax-b||2 con respecto a x. Encontrar A=UVT
Calcular b’=UTb Calcular yi=bi’/i para 1ik, yi=0 otro caso x0=Vy y=VTx ||Ax-b||2 es mínimo cra x ssi ||y-UTb||2 es mínimo cra y. ||y-b’||2
2=|1y1-b1’|2+...+|kyk-bk’|2+|bk+1’|2+...+|bp’|2
b’=UTb Es minimizado si yi=bi’/i