vectores espacios vectoriales -...

Post on 02-Oct-2018

217 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

CAPITULO 2ºVECTORES Y ESPACIOS

VECTORIALES - 1

Ing. Diego A. Patiño G. M.Sc., Ph. D.

2

Vectores

Enfoque mecánico: definición asociada a magnitud y dirección. Significado físico. Restringido a 3 dimensiones. Ej. velocidad, aceleración, campo eléctrico.Enfoque matemático básico: n- tupla de elementos numéricos, con magnitud y dirección pero no restringida a 3 dimensiones. Manipulación por medio de operaciones matriciales.Enfoque generalizado: espacios lineales: abstracción que permite aplicar la teoría a una clase amplia de problemas.

3

Espacios Vectoriales

Para espacios multidimensionales la representación geométrica no sirve.Se desarrollan abstracciones que retienen las propiedades básicas de los vectores:

Producto InternoNorma

4

Campo.

Campo (F): conjunto de uno o más elementos del cual se seleccionan los elementos escalares:

Debe contener el elemento 0:

Debe contener el elemento 1:

Debe contener el elemento – a:

aaa

a

=+=•

ℑ∈∀ℑ∈

00)(0

: que tal0

aaaaa

==•=•ℑ∈∀ℑ∈1/)1()(1

: que tal1

0)( - xiste 0

=−+ℑ∈

aaquetalae

5

Campo.

Deben estar definidas:Suma:

El campo es cerrado bajo la adiciónMultiplicación:

El campo es cerrado bajo la multiplicación

ℑ∈+=+⇒ℑ∈ℑ∈

)()(y

abbaba

ℑ∈•=•⇒ℑ∈ℑ∈)()(

y abba

ba

6

Campo.

División:

Para la suma y multiplicación aplican las leyes asociativas, conmutativa y distributiva

ℑ∈⇒≠ℑ∈ℑ∈

)/(0y y

babba

Campo.

El conjunto de todas las matrices de la forma:

Existe la matriz 0Existe la matriz IExiste la matriz –A tal que A+(-A) = 0El producto de dos matrices con este tipo de simetría es conmutativoEste conjunto es un campo.NO TODOS LOS CONJUNTOS DE MATRICES CUADRADAS SON UN CAMPO

7

ℜ∈⎟⎟⎠

⎞⎜⎜⎝

⎛ −yx

xyyx

;

8

Espacios Vectoriales.

Un espacio vectorial lineal X es una colección de vectores definidos sobre un campo F La definición depende del campo F sobre el cual se especifica el espacio.El espacio debe contener:

Existe el elemento negativo

0 y x yx

xx00x0

=+∃∈∀

=+=+∈

unico :

:

X

X

ii

i

9

Espacios Vectoriales.

Para , deben estar definidas las operaciones:

iii. Cerrado a la Adición:

iv. Conmutación:

v. Asociación:

X∈⇒=+ vvyx

xyyx +=+

z)(yxzy)(x ++=++

Fcbay ∈∈ ,, Xzy,x,

10

Espacios Vectoriales.

Respecto a la multiplicación por escalares:vi. Cerrado respecto a multiplicación

vii. Asociación :

viii. Distribución de multiplicación y adición vectorial:

Xun vector es ay

∈ℑ∈∈∀

yxx

aX

xx )()( abba =

yxyxxxx

aaababa

+=++=+

)()(

Espacios Vectoriales.

El conjunto de los números reales definido sobre el campo de los complejos: No es un espacio vectorial porque no es cerrado a la multiplicación por un escalar.El conjunto de los números complejos definido sobre el campo de los reales si es un espacio vectorial.

11

Espacios Vectoriales.

El conjunto de todas las soluciones de las ecuaciones diferenciales, lineales, homogéneas de orden n finito es un espacio vectorial.El conjunto de todas las soluciones de las ecuaciones diferenciales, lineales, NO homogéneas de orden n finito NO es un espacio vectorial.

12

13

Espacios Vectoriales.

Por la condición de “cerrado” los espacios vectoriales tienen dimensión infinita.No es necesario manipular espacios infinitos: los vectores se pueden descomponer en componentes direccionales independientes.Se pueden crear categorías de vectores similaresEsto conduce a los conceptos de Dependencia, Independencia, bases y dimensiones.

14

Dependencia – Independencia Lineal.

Un conjunto de n vectores: es LINEALMENTE DEPENDIENTE si existe un conjunto de escalares {ai} i = 1,2,…n, NO TODOS CEROtales que:

Si la combinación lineal solo se cumple para

todos los {ai} i = 1,2,… n iguales a cero el conjunto de vectores {xi} es LINEALMENTE INDEPENDIENTE

{ } X∈n21 x...x,x ,

0.....1

2211 ==+++ ∑=

i

n

iinn aaaa xxxx

01

=∑=

n

iia ix

15

Dependencia – Independencia Lineal.

Geométricamente para n = 2, dos vectores Linealmente Dependientes son colineales: el ángulo entre ellos es cero y el área del paralelogramo formado es cero.Si no son colineales no existen escalares diferentes de cero que cambien las direcciones de los vectores tal que la suma sea cero.Para n = 3, tres vectores son Linealmente Independientessi no son coplanares: un vector no está en el plano formado por los otros dos.

16

Dependencia – Independencia Lineal.

LEMA: Si se tiene un conjunto de vectores linealmente dependientes y se adiciona otro vector a este conjunto, el conjunto resultante también es Linealmente dependiente.

32144 344 210asumir puede se a

11

0

11

1n

...0=

++

≠ +

+++= nn

aunexiste

nn xaxaxai

17

Dependencia – Independencia Lineal.

LEMA: si un conjunto de vectores el Linealmente dependiente uno de ellos se puede escribir como combinación lineal de los demás:

0aun y 0 j1

≠∃=∑=

ixn

iia

n

n1j1j2

xxxx

xxxxxx

⎟⎟⎠

⎞⎜⎜⎝

⎛−++⎟

⎟⎠

⎞⎜⎜⎝

⎛−+⎟

⎟⎠

⎞⎜⎜⎝

⎛−=

−−−−−−= ++−−

j

n

jjj

j

njjj

aa

aa

aa

aaaaaa

.....

......

22

11

11211

18

Dependencia – Independencia Lineal.

Representación matricial:

Si la ecuación

sólo tiene la solución trivial a = 0 los vectores {xi} son LINEALMENTE INDEPENDIENTES.

Tnaaa ] [ 21=

=

a

]x|......|x|[xX n21

0xa =

19

Dependencia – Independencia Lineal.

Un criterio numérico establece que un conjunto de vectores {xi} es LINEALMENTE DEPENDIENTE si y solo si det[X] = 0El criterio solo aplica cuando el número de

componentes del vector es igual al número de vectores en el conjuntoEl criterio no revela el significado geométrico de independencia/dependencia lineal

20

Dependencia – Independencia Lineal.

Para n vectores de m componentes no se puede definir el determinante.Si se asume que el conjunto es Linealmente Dependiente, por lo menos existe un coeficiente aj no nulo tal que:

0....

:por ndomultiplica pre

0

21

T1

1

=+++

=∑=

nT

12T

11T

1

i

xxxxxx

x

x

n

n

ii

aaa

a

21

Dependencia – Independencia Lineal.

De la misma forma se pre-multiplica por los demásvectores x2 …xn traspuestos:

Si el determinante de G es no nulo la inversa existe y:

[ ][ ]

[ ] nxnorden de cuadrada es G :matriz lan1,2...,jy 1,2,..n i para

0

jTi xx

axx jTi

=

==

=

0a0Ga0Ga 1

=⇒=⇒= −

22

Dependencia – Independencia Lineal.

Entonces por contradicción : n vectores de m componentes son linealmente dependientes si y solo si:

G: matriz de Gram

njni

jTi

,...,1,...,1

0

==

== xxG

23

Dependencia – Independencia Lineal de funciones.

Cuando los vectores son funciones:

Se define la independencia sobre intervalos de t.Si existen escalares no todos cero tal que la combinación lineal:

Para todo entonces el conjunto de funciones es Linealmente Dependiente en dicho intervalo. En caso contrario son independientes.

n1,2,...,i para )( =tix

0)(....)(11 =+ tata nnxx

[ ]1, ttt o∈

24

Dependencia – Independencia Lineal de funciones.

Esto no garantiza independencia fuera del intervalo.Se construye el vector X de funciones de orden n x 1:

Se define la matriz de Gram (n x n) de X(t) como:

El conjunto de funciones es Linealmente Independiente en dicho intervalo si y sólo si el determinante de Gram es no nulo.

[ ] Tn1 )().......( )( ttt xxX =

stay transpue conjugado Complejo:*

)()(),(2

1

*21 ∫=

t

t

tttt XXG

25

Dimensión y Base

Dimensión: máximo número de vectores LINEALMENTE INDEPENDIENTES que se pueden tomar de un espacio.Base: Un conjunto de vectores LINEALMENTE INDEPENDIENTES en el espacio X es una base de X si y solo sí todo vector en X se puede expresar como una combinación lineal única de ese conjunto de vectores.

26

Dimensión y Base

Si el espacio vectorial X es de dimensión n, la base debe tener n vectores Linealmente Independientes.Existe un número infinito de bases.En términos geométricos la base más sencilla de escoger es el conjunto de ejes coordenados: base ortonormal.Un conjunto base NO tiene que ser ortonormal.

27

Dimensión y Base

Teorema: en un espacio vectorial lineal de n dimensiones cualquier conjunto de n vectores linealmente independientes califica como una base.

x se puede escribir como una combinación única de los elementos de la base

∑=

=

=

n

ii

1

: }{}{

:base una Sea

i

n21i

ex

vectorcualquier...ee,ee

β

28

Dimensión y Base

El conjunto de números {βi} es la representación de x respecto a {ei}.x se puede escribir por el conjunto de números o n-tupla:

La n- tupla se puede usar en operaciones vectoriales y se puede asociar a un conjunto de ejes coordenadosSi se cambia la base cambia el conjunto de coordenadas y cambia β

T21 ][ n.... β ββ=β

29

“Span”

Un conjunto de vectores Y esta “cubierto”(spanned) por un conjunto de vectores {xi} si todo se puede escribir como una combinación lineal de los xi.

Se representa como:

{xi} no es necesariamente una base.

Y∈y

{ }ixspY =

30

Cambio de Base

Un vector x está dado respecto a una base:

Del mismo espacio vectorial se toma una base diferente

El mismo vector se puede expandir respecto a las dos bases:

nii ...1 }ˆ{ =v

∑∑==

==n

iii

n

jj xx

11

ˆˆ vvx j

njj ,....,1}{ =v

31

Cambio de Base

Pero las dos bases consisten de vectores del mismo espacio vectorial y por lo tanto {vj} se puede expandir como:

Que se puede escribir como:

⎥⎥⎥

⎢⎢⎢

⎥⎦⎤

⎢⎣⎡=

nj

j

j

n

bbb

2

1

2 ˆˆˆ vvvv 1j

122111

ˆ..ˆˆˆ vvvvv i njjj

n

iijj bbbb +++== ∑

=

32

Cambio de Base

Expandiendo sobre j:

En notación matricial:

B es la matriz que define el cambio de base

[ ]⎥⎥⎥

⎢⎢⎢

⎥⎦⎤

⎢⎣⎡=

nnnn

n

nn

bbb

bbb

21

11211

22 ˆˆˆ vvvvvv 11

[ ] Bvvvvvv 11

44 344 214434421

nuevaBase

n

originalBase

n

2

2 ⎥⎦⎤

⎢⎣⎡=

∧∧∧

33

Cambio de Base

La representación original del vector:

Reorganizando:

∑∑ ∑== =

=⎥⎦

⎤⎢⎣

⎡=

n

ii

n

j

n

iijj xbx

11 1

ˆˆˆ ii vvx

0v i =⎥⎦

⎤⎢⎣

⎡−∑ ∑

= =

ˆˆ1 1

n

i

n

jijij xxb

34

Cambio de Base

Como es un conjunto independiente de vectores para que la ecuación anterior sea cero:

Esta expresión da los componentes de un vector en la nueva base a partir de los componentes en la base antigua

∑=

=n

jjiji xbx

1

ˆ

iv

35

Cambio de Base

En forma matricial:

También se puede definir la base recíproca:

Donde R es la matriz n x n cuyas filas corresponden a los vectores transpuestos de la base recíproca, para base ortogonal:

Bxx =ˆ

XRXBX

BRIRB

1

1

ˆˆ ==

=⇒=

{ }TTT rrr n21

Cambio de Base

Considerar el espacio R2 y dos bases:

Dado el vector x = [2 2]T respecto a la base {ej } representarlos respecto a la base nueva

36

{ }

{ }⎭⎬⎫

⎩⎨⎧

⎥⎦

⎤⎢⎣

⎡−⎥⎦

⎤⎢⎣

⎡=

⎭⎬⎫

⎩⎨⎧

⎥⎦

⎤⎢⎣

⎡⎥⎦

⎤⎢⎣

⎡=

01

21

ˆˆ

10

01

21

21

ee

ee

37

Rango y Nulidad

Rango: El rango de una matriz A, ρ(A), es el máximo número de columnas linealmente independientes. Este número es igual al número de filas linealmente independiente (Rango de Filas = Rango de Columnas).Si la matriz A es de dimensiones m x n el rango de A es

ρ(A) ≤ min(m,n)Si ρ(A) = min(m,n) se dice que la matriz es de Rango Completo.Si ρ(A) < min(m,n) se dice que la matriz es Deficiente enRango o Degenerada.

38

Rango y Nulidad

Si una matriz cuadrada es de rango completo se denomina No Singular, esto es equivalente a que el determinante es diferente de cero.Espacio Nulo: El espacio nulo de una matriz Ade dimensiones m x n se define como

η(A) = n - ρ(A)

39

Rango y Degeneración

Teorema: Sean las matrices A (m x n ) y B (n x p), tales que AB = C, entonces

ρ(A) + ρ(B) – n ≤ ρ(C) ≤ min[ρ(A), ρ(B)]η(C) ≤ η(A) + η(B)

Además, sean las matrices no singulares D (m x m) y E (n x n), entonces

ρ(DA) = ρ(A) y ρ(AE) = ρ(A)

40

Rango y NulidadEjemplo: Encontrar el rango y el espacio nulo o degeneración de la siguiente matriz:

⎥⎥⎥

⎢⎢⎢

−=

211202426

A

⎥⎥⎥

⎢⎢⎢

−−⎯⎯ →⎯

⎥⎥⎥

⎢⎢⎢

−⎯⎯⎯ →⎯

⎥⎥⎥

⎢⎢⎢

+−+−

11032320

426

110202426

211202426

21

32

32FFFF

La matriz tiene dos filas LI → ρ(A) = 2

Por otra parte η(A) = n - ρ(A) = 3 – 2 = 1

41

Productos InternosLas definiciones dadas para operaciones vectoriales se pueden extender a espacios vectoriales.

conjugado complejo significa barra la______

xy,yx, =

Producto Interno: es una operación entre dos vectores que da como resultado un escalar. El producto interno tiene las siguientes propiedades:

2121, yx,yx,yyx βαβα +=+•

0xxx,xxx, =↔=∀≥ 0y 0•

yx,yx αα =,•

yx,yx αα =,•

42

Productos Internos

Cuando los vectores x,y están definidos sobre el campo de los reales, aplica la definición básica:

Cuando los vectores x , y están definidos sobre el campo de los complejos:

* : Complejo Conjugado Transpuesto.Espacios con producto interno definido para ellos son espacios vectoriales con producto interno definido.

xyyxyx, TT ==

yxyx, *=

43

Normas

Norma: es la generalización del concepto de longitud o magnitud de un vector. Es una función de un vector que produce un escalar. Se denota por ||•|| y tiene las siguientes propiedades:

0≥x

0 0 =↔= xx

0x0x =←=

− :normassemiPara

44

Normas

Triangular dDesigualda yxyx +≤+

ααα escalar ∀= xx

Schwarz -Cauchy de dDesigualda yxyx, ⋅≤

45

Normas

Para un vector se definen las normas lp :

esindividual magnitudes de suma

:l Norma1

11 ∑=

=n

iixx

C∈x

1p para1

>⎟⎠

⎞⎜⎝

⎛= ∑

pn

i

pip

xx

46

Normas

puntos dos entre distancia o Euclidiana

l Norma2

122 ∑

=

=n

iixx

magnitudmayor deelemento:infinita norma

max l Norma iix=

∞∞ x

47

Normas

Algunas normas se pueden inducir a partir de los productos internos, por ejemplo la norma euclidiana:

Un vector unitario tiene norma 1Para un vector de n elementos:

21

2

1

xx,x

xxxx, T

=

== ∑=

n

iix

212

2

xxx

xxx

n

n

≤≤

≤≤∞∞

48

NormasCuando se trabaja con funciones continuas a tramos se definen las normas temporales:

( )∫∑∞

∞−

= dttuu ii

1 IAE o 1 Norma

( )[ ]∫∑∞

∞−

= dttuu ii

22

ISE o 2 Norma

{{ ( )tuu iit

maxmax pico valor o Norma =∞∞

49

Normas

La norma RMS o de potencia es una semi – norma:

Métrica: es una función de dos vectores que da como resultado una unidad escalar de las distancias entre dos vectores.

( ) yxyxr −=,

{ ∫∑−∞→

=T

T ii

Tpower

dttuT

tu 2)(21lim)(

50

Productos Internos y NormasÁngulo: el ángulo entre dos vectores se denota por θ(x,y) y satisface la ecuación:

En general un conjunto de vectores {xi} es ortogonal si:

θcosyxyx, =

Ortogonal: se dice que dos vectores son ortogonales si su producto interno es cero, <x,y> = 0. Ortonormal: Un par de vectores es ortonormal si <x,y> = 0 y ||x|| = ||y|| = 1.

jiji jj =∀≠≠∀= 0y 0 ii x,xx,x

En general un conjunto de vectores {xi} es ortonormal si:

jiji jiji =∀=≠∀= 1,y 0, xxxx

51

Ortonormalización de GRAM - SCHMIDT

Es conveniente y sencillo emplear bases ortonormales.Por el procedimiento de Gram - Schmidt se vuelve ortonormal una base cualquiera.Con este procedimiento si se tiene un conjunto de vectores no ortonormales que conforman una base {yi}, i = 1 ⋅⋅⋅ n, se puede generar un conjunto de vectores {vi}, i = 1 ⋅⋅⋅ n ortonormalAdicionalmente, cada subconjunto de vectores {vj}, j = 1 ⋅⋅⋅ m, cubre (spans) al subconjunto {yj}, i = 1 ⋅⋅⋅ m, para m < n.

52

Ortonormalización de GRAM - SCHMIDT

Procedimiento:

• Se comienza con un vector del conjuto no ortonormal:

11 yv =

• Se toma y se resta del nuevo vector cualquier componente que comparta con los vectores ya definidos

22 yv =

122 avyv −=

a representa la magnitud de la componente de y2 en la dirección v1 y es una incógnita a determinar.

53

Ortonormalización de GRAM - SCHMIDT

Procedimiento:

Como el conjunto {vj} es ortogonal:

0, 21 =vv

0,,, 1121121 =−=− vvayvavyv

11

21

,,vvyv

a =

54

Ortonormalización de GRAM - SCHMIDT• Se repite el procedimiento anterior para el nuevo vector v3

221133 vavayv −−=

Los coeficientes a1 y a2 representa los componentes de y3 en la dirección de v1 y v2 . Se calcula con un procedimiento similar al anterior:

0,, 22113131 =−−= vavayvvv

0,,,0

21211131 =−−321vvavvayv

11

311 ,

,vvyv

a =→

55

Ortonormalización de GRAM - SCHMIDT

Por otra parte se tiene que

0,, 22113232 =−−= vavayvvv

0,,, 222

0

12132 =−− vvavvayv321

22

322 ,

,vvyv

a =→

• Se repite este mismo proceso para obtener

∑∑−

=

=

−=−=1

1

1

1 ,,i

kk

kk

iki

i

kkkii v

vvyv

yvayv

56

Ortonormalización de GRAM - SCHMIDT

Cada par de vectores ortonormales satisface

→ Norma Euclidiana

• Para obtener una base ortonormal se normaliza cada uno de los vectores

i

ii v

vv =ˆ

⎩⎨⎧

≠=

==jiji

vv ijji 01

ˆ,ˆ δ

57

Ortonormalización de GRAM - SCHMIDTSi se usa una base ortonormal siempre se puede encontrar la componente de un vector x a lo largo del j – esimo vector de la base, xj , empleando un producto interno con el vector base j, esto es

∑=

=n

iiiecx

1y

Sea {ei}, i = 1 ⋅⋅⋅ n, una base ortonormal para el espacio X y si x∈Xentonces

nnjjj

n

iiijj ececececeecexe +++++== ∑

=

LL22111

,,,

321LL

32132100

22

0

11 ,,,,, njnjjjjjj eeceeceeceecxe +++++=

jjjjj ceecxe ==321

1

,,

58

Ortonormalización de GRAM - SCHMIDTCuando un vector x esta representado en términos de una base ortogonal {ei}, la norma del vector se encuentra empleando el teorema de Parseval:

Teorema: Si un vector, en un espacio lineal de dimensión n, estádado por cualquier representación {ci} respecto a una base ortonormal, entonces la norma euclidiana puede ser representada como

∑=

=n

iic

1

2x

Si el vector está dado por una base ortonormal se representa como

∑=

=n

iiix

1

ex

59

Ortonormalización de GRAM - SCHMIDTLa norma euclidiana está dada por

que también se puede escribir como

21

11

21

,, ∑∑==

==n

iii

n

jjj ececxxx

pero

21

1 1,∑ ∑

= = ⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧

=n

ii

n

jjji eeccx

n

n

jijji

n

jjj ccceeceec +++== ∑∑

==

L2111

,,

60

Ortonormalización de GRAM - SCHMIDT

Entonces:

Si el vector está representado respecto a una base ortonormal la norma euclidiana es:

Si el vector no está representado respecto a una base ortonormal los dos resultados no coinciden

21

1

22

1

11⎥⎦

⎤⎢⎣

⎡=⎥

⎤⎢⎣

⎡= ∑∑∑

===

n

ii

n

ii

n

ii cccx

21

1

22

1

1

2⎥⎦

⎤⎢⎣

⎡=⎥

⎤⎢⎣

⎡= ∑∑

==

n

ii

n

ii xcx

61

Ortonormalización de GRAM - SCHMIDTEjemplo: Emplear el procedimiento de Gram – Schmidh para construir un conjunto ortognormal de vectores de:

Se verifica si xi es una base LI

⎥⎥⎥

⎢⎢⎢

⎡−+

=j

jj

x 11

1

• Se toma

⎥⎥⎥

⎢⎢⎢

+−=

jj

jx

2121

2

2

⎥⎥⎥

⎢⎢⎢

⎡=

jjx

5

1

3

0419521

211121

≠+=+−−

+= j

jjjjjj

jjA

11 xv =

62

Ortonormalización de GRAM - SCHMIDT• Se toma

⎥⎥⎥

⎢⎢⎢

⎡−+

−⎥⎥⎥

⎢⎢⎢

+−=−=

jjj

ajj

javxv 1

1

2121

2

122

donde

57

,,

1*1

2*1

11

21 ===xxxx

vvxv

a

entonces

⎥⎥⎥

⎢⎢⎢

+−−+−

=⎥⎥⎥

⎢⎢⎢

⎡−+

−⎥⎥⎥

⎢⎢⎢

+−=

jjj

jjj

jj

jv

353237

511

1

57

2121

2

2

63

Ortonormalización de GRAM - SCHMIDT• Se repite el proceso

221133 vavaxv −−=

155

,,

1*1

3*1

11

311 ====

xxxx

vvxv

a5

2141

,,

2*2

3*2

22

322

jvvxv

vvxv

a +===

⎥⎥⎥

⎢⎢⎢

++−+

=j

jj

v617

5331419

211

3

Entonces

64

Ortonormalización de GRAM - SCHMIDT• Normalizando

⎥⎥⎥

⎢⎢⎢

⎡−+

==j

jj

vvv 1

1

51ˆ

1

11

⎥⎥⎥

⎢⎢⎢

+−−+−

=jjj

v353237

1051ˆ2

⎥⎥⎥

⎢⎢⎢

++−+

=j

jj

v617

5331419

79171ˆ3

65

Sub espacios

Un subespacio es un subconjunto de un espacio vectorial lineal y califica a sí mismo como espacio: el plano es un subespacio del espacio de tres dimensiones.

Un subespacio M de un espacio vectorial X es un subconjunto de X tal que si x, y ∈ M, α y β escalares, y z = αx + βy → z ∈ M.

La definición especifica que el subespacio es cerrado para la suma vectorial y para la multiplicación por escalares.

66

Subespacios

Las demás condiciones necesarias para ser un “subespacio” se cumplen por ser todos los vectores en el subespacio provenientes del espacio vectorial X.Todo espacio es subespacio de si mismo. Si dim(M) = dim(X), entonces X = M. Se dice que un subespacio es propio si dim(M) < dim(X).

67

Teorema de Proyección

Como todo los subespacios deben contener al vector cero, entonces se pueden hacer las siguientes observaciones:Todos los subespacios propios de R2 son líneas rectas que pasan por el origen.Todos los subespacios propios de R3 son líneas rectas o planos que pasan a través del origen.Todos los subespacios propios de Rn son hipersuperficiesde dimensión n-1 o menor que pasan a través del origen.

68

Teorema de Proyección

Cuál es el vector que está en el “plano” y es el más cercano a un vector dado que no está en el plano?Teorema de Proyección: Sea W un subespacio vectorial propio de X, entonces para todo v ∈ X existe un w ∈ W tal que

para todo x ∈ W. El vector w es la proyección ortogonal de v en W.

0=− xw,v

69

Subespacios y Teorema de Proyección

Complemento Ortogonal: Si W es un subespacio de X, el complemento ortogonal de W, denotado W┴, es un subespacio de de X, tal que todos los vectores de W┴ son ortogonales a W

70

Álgebra Lineal: Un álgebra lineal es un espacio vectorial lineal que además de los requisitos para ser un espacio vectorial lineal, incluye la multiplicación:

Dados los vectores x,y,z y el escalar α, entonces

Álgebra Lineal

( ) ( ) ( )yxyxxy ααα ==•Asociativa para multiplicación por escalar

( ) ( )yzxzxy =

( ) yzxzzyx +=+

• Asociativa para multiplicación de vectores

• Distributiva para multiplicación de vectores

71

Referencias

1. BAY J.S. Fundamentals of Linear State Space Systems. New York: McGraw Hill International. 1999. Chapter 2.

2. CHEN C.T. Linear Systems Theory and Design. 3rd Edition. New York: Oxford University Press. 1999. Chapter 3.

3. SKOGESTAD S. and POSTLEHWAITE L. Multivariable Feedback Control. Chichester: John Wiley & Sons. 1996. Appendix A.5

top related