libro completo algebra

353

Upload: juan-jose-herrera-sequera

Post on 30-Jun-2015

2.167 views

Category:

Documents


8 download

TRANSCRIPT

Page 1: Libro Completo Algebra

Álgebra

R.Criado y A.Gallinari

2003

Page 2: Libro Completo Algebra

2 Álgebra

IntroducciónEn sus orígenes, el álgebra clásica era el arte de resolver ecuaciones (la

palabra álgebra proviene de un vocablo árabe que signi�ca reducción). Elálgebra moderna está caracterizada por el estudio de ciertas estructuras abs-tractas que tienen en común una gran variedad de objetos matemáticos. Elcali�cativo abstracto se re�ere al resultado de realizar el proceso de abstrac-ción sobre las propiedades observables de ciertos objetos matemáticos, esdecir, el proceso consistente en separar la forma del contenido.

La estructura principal objeto de estudio en esta publicación es la deespacio vectorial. Las aplicaciones de esta estructura incluyen virtualmen-te todas las áreas de la ciencia. Se incluye una aplicación de los espaciosvectoriales relacionada estrechamente con el mundo de la informática y lastelecomunicaciones, en concreto a la teoría de códigos y se estudian variastécnicas y herramientas de interés para otras aplicaciones.

Este volumen viene acompañado por un libro de Prácticas y Problemascon el sistema Maple V, disponible en versión digital, que contiene una am-pliación y completa la descripción de los conceptos teóricos. Las prácticaspermiten el desarrollo y la experimentación con los aspectos más numéri-cos y están diseñada para potenciar el empleo de la notable capacidad devisualización grá�ca que ofrece el programa Maple V.

A cada tema teórico y práctico hemos añadido ejercicios resueltos y ejer-cicios propuestos.

Los principales objetivos didácticos que intentamos conseguir son que ellector:

• aprenda y utilize correctamente técnicas y métodos propios del álgebralineal.

• vea la descripción de algunas aplicaciones a la Informática.

• comprenda y aplique algunos métodos numéricos de resolución de sis-temas de ecuaciones lineales y de aproximación de autovalores y auto-vectores.

• aprenda a utilizar el programa Maple V (como ejemplo de sistema decomputación simbólica) en sus aplicaciones al álgebra lineal.

Algunos apartados de esta publicación (sobre todo en la parte de ejerci-cios) son una adaptación del material contenido (unas veces sin modi�carlo,otras proponiendo variaciones de ello) en la bibliografía incluida.

Page 3: Libro Completo Algebra

Álgebra 3

AgradecimientosQueremos agradecer al profesor Luis E. Solá Conde por su participación

en la corrección de estas notas y la elaboración de los enunciados de variosejercicios propuestos en este libro.

Gracias también a los profesores Alejandro J. García del Amo Jiménezy Begoña Jiménez Martín por la elaboración de los enunciados de variosejercicios propuestos y a los alumnos que han señalado erratas y errores enversiones previas de esta publicación.

Page 4: Libro Completo Algebra

4 Álgebra

Page 5: Libro Completo Algebra

Índice General

1 Sistemas de ecuaciones lineales, matrices y estructuras alge-braicas 91.1 Sistemas de ecuaciones lineales, matrices y eliminación gaussiana 10

1.1.1 Introducción a los sistemas de ecuaciones lineales . . . 101.1.2 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . 131.1.3 Transformaciones elementales por �las.

Introducción al método de Gauss-Jordan . . . . . . . . 141.1.4 Sistemas equivalentes . . . . . . . . . . . . . . . . . . . 181.1.5 Estrategia para la aplicación del método

de eliminación gaussiana . . . . . . . . . . . . . . . . . 221.1.6 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . 24

1.2 Matrices y operaciones con matrices . . . . . . . . . . . . . . . 261.2.1 Suma de matrices . . . . . . . . . . . . . . . . . . . . . 291.2.2 Producto de matrices . . . . . . . . . . . . . . . . . . . 311.2.3 Propiedades del producto de matrices . . . . . . . . . . 331.2.4 El producto de una matriz por un escalar . . . . . . . . 371.2.5 El anillo de matrices cuadradas Mn(K) . . . . . . . . . 391.2.6 Matrices invertibles . . . . . . . . . . . . . . . . . . . . 401.2.7 Matrices elementales y un método para hallar A−1 . . . 43

1.3 Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . 471.3.1 El concepto de operación . . . . . . . . . . . . . . . . . 471.3.2 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . 501.3.3 Anillos y cuerpos . . . . . . . . . . . . . . . . . . . . . 521.3.4 Introducción a los Tipos Abstractos de Datos . . . . . 57

1.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 601.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 64

5

Page 6: Libro Completo Algebra

6 Álgebra

2 Espacios vectoriales 712.1 Vectores en el plano y en el espacio . . . . . . . . . . . . . . . 73

2.1.1 Producto vectorial y producto mixto . . . . . . . . . . 812.1.2 Rectas en le plano . . . . . . . . . . . . . . . . . . . . 832.1.3 Planos en el espacio tridimensional . . . . . . . . . . . 852.1.4 Rectas en el espacio tridimensional . . . . . . . . . . . 87

2.2 Espacios vectoriales sobre un cuerpo K . . . . . . . . . . . . . 892.2.1 Propiedades de vectores . . . . . . . . . . . . . . . . . 922.2.2 Producto cartesiano de espacios vectoriales . . . . . . . 932.2.3 Funciones con codominio en un espacio vectorial . . . . 96

2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . 1002.4 Dependencia e independencia lineal . . . . . . . . . . . . . . . 1042.5 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . 112

2.5.1 Sistemas generadores y bases . . . . . . . . . . . . . . 1122.5.2 Equipotencia de bases . . . . . . . . . . . . . . . . . . 116

2.6 Subespacios vectoriales y dimensión . . . . . . . . . . . . . . . 1202.7 Rango de un sistema de vectores y de una matriz . . . . . . . 1222.8 El teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . 1232.9 Método de Gauss y rango . . . . . . . . . . . . . . . . . . . . 130

2.9.1 Transformaciones elementales por columnas y matriceselementales . . . . . . . . . . . . . . . . . . . . . . . . 130

2.9.2 Método de Gauss para calcular el rango de una matriz 1322.9.3 Algoritmo de extensión de una base . . . . . . . . . . . 1382.9.4 Rango y espacio �la de una matriz . . . . . . . . . . . 139

2.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1412.10.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 1412.10.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 146

3 Funciones lineales 1533.1 Funciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 1543.2 Propiedades de funciones lineales . . . . . . . . . . . . . . . . 1583.3 Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . 1613.4 Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . 1653.5 Funciones lineales en espacios vectoriales de dimensión �nita . 167

3.5.1 Determinación de funciones lineales en espacios vecto-riales de dimensión �nita . . . . . . . . . . . . . . . . . 167

3.5.2 Dimensiones del núcleo y de la imagen . . . . . . . . . 1723.5.3 Matriz asociada a una función lineal . . . . . . . . . . 174

Page 7: Libro Completo Algebra

Álgebra 7

3.5.4 Algoritmo para hallar una base del núcleo y de la imagen1783.5.5 Matriz asociada a la composición de funciones lineales . 1793.5.6 Matrices semejantes y cambios de base . . . . . . . . . 1833.5.7 Ecuaciones paramétricas e implícitas de un subespacio

vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . 1853.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190

3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 1903.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 193

4 Espacios vectoriales euclídeos 1974.1 Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . 1974.2 Longitud o norma euclídea de un vector . . . . . . . . . . . . 200

4.2.1 Propiedades de la norma euclídea . . . . . . . . . . . . 2004.3 Método de ortogonalización de Gram-Schmidt . . . . . . . . . 204

4.3.1 Descomposición QR de una matriz . . . . . . . . . . . 2094.4 Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . 211

4.4.1 Método para hallar una proyección ortogonal . . . . . . 2144.4.2 Aproximación óptima de un vector. . . . . . . . . . . . 215

4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2174.5.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 2174.5.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 217

5 Códigos lineales 2195.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2195.2 Distancia de Hamming, detección y corrección de errores . . . 222

5.2.1 Código de paridad: detección de errores simples . . . . 2235.2.2 Código de repetición: corrección de errores simples . . 224

5.3 Códigos lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 2255.3.1 Paso de una matriz de control a una matriz generadora 2285.3.2 Paso de una matriz generadora a una matriz de control 2295.3.3 Detección y corrección de errores . . . . . . . . . . . . 232

5.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2355.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 2355.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 236

6 Autovalores y autovectores 2396.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2396.2 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . 241

Page 8: Libro Completo Algebra

8 Álgebra

6.3 Funciones complejas de variable real . . . . . . . . . . . . . . 2436.3.1 La exponencial compleja . . . . . . . . . . . . . . . . . 244

6.4 Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . 2466.4.1 La ecuación de primer orden . . . . . . . . . . . . . . . 2466.4.2 La ecuación de orden n . . . . . . . . . . . . . . . . . . 2496.4.3 Sistemas de ecuaciones diferenciales . . . . . . . . . . . 251

6.5 La semejanza de matrices y los sistemas de ecuaciones . . . . . 2536.5.1 Sistemas diagonales . . . . . . . . . . . . . . . . . . . . 2556.5.2 Sistemas triangulares . . . . . . . . . . . . . . . . . . . 256

6.6 Diagonalización y triangulación de matrices . . . . . . . . . . 2596.6.1 El polinomio característico de una matriz . . . . . . . . 2596.6.2 Matrices diagonalizables . . . . . . . . . . . . . . . . . 2636.6.3 Triangulación de matrices . . . . . . . . . . . . . . . . 2686.6.4 Resolución de sistemas de ecuaciones diferenciales por

triangulación . . . . . . . . . . . . . . . . . . . . . . . 2716.7 Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . 279

6.7.1 Relaciones de primer orden . . . . . . . . . . . . . . . . 2816.7.2 Sistemas de relaciones de recurrencia . . . . . . . . . . 286

6.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2906.8.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . 2906.8.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . 291

7 Soluciones de los ejercicios 2937.1 Soluciones de los ejercicios

del capítulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 2937.2 Soluciones de los ejercicios

del capítulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 3077.3 Soluciones de los ejercicios

del capítulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 3217.4 Soluciones de los ejercicios

del capítulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 3317.5 Soluciones de los ejercicios

del capítulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 3327.6 Soluciones de los ejercicios

del capítulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . 335

A Nuevo método de triangulación por semejanza 343

Page 9: Libro Completo Algebra

Capítulo 1

Sistemas de ecuaciones lineales,matrices y estructuras algebraicas

Este primer capítulo comienza con el estudio de los sistemas de ecuacioneslineales, de las matrices y de las operaciones con matrices.

Estos conceptos están en la base del álgebra lineal, y se asume que ya seha tenido un contacto previo con ellos en cursos anteriores.

Es conveniente señalar que en este nivel no sólo es importante entenderlos métodos de cálculo de las soluciones de los problemas que se estudiarán,sino también el porqué dichos métodos funcionan.

Hablaremos de sistemas de n ecuaciones con m variables, donde n y men general no son iguales, y de un algoritmo de cálculo, el método de elimi-nación gaussiana, que nos permitirá resolver sistemas de ecuaciones linealesgenerales.

En la segunda parte del capítulo, una vez establecidas las propiedadesque satisfacen las matrices respecto de la suma y producto, se introducenlas estructuras algebraicas de grupo, anillo y cuerpo con el objeto de reu-nir, bajo una estructura algebraica abstracta, las propiedades que tienen encomún, por ejemplo, los números enteros, reales y complejos, las matrices ylos polinomios, y destacar aquellas propiedades que no comparten. En esesentido, la de�nición de una estructura algebraica (por ejemplo, la de�niciónde grupo) responderá a la abstracción de ciertas propiedades comunes a losobjetos anteriores, entendiendo por abstracción �el proceso de separar la for-ma del contenido�. Como colofón del capítulo y aplicación de los conceptospreviamente introducidos veremos una introducción a los tipos abstractos dedatos.

9

Page 10: Libro Completo Algebra

10 Álgebra

1.1 Sistemas de ecuaciones lineales, matrices yeliminación gaussiana

Al aplicar la teoría de ecuaciones lineales, entre otras disciplinas, a la infor-mática, aparecen ecuaciones lineales con coe�cientes enteros, binarios (0 ó1), reales o incluso complejos. La de�nición de la estructura algebraica decuerpo se introducirá más tarde. Cómo en la mayor parte de los resultadosreferentes a la teoría de ecuaciones lineales no hace falta hacer distinciónentre los casos en los que los coe�cientes son elementos del cuerpo R de losnúmeros reales o del cuerpo C de los números complejos, a lo largo del ca-pítulo se considerará que los coe�cientes de las ecuaciones pertenecen a uncuerpo genérico K, donde K = R ó C, aunque en algunos casos en los que sedirá explícitamente, se consideraran también coe�cientes binarios, es decir,del cuerpo Z2 = {0, 1} de los números enteros módulo 2.

Se asume que el estudiante ha trabajado en cursos anteriores con elemen-tos de R2 y R3, a los que se denominan pares ordenados y ternas. Ambosconceptos son casos particulares del concepto de n − tupla o elemento delproducto cartesiano de n copias de R, Rn, donde n es un número natural, oen general de Kn. Así

Kn = {(x1, ..., xn) | ∀i ∈ {1, ..., n} xi ∈ K}

De este modo, un par ordenado es una 2 − tupla (un elemento de K2) yuna terna es una 3− tupla (un elemento de K3).

1.1.1 Introducción a los sistemas de ecuaciones linealesDe�nición 1.1.1 Una ecuación lineal en las variables (o incógnitas) x1, ..., xn

es una expresión de la forma

a1x1 + ... + anxn = b

A a1, ..., an ∈ K se les denomina coe�cientes de la ecuación, y a b ∈ Ktérmino independiente.

Observación 1 Habitualmente, los coe�cientes a1, ..., an y el término inde-pendiente b serán elementos de un cuerpo K (con K = R ó C). En tal casose dice que la ecuación anterior es una ecuación lineal con coe�cientes en K.

Page 11: Libro Completo Algebra

Álgebra 11

Observación 2 Cuando n ≤ 3 es usual utilizar las variables x, y y z enlugar de x1, x2 y x3

Ejemplo 1.1.2 Si n = 2 y a1, a2 ∈ R, la ecuación lineal

a1x + a2y = b (I)

representa una recta en el plano R2, es decir, el conjunto de pares (x, y) quesatisfacen la ecuación (I) constituyen una recta. Por ejemplo, la ecuacióny − 2x = 2 representa la recta

6

-

½½

½½

½½

½½½

2-1 0

Figura 1.1: La recta y=2x+2

Es importante observar que las operaciones que afectan a las variablesque intervienen en las ecuaciones lineales se reducen a multiplicarlas por loscoe�cientes y sumarlas. Así por ejemplo,

3x + 4y = 24

x1 − x2 + 5x3 − (√

2)x4 = 1

(e2)x1 − 3x2 + x3 − x4 = 0

son ecuaciones lineales. Sin embargo NO son ecuaciones lineales

3x2 + 4y = 24

x1 − x2 + 5x3 − 2√

x4 = 1

e2x1 − 3x2 + x3 − x4 = 0

Page 12: Libro Completo Algebra

12 Álgebra

De�nición 1.1.3 Se dice que (α1, ..., αn) ∈ Kn es solución de la ecuación

a1x1 + ... + anxn = b

sia1α1 + ... + anαn = b.

Ejemplo 1.1.4 (x, y, z) = (3, 2,−1) es solución de x + y + z = 4. Por otraparte (x, y, z) = (4, 0, 0) también es solución de dicha ecuación.

Un sistema de ecuaciones lineales es una sucesión �nita de ecuacioneslineales. Es usual representar los sistemas de ecuaciones lineales �verticalmen-te� (i.e., colocando la sucesión de ecuaciones lineales �en columna�). Así, unsistema de m ecuaciones lineales con n incógnitas se representaría por

a11x1 + ... + a1nxn = b1...

am1x1 + ... + amnxn = bm

Ejemplo 1.1.5 El sistema

x2 + x3 = 12x1 − x3 = 2x2 + x3 = 4

es un sistema de 3 ecuaciones con 3 incógnitas.

De�nición 1.1.6 Se dice que (α1, ..., αn) ∈ Kn es solución del sistema deecuaciones

a11x1 + ... + a1nxn = b1...

am1x1 + ... + amnxn = bm

si∀i ∈ {1, ...,m} ai1α1 + ... + ainαn = bi

o, lo que es lo mismo,

a11α1 + ... + a1nαn = b1...

am1α1 + ... + amnαn = bm

Page 13: Libro Completo Algebra

Álgebra 13

Es importante tener presente que los sistemas de ecuaciones lineales pue-den no tener soluciones, o tener más de una. Por ejemplo, el sistema deecuaciones lineales con coe�cientes en R

{x1 − x2 = 1x1 − x2 = 4

no tiene solución, ya que contiene las ecuaciones de dos rectas distintas yparalelas.

Los sistemas de ecuaciones lineales que no tienen solución, como el delejemplo anterior, se denominan sistemas incompatibles.

Los que tienen al menos una solución, esto es, los sistemas compati-bles, pueden tener una única solución, en cuyo caso se denominan compati-bles determinados, o más de una solución, en cuyo caso, si los coe�cientesdel sistema son números reales o complejos, el sistema tiene in�nitas solucio-nes (como se verá por el teorema 1.2.14), y los sistemas correspondientes sedenominan compatibles indeterminados.

Ejercicio 1.1.1 Encontrar tres sistemas de dos ecuaciones lineales con coe�-cientes en R con dos incógnitas, uno compatible determinado, otro compatibleindeterminado y un tercero incompatible y representar el conjunto soluciónde cada una de las dos ecuaciones lineales que lo forman en el plano R2.Extraer conclusiones.

1.1.2 Sistemas homogéneosDe�nición 1.1.7 Se dice que un sistema de ecuaciones lineales es homogé-neo si los términos independientes de todas las ecuaciones que lo constituyenson iguales a 0.

Ejemplo 1.1.8 {x1 + x3 = 0

2x1 − x2 + x3 = 0

es un sistema homogéneo de 2 ecuaciones con 3 incógnitas.

Observación 3 Cualquier sistema de ecuaciones lineales homogéneo

a11x1 + ... + a1nxn = 0...

am1x1 + ... + amnxn = 0

Page 14: Libro Completo Algebra

14 Álgebra

es compatible, puesto que (0, ..., 0) ∈ Kn es siempre una solución de dichosistema. A esta solución se la conoce como solución trivial. Si un sistemahomogéneo tiene soluciones distintas de la trivial, a cualquiera de dichassoluciones la denominaremos solución no trivial.

En el capítulo 2 demostraremos que un sistema homogéneo de ecuacioneslineales con coe�cientes en R ó C satisface exactamente una de las siguientesproposiciones:

• El sistema homogéneo sólo tiene la solución trivial.

• El sistema homogéneo tiene in�nitas soluciones además de la trivial.

En particular, demostraremos que todo sistema homogéneo con coe�-cientes en R ó C que tenga más incógnitas que ecuaciones tiene in�nitassoluciones.

Se pueden �comprender� e interiorizar los resultados anteriores a travésde la resolución de los siguientes ejercicios:

Ejercicio 1.1.2 Comprobar que el sistema homogéneo{

x1 + x3 = 02x1 − x2 + x3 = 0

tiene in�nitas soluciones en ∈ R3, despejando las variables x1 y x2 en funciónde x3, y obtener una solución del sistema para cada valor de x3 considerado.

Ejercicio 1.1.3 Veri�car que el sistema{

x1 + x2 = 02x1 − x2 = 0

sólo tiene la solución trivial.

1.1.3 Transformaciones elementales por �las.Introducción al método de Gauss-Jordan

En esta sección haremos una primera descripción del método de Gauss-Jordan para encontrar las soluciones (si es que existen) de un sistema deecuaciones lineales. La justi�cación del método y su descripción precisa se

Page 15: Libro Completo Algebra

Álgebra 15

realizará en las dos siguientes secciones. En esta sección también daremosuna primera justi�cación de la de�nición del producto de matrices (i.e., deporqué el producto de matrices se de�ne tal y como se de�ne). Al procesode cálculo de las soluciones de un sistema de ecuaciones compatible se ledenomina resolución del sistema.

Si consideramos el sistema de ecuaciones lineales:

x1 − x2 + x3 = 12x1 + x2 − x3 = 2x1 + 2x2 + x3 = 4

podemos resolverlo eliminando sucesívamente una de las incógnitas de dosde las ecuaciones, después otra de las restantes y así sucesivamente hastaconocer el valor de una incógnita, y a partir de ella el de las demás. En estecaso, multiplicando la primera ecuación por 2 y restándosela a la segunda, yrestando la primera ecuación a la tercera, obtenemos:

x1 − x2 + x3 = 13x2 − 3x3 = 0

3x2 = 3.

A partir de aquí, de la tercera ecuación se obtiene x2 = 1. Sustituyendo haciaatrás vamos obteniendo sucesívamente el valor del resto de las incógnitas.En este caso, de la segunda ecuación obtenemos que x3 = 1, y, conocidos losvalores de x2 y x3, de la primera ecuación obtenemos que x1 = 1.

El método descrito, consistente en ir eliminando las incógnitas de lasecuaciones una a una mediante el proceso de sumar a una ecuación otramultiplicada por un número, para, una vez obtenido el valor de una de lasvariables, ir sustituyendo hacia atrás, se conoce como eliminación gaussia-na.

Si una vez obtenido el valor de una de las variables, en lugar de sustituirhacia atrás, seguimos sumando a una ecuación otra multiplicada por un nú-mero, multiplicando ambos miembros de la ecuación por números adecuados eintercambiando ecuaciones con el objeto de obtener un sistema de ecuaciones�escalonado� en el que en cada ecuación aparezca únicamente una incógnita,estaremos aplicando el método conocido como método de Gauss-Jordan.

Una forma de representar sistemas de ecuaciones lineales consiste en uti-lizar matrices, esto es, tablas de coe�cientes ordenadas según un númerodeterminado de �las y columnas. De hecho, el método de Gauss-Jordan se

Page 16: Libro Completo Algebra

16 Álgebra

aplica más fácilmente sobre la que se denomina matriz ampliada asociada alsistema que sobre el propio sistema. La matriz asociada al sistema

x1 − x2 + x3 = 12x1 + x2 − x3 = 2x1 + 2x2 + x3 = 4

es por de�nición la matriz

1 −1 12 1 −11 2 1

y la matriz ampliada asociada a dicho sistema es

1 −1 1 12 1 −1 21 2 1 4

La aplicación del método de Gauss-Jordan sobre dicha matriz para obte-ner la solución del sistema de ecuaciones que representa nos daría sucesíva-mente:

1 −1 1 12 1 −1 21 2 1 4

F2 = F2 − 2F1

F3 = F3 − F1→

1 −1 1 10 3 −3 00 3 0 3

F2 ↔ F3 →

1 −1 1 10 3 0 30 3 −3 0

F2 = 1

3F2 →

1 −1 1 10 1 0 10 3 −3 0

F3 = F3 − 3F2 →

1 −1 1 10 1 0 10 0 −3 −3

F3 = −1

3F3 →

1 −1 1 10 1 0 10 0 1 1

F1 = F1 − F3 →

1 −1 0 00 1 0 10 0 1 1

F1 = F1 + F2 →

1 0 0 10 1 0 10 0 1 1

Page 17: Libro Completo Algebra

Álgebra 17

La última matriz representa, obviamente, que x1 = 1, x2 = 1 y x3 = 1.En la resolución del sistema anterior hemos aplicado sobre la matriz am-

pliada del sistema lo que se denominan transformaciones elementales por�las. Estas son las siguientes:

1. Sumar a una �la otra multiplicada por un número: Fi = Fi + λFj

2. Multiplicar una �la por un número distinto de cero: Fi = λFi

3. Intercambiar dos �las: Fi ↔ Fj

En cualquier caso, no todos los sistemas de ecuaciones lineales tienensolución. Por ejemplo, si consideramos el sistema{

x1 − x2 = 12x1 − 2x2 = 4

la aplicación de las transformaciones elementales correspondientes sobre lamatriz ampliada asociada al sistema nos lleva a(

1 −1 12 −2 4

)F2 = F2 − 2F1 →

(1 −1 10 0 2

)

es decir, 0x1 + 0x2 = 2.Así pues, el sistema anterior es un sistema incompatible.Un ejemplo de sistema compatible indeterminado sería el siguiente:

x1 − x2 + x3 = 12x1 + x2 − x3 = 2

2x1 − 2x2 + 2x3 = 2

Al resolverlo por el método de Gauss-Jordan obtenemos:

1 −1 1 12 1 −1 22 −2 2 2

F2 = F2 − 2F1

F3 = F3 − 2F1→

1 −1 1 10 3 −3 00 0 0 0

F2 = 1

3F2 →

1 −1 1 10 1 −1 00 0 0 0

F1 = F1 + F2 →

1 0 0 10 1 −1 00 0 0 0

es decir, x1 = 1 y x2 − x3 = 0, o lo que es lo mismo, x2 = x3, con lo que,si escribimos x3 = t, para cada valor de t tenemos una solución del sistema.Sería solución del sistema (1, 1, 1), (1, 2, 2), ... en total tendríamos in�nitassoluciones, tantas como posibles valores del parámetro t; esto ocurre porqueestamos trabajando sobre el cuerpo de los números reales, luego t tomavalores en R, que es in�nito.

Page 18: Libro Completo Algebra

18 Álgebra

1.1.4 Sistemas equivalentesLa aplicación sucesiva de transformaciones elementales por �las sobre un sis-tema de ecuaciones lineales (o sobre su matriz ampliada) permite pasar deun sistema de ecuaciones lineales a otro que, teniendo las mismas solucionesque el planteado, es �más sencillo de resolver�. En esta sección demostraremoscon todo detalle que esto es efectivamente así. Por otra parte, las transforma-ciones elementales son �reversibles�, es decir, si realizando transformacioneselementales sobre un sistema de ecuaciones lineales S obtenemos un siste-ma de ecuaciones lineales S ′, podemos recuperar S a partir de S ′ realizandolas transformaciones elementales “inversas” en el orden adecuado (el ordeninverso del que se ha seguido para pasar de S a S ′).

TRASFORMACIÓN TRANSFORMACIÓN INVERSAFi = Fi + λFj Fi = Fi − λFj

Fi = λFi (λ 6= 0) Fi =1

λFi

Fi ↔ Fj Fi ↔ Fj

Ejercicio 1.1.4 Realizar las transformaciones F3 = F3 − F1, F3 ↔ F1,

F2 =1

2F2 sobre la matriz ampliada asociada al sistema.

x1 − x2 + x3 = 12x1 + 2x2 − 2x3 = 2x1 + 2x2 + x3 = 4

para obtener la matriz A′. Realizar sobre A′ las transformaciones inversasde las anteriores en el orden adecuado y comprobar que se obtiene la matrizampliada asociada al sistema dado.De�nición 1.1.9 Se dice que dos sistemas de m ecuaciones lineales con nincógnitas son equivalentes si uno de ellos puede obtenerse a partir del otrorealizando sobre el primero una sucesión �nita de transformaciones elemen-tales por �las.Observación 4 Como ya hemos señalado, habitualmente representaremos aun sistema de ecuaciones lineales

α11x1 + ... + α1nxn = β1...

αm1x1 + ... + αmnxn = βm

Page 19: Libro Completo Algebra

Álgebra 19

por su matriz ampliada:

Am =

α11 ... α1n β1... ... ...

αm1 ... αmn βm

∈ Mm×(n+1)(K),

con lo que las transformaciones elementales se realizan sobre las �las de estamatriz.

A la vista de la observación anterior tiene sentido establecer la siguientede�nición:

De�nición 1.1.10 Si una matriz A′ se obtiene realizando transformacioneselementales por �las sobre una matriz A, diremos que las matrices A y A′

son equivalentes por �las.

Observación 5 A las transformaciones elementales por �las, realizadas, biendirectamente sobre las ecuaciones del sistema, bien sobre las �las de su matrizampliada las denotaremos del mismo modo.

Ejercicio 1.1.5 Veri�car que la relación de equivalencia de matrices enMm×n(K) es una relación binaria re�exiva, simétrica y transitiva (es decir,es una relación de equivalencia en el sentido general).

Teorema 1.1.11 Si dos sistemas de ecuaciones son equivalentes, entoncestienen exactamente las mismas soluciones. En otras palabras, si S y S ′ sonequivalentes,

(α1, ..., αn) es solucion de S ⇔ (α1, ..., αn) es solucion de S ′.

Demostración Para demostrar el teorema, es su�ciente con estudiar elcaso en el que un sistema se obtiene a partir de otro mediante la aplicaciónde una única transformación elemental por �las. Supongamos que el sistemaconsiderado es

S ≡

α11x1 + ... + α1nxn = β1

α21x1 + ... + α2nxn = β2...

αm1x1 + ... + αmnxn = βm

Page 20: Libro Completo Algebra

20 Álgebra

Es obvio que el intercambio de lugar entre dos ecuaciones del sistema noaltera el conjunto solución del mismo. Por consiguiente la aplicación de unatransformación del tipo Fi ↔ Fj no altera el conjunto solución. Además,teniendo esto presente, podemos restringir el estudio al caso en el que lastransformaciones elementales se aplican únicamente sobre la primera y lasegunda ecuación, dejando el resto inalteradas. Sea λ 6= 0, y supongamosque

S ′ ≡

λα11x1 + ... + λα1nxn = λβ1

α21x1 + ... + α2nxn = β2...

αm1x1 + ... + αmnxn = βm

Veamos que (s1, ..., sn) solucion de S ⇒ (s1, ..., sn) solucion de S ′.Si (s1, ..., sn) es solución de S, tendremos que

α11s1 + ... + α1nsn = β1

α21s1 + ... + α2nsn = β2...

αm1s1 + ... + αmnsn = βm

con lo que, multiplicando ambos miembros de la primera igualdad por λ,obtenemos que

λα11s1 + ... + λα1nsn = λβ1

α21s1 + ... + α2nsn = β2...

αm1s1 + ... + αmnsn = βm

es decir, que (s1, ..., sn) es solución de S ′.Veamos ahora el recíproco, i.e., que(s1, ..., sn) solucion de S ′ ⇒ (s1, ..., sn) solucion de S.

Si (s1, ..., sn) es solución de S ′, tendremos que

λα11s1 + ... + λα1nsn = λβ1

α21s1 + ... + α2nsn = β2...

αm1s1 + ... + αmnsn = βm

Page 21: Libro Completo Algebra

Álgebra 21

con lo que, multiplicando ambos miembros de la primera igualdad por 1λ,

obtenemos que

α11s1 + ... + α1nsn = β1

α21s1 + ... + α2nsn = β2...

αm1s1 + ... + αmnsn = βm

es decir, que (s1, ..., sn) es solución de S.Supongamos ahora que

S ′ ≡

α11x1 + ... + α1nxn = β1

(α21 + µα11)x1 + ... + (α2n + µα1n)xn = (β2 + µβ1)...

αm1x1 + ... + αmnxn = βm

Veamos que (s1, ..., sn) solucion de S ⇒ (s1, ..., sn) solucion de S ′.Si (s1, ..., sn) es solución de S, tendremos que

α11s1 + ... + α1nsn = β1

α21s1 + ... + α2nsn = β2...

αm1s1 + ... + αmnsn = βm

con lo que, multiplicando los dos miembros de la primera ecuación por µ, ysumando miembro a miembro la primera ecuación a la segunda obtendremos

α11s1 + ... + α1nsn = β1

(α21 + µα11)s1 + ... + (α2n + µα1n)sn = (β2 + µβ1)...

αm1s1 + ... + αmnsn = βm

Recíprocamente, veamos que (s1, ..., sn) solucion de S ′ ⇒ (s1, ..., sn) solucionde S.

Si (s1, ..., sn) es solución de S ′, tendremos que

α11s1 + ... + α1nsn = β1

(α21 + µα11)s1 + ... + (α2n + µα1n)sn = (β2 + µβ1)...

αm1s1 + ... + αmnsn = βm

Page 22: Libro Completo Algebra

22 Álgebra

Multiplicando la primera igualdad por µ y restándosela a la segunda obtene-mos que

α11s1 + ... + α1nsn = β1

α21s1 + ... + α2nsn = β2...

αm1s1 + ... + αmnsn = βm

con lo que (s1, ..., sn) es solución de S. Esto completa la demostración delteorema. 2

1.1.5 Estrategia para la aplicación del métodode eliminación gaussiana

1. Reordenar las ecuaciones para que en la primera ecuación la primeravariable x1 tenga un coe�ciente no nulo, y multiplicar ambos miembros dedicha ecuación para que el coe�ciente de dicha variable sea 1.

2. Restar la primera ecuación multiplicada por un escalar adecuado a lasdemás ecuaciones con el objeto de que la primera variable aparezca solamenteen la primera ecuación.

3. En el caso de que sea posible, reordenar las ecuaciones de la segundaen adelante con el objeto de que la segunda variable x2 aparezca con uncoe�ciente no nulo y multiplicar ambos miembros de dicha ecuación paraque el coe�ciente de dicha variable sea 1. Si la variable x2 no aparece másque en la primera ecuación, hacer la operación anterior con la variable x3 ocon la primera variable que aparezca con un coe�ciente no nulo en alguna delas ecuaciones restantes (todas salvo la primera).

4. Restar la segunda ecuación multiplicada por un escalar adecuado a lasecuaciones situadas bajo la misma con el objeto de que la segunda variable(o la que corresponda) no aparezca en ninguna ecuación situada por debajode la segunda.

5. Operando análogamente con el resto de las ecuaciones, el sistema asíobtenido será un sistema escalonado, es decir, un sistema que se ajusta a lasiguiente de�nición.

De�nición 1.1.12 Se dice que un sistema de ecuaciones es escalonado si

Page 23: Libro Completo Algebra

Álgebra 23

(E.1)La primera variable de cada ecuación tiene 1 comocoe�ciente (a esta variable la denominaremos variableprincipal de dicha ecuación).

(E.2)La variable principal de cualquier ecuación siempreaparece situada a la derecha de las variablesprincipales de las ecuaciones previas, y todas las ecuacionessin variable principal aparecen colocadas al �nal.

La última frase de (E.2) puede parecer algo misteriosa. Sin embargo,al llevar a cabo la estrategia anterior sobre un sistema concreto, podríamosobtener una ecuación de la forma

0x1 + ... + 0xn = k

con k = 0 o k 6= 0 (en este último caso el sistema es incompatible). Este tipode ecuaciones deberán aparecer siempre en las últimas �las del sistema.

Ejemplo 1.1.13 Los siguientes sistemas de ecuaciones son escalonados:

x1 + x2 + 3x3 = 9x2 + 6x3 = 24

x3 = −4

{x1 + x2 + x3 − 5x4 = 4

x3 − 2x4 = 6.

Las matrices ampliadas asociadas a estos sistemas son

1 1 3 90 1 6 240 0 1 −4

y (1 1 1 −5 40 0 1 −2 6

)

El conjunto de soluciones de un sistema escalonado es razonablementesencillo de obtener. Un sistema de ecuaciones escalonado será compatible entodos los casos en los que no aparezca una ecuación de la forma

0x1 + ... + 0xn = k, con k 6= 0.

Page 24: Libro Completo Algebra

24 Álgebra

Suponiendo que el sistema es compatible, a cualquier variable que no seala variable principal de una ecuación la denominaremos variable libre. Siuna variable es variable principal de un sistema de ecuaciones escalonado,diremos que dicha variable no es libre (o también que está determinada).El siguiente proceso, conocido como sustitución hacia atrás o remonte,obtiene todas las soluciones del sistema asignando parámetros a las variableslibres.

Sustitución hacia atrás en el método de eliminación gaussianaSuponiendo que no aparece ninguna ecuación de la forma

0x1 + ... + 0xn = k

con k 6= 0 en el sistema escalonado obtenido, comenzamos con la últimaecuación del sistema asignado un parámetro diferente a cada variable librey expresando la variable determinada por la última ecuación en términosde estos parámetros. Después, operaremos análogamente con la penúltimaecuación, asignando diferentes parámetros a cada una de las nuevas variableslibres, y obteniendo el valor de la variable determinada por la penúltimaecuación. Realizando las mismas operaciones con el resto de las ecuacioneshasta llegar a la primera, al �nal del proceso todas las variables libres tendránasignado un parámetro diferente, y todas las variables determinadas estaránexpresadas en términos de estos parámetros.

Ejercicio 1.1.6 Resolver los siguientes sistemas de ecuaciones lineales porel método de eliminación gaussiana.:

2x1 + x2 + 3x3 = 95x1 + 4x2 + 6x3 = 24x1 + 3x2 − 2x3 = 4

{3x1 + x2 + x3 − 5x4 = 45x1 + 2x2 + 4x3 − 2x4 = 6

1.1.6 Método de Gauss-JordanEl método de Gauss-Jordan es una extensión del método de eliminación gaus-siana, que consiste en eliminar la variable principal de la ecuación correspon-diente no solamente en las ecuaciones que aparecen situadas por debajo de

Page 25: Libro Completo Algebra

Álgebra 25

la misma, sino en todas las ecuaciones del sistema. Por ello, la estrategia esla misma que la del método de eliminación de Gauss, con la adición de lassiguientes instrucciones en el lugar correspondiente:

4. Sustraer además la segunda ecuación multiplicada por un escalar ade-cuado de la primera ecuación, con el objeto de eliminar la segunda variablede la primera ecuación.

5. En cada paso sustraer la ecuación correspondiente multiplicada porun escalar adecuado tanto de las ecuaciones situadas por debajo de la mismacomo de las situadas por encima, con el objeto de que la variable principalde cada ecuación aparezca únicamente en la ecuación de la que es variableprincipal.

Los sistemas de ecuaciones que resultan de la aplicación del método deGauss-Jordan se dice que tienen forma escalonada reducida, es decir:De�nición 1.1.14 Se dice que un sistema de ecuaciones está en forma es-calonada reducida si

(E.R.1)La primera variable de cada ecuación tiene 1 comocoe�ciente (a esta variable la denominaremos variableprincipal de dicha ecuación).

(E.R.2)La variable principal de cualquier ecuación siempreaparece situada a la derecha de las variablesprincipales de las ecuaciones previas, y todas las ecuacionessin variable principal aparecen colocadas al �nal.

(E.R.3) La variable principal de cada ecuación aparece solamenteen la ecuación de la que es variable principal.

Ejemplo 1.1.15 Vamos a resolver el siguiente sistema de ecuaciones por elmétodo de Gauss Jordan, es decir, obteniendo una forma escalonada reducidade dicho sistema

x1 − 4x2 + x3 = 2−x1 + 3x2 − x3 = 1

x1 + 2x3 = 3

Para ello, trabajamos directamente sobre la matriz ampliada asociada alsistema, teniendo presente en todo momento qué es lo que representan loscoe�cientes de dicha matriz:

1 −4 1 2−1 3 −1 11 0 2 3

F2 = F2 + F1

F3 = F3 − F1→

Page 26: Libro Completo Algebra

26 Álgebra

1 −4 1 20 −1 0 30 4 1 1

F2 = (−1)F2

F1 = F1 + 4F2

F3 = F3 − 4F2

1 0 1 −100 1 0 −30 0 1 13

F1 = F1 − F3 →

1 0 0 −230 1 0 −30 0 1 13

.

La última matriz ampliada representa el sistema en forma escalonadareducida. El sistema es, por tanto, compatible determinado y su solución es(−23,−3, 13).

Ejercicio 1.1.7 Resolver los siguientes sistemas de ecuaciones lineales porel método de Gauss-Jordan:

x1 − x2 − x3 + x4 = 5x2 − x3 + 2x4 = 8

2x1 − x2 − 3x3 + 4x4 = 18

x1 + 5x2 − 2x3 = 0x1 − 3x2 + x3 = 0x1 + 5x2 − x3 = 0

1.2 Matrices y operaciones con matricesAl realizar una primera lectura de los epígrafes siguientes, hasta completar latotalidad del capítulo, se puede pensar que K = R ó C aunque los resultadosobtenidos serán válidos para cualquier cuerpo K.

Como hemos visto en la sección anterior, las matrices permiten represen-tar sistemas de ecuaciones lineales. Veamos una de�nición precisa de lo quees una matriz:

De�nición 1.2.1 Una matriz de orden m×n con coe�cientes en un cuerpoK (por ejemplo K = R ó C) es una función:

A : {1, ..., m} × {1, ..., n} −→ K(i, j) ; A(i, j)

Se dice entonces que A es una matriz con m ��las� y n �columnas�. Esusual representar el coe�ciente A(i, j) de la matriz A por su correspondiente

Page 27: Libro Completo Algebra

Álgebra 27

minúscula con dos subíndices, en este caso aij , y a la matriz completa A poruna �tabla� en la que en la �la `“i” y en la columna “j” aparece el elementoaij:

A =

a11 · · · a1n

... aij...

am1 · · · anm

.

Así por ejemplo, la matriz A de dos �las y dos columnas determinada por

A(1, 1) = 0, A(1, 2) = 1, A(2, 1) = −1, A(2, 2) = 4

se representará por(

0 1−1 4

).

Al conjunto de matrices de m �las y n columnas con coe�cientes en K lodenotaremos por Mm×n(K).

Es obvio que de la de�nición anterior se sigue que dos matrices A,B soniguales si son iguales como funciones, es decir, si son del mismo orden (i.e.,si tienen el mismo número de �las y de columnas, o lo que es lo mismo A,B ∈Mm×n(K) para algún m y n) y ∀(i, j) ∈ {1, ..., m}×{1, ..., n} A(i, j) = B(i, j).

Ejemplo 1.2.2 Veamos algunos ejemplos de matrices de�nidas con notaciónfuncional:

1. A ∈ M3×3(K) de�nida por (A(i, i) = 1,∀i = 1, 2, 3) ∧ (A(i, j) =0,∀i, j ∈ {1, 2, 3}, i 6= j) es la matriz:

1 0 00 1 00 0 1

2. Podemos utilizar también congruencias módulo un número entero so-bre i y j para de�nir la matriz; por ejemplo B ∈ M3×3(R) dada por(A(i, j) = 1 ⇔ i + j ≡ 1 mod 2) ∧ (A(i, j) = 0 ⇔ i + j ≡ 0 mod 2)se representa por

0 1 01 0 10 1 0

Page 28: Libro Completo Algebra

28 Álgebra

3. Otro ejemplo es la matriz C ∈ M3×3(R) dada por (A(i, j) = 2i−13j−1),que es

1 3 92 6 184 12 36

Recordemos ahora algunas de�niciones y veamos otras nuevas:

• Si A ∈ Mm×n(K) se dice que A es una matriz de orden m×n. Si m = n,en lugar de escribir Mn×n(K), escribiremos Mn(K), y si A ∈ Mn(K)diremos que A es una matriz cuadrada de orden n.

• Si A ∈ Mm×n(K), utilizaremos indistintamente la notación usual aij ola funcional A(i, j) para referirnos al elemento de la matriz A situadoen la �la i− esima y en la columna j− esima. Por ello escribiremos enocasiones A = (aij) ∈ Mm×n(K) para referirnos a una matriz genéricade orden m× n. (Obsérvese que a es la minúscula de A).

• Si A ∈ Mm×1(K) se dice que A es una matriz columna (de m �las).

• Si A ∈ M1×n(K) se dice que A es una matriz �la (de n columnas).

• Si A ∈ Mm×n(K), ∀i ∈ {1, ..., m} llamaremos �la i-ésima de A a lamatriz �la de n columnas

Ai = (ai1 ... ain).

Análogamente, llamaremos columna j-ésima de A a la matriz columnade m �las

Aj =

a1j...

amj

.

• Una matriz de particular interés es la matriz identidad a la quedenotaremos por In (hay una para cada valor natural de n). Así porejemplo,

I2 =

(1 00 1

), I3 =

1 0 00 1 00 0 1

e I4 =

1 0 0 00 1 0 00 0 1 00 0 0 1

.

Page 29: Libro Completo Algebra

Álgebra 29

En general la matriz In = (aij) ∈ Mn(K) se de�ne por la condición∀i, j ∈ {1, ...n}, aii = 1 ∧ (i 6= j ⇒ aij = 0). Utilizando la notaciónfuncional, In ∈ Mn(K) quedaría determinada por las condiciones:(∀i ∈ {1, ..., n} In(i, i) = 1) ∧ (∀i, j ∈ {1, ..., n} (i 6= j ⇒ In(i, j) = 0)).

• Si A ∈ Mm×n(K) se denomina matriz traspuesta de A a la matriztA ∈ Mn×m(K) tal que ∀(i, j) ∈ {1, ..., n} × {1, ..., m}

tA(i, j) = A(j, i)

(empleando la notación no funcional, si tA = (bij), entonces

∀(i, j) ∈ {1, ..., n} × {1, ..., m} bij = aji).

Así por ejemplo, si

A =

1 22 03 −1

∈ M3×2(R),

su traspuesta es

tA =

(1 2 32 0 −1

)∈ M2×3(R).

Un método sistemático para obtener la matriz traspuesta de una matrizdada consiste en ir leyendo los coe�cientes por �las para sistemática-mente escribirlos por columnas.

1.2.1 Suma de matricesLa de�nición de suma de matrices es muy natural:

De�nición 1.2.3 Si A,B ∈ Mm×n(K), la suma de A y B es la matrizA + B ∈ Mm×n(K) de�nida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (A + B)(i, j) = A(i, j) + B(i, j)

Ejemplo 1.2.4

1 −13 01 2

+

1 32 00 −2

=

2 25 01 0

Page 30: Libro Completo Algebra

30 Álgebra

Observación 6 De la de�nición anterior se sigue que para que dos matricesse puedan sumar deben ser del mismo orden.

Se denomina matriz nula de orden m × n a la matriz (0) ∈ Mm×n(K)de�nida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (0)(i, j) = 0

Así por ejemplo,

(0) ∈ M2×3(C) es la matriz(

0 0 00 0 0

).

Observación 7 En lo sucesivo también escribiremos (0) ∈ Mm×n(K) pararepresentar a la matriz nula de orden m× n.

De�nición 1.2.5 Si A ∈ Mm×n(K) se denomina matriz opuesta de A a lamatriz (−A) ∈ Mm×n(K) de�nida por las condiciones

∀(i, j) ∈ {1, ..., m} × {1, ..., n} (−A)(i, j) = −A(i, j) ∈ K

Así por ejemplo,

1 −13 01 2

=

−1 1−3 0−1 −2

y

−(

2 −1 01 1 3

)=

( −2 1 0−1 −1 −3

).

Proposición 1.2.6 Si A,B, C ∈ Mm×n(K), se veri�ca que:

1. A + B = B + A (propiedad conmutativa de la suma de matrices)2. A + (B + C) = (A + B) + C (propiedad asociativa)3. A + (0) = A, (0) + A = A ((0) es el elemento neutro para +)4. A + (−A) = (0), (−A) + A = (0) ((−A) es la opuesta de A)

Page 31: Libro Completo Algebra

Álgebra 31

Demostración Se trata de comprobar, en cada caso, que las matrices si-tuadas a ambos lados de la igualdad son efectivamente iguales. Demostrare-mos la primera propiedad y el resto se propone como ejercicio.

Hay que comprobar que∀(i, j) ∈ {1, ...,m} × {1, ..., n} (A + B)(i, j) = (B + A)(i, j)

Sea (i, j) ∈ {1, ..., m} × {1, ..., n}. (A + B)(i, j)= (por de�nición)==A(i, j) + B(i, j)=(puesto que la suma de números reales o complejos y,

en general, de los elementos de un cuerpo, satisface la propiedad conmutati-va) =B(i, j) + A(i, j)= (por de�nición) =(B + A)(i, j). 2

Por satisfacer las 4 propiedades de la proposición anterior se dice que lasmatrices de orden m × n con coe�cientes en K tienen estructura de grupoabeliano respecto de la suma. De la matriz (0) se dice que es el elementoneutro del grupo abeliano, y de la matriz (−A) se dice que es la matrizopuesta de A.

1.2.2 Producto de matricesEn capítulos venideros veremos que la siguiente de�nición del producto dematrices permitirá representar la actuación de una función lineal sobre unelemento como un producto de matrices, hecho que a su vez tendrá comoconsecuencia el que la composición de funciones lineales se exprese como unproducto de matrices.

Si consideramos una ecuación lineal, por ejemplo2x1 + x2 + 6x3 = 3,

es posible considerar la parte izquierda de la igualdad como �el producto� dela matriz de coe�cientes

(2 1 6)

por la matriz de incógnitas

x1

x2

x3

y escribir

(2 1 6) ·

x1

x2

x3

= (3)

Page 32: Libro Completo Algebra

32 Álgebra

Si la ecuación anterior forma parte de un sistema, por ejemplo del sistema

2x1 + x2 + 6x3 = 35x1 + 4x2 + 6x3 = 24x1 + 3x2 − 2x3 = 4

teniendo en cuenta que de la de�nición de matriz se sigue que dos matricesson iguales si tienen el mismo número de �las y de columnas y los mismoscoe�cientes en cada �la y columna, resulta que, utilizando la de�nición deproducto de matrices anterior, podemos representar el sistema de ecuacionesmediante un producto de matrices, esto es:

2 1 65 4 61 3 −2

·

x1

x2

x3

=

3244

.

En general, el sistema de ecuaciones

a11x1 + ... + a1nxn = b1...

am1x1 + ... + amnxn = bm

puede representarse mediante el producto de�nido por la expresión:

A ·

x1...

xn

=

b1...

bm

.

Claro está que podemos considerar sistemas de ecuaciones con la mismamatriz de coe�cientes y distinto término independiente. Por ejemplo:

2x1 + x2 + 6x3 = 35x1 + 4x2 + 6x3 = 24x1 + 3x2 − 2x3 = 4

y

2x1 + x2 + 6x3 = 15x1 + 4x2 + 6x3 = 1x1 + 3x2 − 2x3 = 1

.

En ese caso, teniendo en cuenta, por una parte, que las soluciones de unono tienen porqué coincidir con las del otro, por lo que denotamos por y1, y2

e y3 a las incógnitas del segundo sistema, y por otra, cuando dos matri-ces son iguales, podemos representarlos matricialmente de forma simultánea,mediante la expresión:

2 1 65 4 61 3 −2

·

x1 y1

x2 y2

x3 y3

=

3 124 14 1

.

Page 33: Libro Completo Algebra

Álgebra 33

Esto nos lleva a la de�nición de producto de dos matrices. Como observa-ción previa a la de�nición, nótese que en los ejemplos anteriores, para podermultiplicar la matriz de coe�cientes por la de incógnitas, era preciso queel número de �las de la matriz de coe�cientes coincidiese con el número decolumnas de la matriz de incógnitas.

De�nición 1.2.7 Dadas las matrices A ∈ Mm×n(K) y B ∈ Mn×p(K) sedenomina matriz producto de A y B, y se denota por A ·B a la matriz

A ·B ∈ Mm×p(K) tal que

∀(i, j) ∈ {1, ..., m} × {1, ..., p} A ·B(i, j) =n∑

k=1

A(i, k) ·B(k, j)

Ejemplo 1.2.8 Dadas las matrices

1 2 01 2 −11 1 00 4 3

∈ M4×3(R) y

1 −13 01 2

M3×2(R), su producto es la matriz

1 2 01 2 −11 1 00 4 3

·

1 −13 01 2

=

7 −16 −34 −115 6

∈ M4×2(R)

1.2.3 Propiedades del producto de matricesEl producto de matrices no es conmutativo, pues por ejemplo

(1 11 1

)·(

1 −11 −1

)=

(2 −22 −2

)

y sin embargo (1 −11 −1

)·(

1 11 1

)=

(0 00 0

).

Proposición 1.2.9 El producto de matrices satisface las siguientes propie-dades:

Page 34: Libro Completo Algebra

34 Álgebra

1. Es asociativo: ∀A ∈ Mm×n(K), B ∈ Mn×p(K) y C ∈ Mp×q(K),

(A ·B) · C = A · (B · C)

(y por tanto podemos omitir los paréntesis para denotar cualquiera deestos productos y escribir A ·B · C).

2. Es distributivo respecto de la suma:

∀A ∈ Mm×n(K),∀B,C ∈ Mn×p(K) A · (B + C) = A ·B + A · C

∀A ∈ Mm×n(K),∀B,C ∈ Mp×n(K) (B + C) · A = B · A + C · A

3.

∀A ∈ Mm×n(K), A · (0) = A y (0) · A = (0)

Demostración Antes de dar la demostración debemos señalar que es usualemplear el símbolo sumatorio

n∑i=1

ai en lugar de la expresión a1 + ... + an, loque tiene sentido puesto que la suma considerada es asociativa.

1. Sean A ∈ Mm×n(K) ,B ∈ Mn×p(K) y C ∈ Mp×q(K). Las dos matricesA·(B ·C) y (A·B)·C tienen el mismo orden, ya que ambas pertenecen aMm×q(K). Veamos que ∀(i, j) ∈ {1, ..., m}×{1, ..., q} (A·(B ·C))(i, j) =((A ·B) · C)(i, j) :

Page 35: Libro Completo Algebra

Álgebra 35

(A · (B · C))(i, j) =n∑

k=1

A(i, k) · (B · C) (k, j) =

=n∑

k=1

A(i, k) ·(

p∑s=1

B(k, s) · C(s, j)

)=

(prop. distributiva en K) =n∑

k=1

(p∑

s=1

A(i, k) · (B(k, s) · C(s, j))

)=

(prop. asociativa en K) =n∑

k=1

(p∑

s=1

(A(i, k) ·B(k, s)) · C(s, j)

)=

(prop. distributiva en K) =

p∑s=1

(n∑

k=1

A(i, k) ·B(k, s)

)· C(s, j) =

=

p∑s=1

(A ·B) (i, s) · C(s, j) =

= ((A ·B) · C)(i, j)

2. Se demuestra razonando de forma similar al apartado anterior.

3. Ejercicio. 2

Observación 8 Demostraciones como la anterior se incluyen para quepuedan ser consultadas por los alumnos interesados. En cualquier caso, esconveniente conocer algunos hechos relativos a la notación, y a los resultadosderivados del uso de la misma. Por ejemplo, en la proposición anterior hemosutilizado la igualdad

n∑

k=1

(p∑

s=1

A(i, k) ·B(k, s) · C(s, j)

)=

p∑s=1

(n∑

k=1

A(i, k) ·B(k, s)

)· C(s, j)

que �intuitivamente� es evidente, puesto que tanto el producto de númerosreales como el de números complejos es conmutativo y distributivo respectode la suma. La demostración de que esta igualdad es válida es consecuenciade las siguientes propiedades relacionadas con el símbolo sumatorio, cuyademostración también se puede hacer por inducción:

Page 36: Libro Completo Algebra

36 Álgebra

• Si {ai}i∈{1,...,n} y {bj}j∈{1,...,p} son dos familias de números reales o com-plejos, se veri�ca que ∀n ∈ N, ∀p ∈ N,

n∑i=1

(p∑

j=1

ai · bj

)=

n∑i=1

(ai ·

(p∑

j=1

bj

))

Es decir, quen∑

i=1

(aib1 + · · ·+ aibp) =

= (a1b1 + · · ·+ a1bp) + · · ·+ (anb1 + · · ·+ anbp) =

= a1 (b1 + · · ·+ bp) + · · ·+ an (b1 + · · ·+ bp) .

Para demostrar la identidad anterior, razonamos por inducción sobre“n”.

Base de inducción: hay que probar que si n = 1,

∀p ∈ N1∑

i=1

(p∑

j=1

ai · bj

)=

1∑i=1

(ai ·

(p∑

j=1

bj

))

o lo que es lo mismo, que

∀p ∈ N(

p∑j=1

a1 · bj

)= a1 ·

(p∑

j=1

bj

).

Esta propiedad se demuestra razonando por inducción sobre “p” : si

p = 1 es obvio que(

p∑j=1

a1 · bj

)= a1 · b1 = a1 ·

(1∑

j=1

bj

). Suponiendo

entonces cierto que(

p∑j=1

a1 · bj

)= a1 ·

(p∑

j=1

bj

), resulta que

(p+1∑j=1

a1 · bj

)=

(p∑

j=1

a1 · bj

)+ a1 · bp+1 =

= (por hipotesis de induccion) =

= a1 ·(

p∑j=1

bj

)+ a1 · bp+1 =

= a1 ·(

p+1∑j=1

bj

).

Page 37: Libro Completo Algebra

Álgebra 37

La demostración del paso de inducción sobre “n” se propone comoejercicio para todo aquel alumno interesado en hacerla.

• Si {aik}(i,k)∈{1,...,n}×{1,...,p} es una familia de números reales o complejos,

se veri�ca quen∑

i=1

(p∑

k=1

aik

)=

p∑k=1

(n∑

i=1

aik

)o, lo que es lo mismo,

(a11 + · · ·+ a1p) + · · ·+ (an1 + · · ·+ anp) =

(a11 + · · ·+ a1n) + · · ·+ (a1p + · · ·+ anp) .

La demostración es similar a la del punto anterior.

Ejercicio 1.2.1 Demostrar que la trasposición de matrices satisface las si-guientes propiedades:

1. ∀A ∈ Mm×n(K) t(tA) = A

2. ∀A,B ∈ Mm×n(K) t(A + B) =t A +t B

3. ∀A ∈ Mm×n(K),∀B ∈ Mn×p(K), t(A ·B) =t B ·t A

Ejercicio 1.2.2 Demostrar que ∀A ∈ Mm×n(K) y ∀B ∈ Mn×m(K)

A · In = A ∧ In ·B = B

(es decir, In deja invariante por el producto a cualquier matriz por la que sepueda multiplicar, sea o no cuadrada).

1.2.4 El producto de una matriz por un escalarDe�nición 1.2.10 Si α ∈ K y A ∈ Mm×n(K) se de�ne la matriz αA por lassiguientes condiciones

∀(i, j) ∈ {1, ...,m} × {1, ..., n} (αA)(i, j) = αA(i, j)

Ejemplo 1.2.11 (−3)

1 22 03 −1

=

−3 −6−6 0−9 3

Page 38: Libro Completo Algebra

38 Álgebra

Ejemplo 1.2.12 Siendo α ∈ K

(αIn) =

α 0 0 · · · 00 α 0 · · · 00 0 α · · · 0... ... ... . . . ...0 0 0 · · · α

∈ Mn(K)

Proposición 1.2.13 ∀α, β ∈ K ∀A ∈ Mm×n(K) se veri�ca que

1.∀B ∈ Mn×p(K) A · (αB) = (αA) ·B = α(A ·B)2.∀B ∈ Mm×n(K) α(A + B) = αA + αB3. (−α)(A) = (α)(−A) = −(αA)4. (α + β)A = αA + βA5. (αβ)A = α(βA)

Demostración Ejercicio. 2

Teorema 1.2.14 Todo sistema de ecuaciones lineales con coe�cientes realeso complejos o bien no tiene soluciones, o bien tiene exactamente una solucióno bien tiene una in�nidad de soluciones.

Demostración Necesitamos comprobar que si un sistema tiene más queuna solución, entonces tiene in�nitas soluciones. Sea AX = B el sistemadado y s1, s2 dos soluciones distintas (s1 6= s2). Entonces,

As1 = B = As2 y As1 − As2 = A(s1 − s2) = (0).

Se sigue que s1 − s2 es solución del sistema homogéneo AX = 0 y que paratodo λ ∈ K, s3 ≡ s1 + λ(s1 − s2) es solución de AX = B :

As3 = A(s1 + λ(s1 − s2)) = As1 + A(λ(s1 − s2)) =

= As1 + λA(s1 − s2) = As1 = B.

Hemos hallado tantas soluciones como elementos en K. Como K es, por hi-pótesis, R o C (que son in�nitos), obtenemos in�nitas soluciones. 2

Page 39: Libro Completo Algebra

Álgebra 39

1.2.5 El anillo de matrices cuadradas Mn(K)

Según hemos visto, el conjunto Mm×n(K) de las matrices de m �las y ncolumnas sobre un cuerpo K tiene estructura de grupo abeliano respecto dela suma habitual de matrices.

En este apartado vamos a estudiar la estructura algebraica que tiene elconjunto de las matrices cuadradas, Mn×n(K), respecto de las operacionesde suma y producto, ya que el producto de matrices es una operación enMn×n(K) (el producto de dos matrices cuadradas de dimensión n es unamatriz cuadrada de dimensión n).

Propiedades del producto en Mn(K)

Proposición 1.2.15 Si A,B, C ∈ Mn(K), se veri�ca que:

1. A · (B · C) = (A ·B) · C (propiedad asociativa del producto de matrices)2. A · (B + C) = A ·B + A · C (propiedad distributiva de + respecto de ·)3. A · In = A, In · A = A (la matriz In es elemento neutro para ·).

Demostración La demostración de las propiedades 1 y 2 se ha hecho en uncaso más general. La demostración de la propiedad 3 se deja como ejercicio(se trata de ver que las matrices A · In y A son iguales y lo mismo con la otraigualdad). 2

Observación 9 Por tener Mn(K) estructura de grupo conmutativo respectode la suma de matrices y satisfacer las propiedades de la proposición ante-rior se dice que el conjunto de matrices cuadradas de orden n, Mn(K), tieneestructura de anillo unitario respecto de la suma y producto de matrices ha-bituales y elemento unidad la matriz In.

La operación de producto en Mn(K) permite de�nir potencias enteras nonegativas de una matriz cuadrada:

De�nición 1.2.16 Si A es una matriz cuadrada, A ∈ Mn(K), se de�ne∀m ∈ N

Am = (Am−1) · Adonde, por convenio de notación, se asume que A0 = In.

Page 40: Libro Completo Algebra

40 Álgebra

Observación 10 No es difícil comprobar que ∀m, r ∈ N ∀A ∈ Mn(K) sesatisfacen las siguientes propiedades:

1. Am+r = Am · Ar

2. (Am)r = Amr

Observación 11 Nótese que como consecuencia de la no conmutatividad delproducto de matrices, si A,B ∈ Mn(K) en general tendremos que

(A + B)2 = A2 + B2 + A ·B + B · A 6= A2 + B2 + 2A ·BSin embargo, si A y B conmutan para el producto, es decir, si A·B = B·A,

entonces es obvio que (A + B)2 = A2 +B2 +2A ·B y, en general, asumiendopor convenio de notación que A0 = B0 = In , se veri�ca que ∀m ∈ N

(A + B)m =

(m0

)Am ·B0 +

(m1

)Am−1 ·B + ... +

(mm

)A0 ·Bm.

Teniendo ahora en cuenta que, siendo α ∈ K

(αIn) =

α 0 0 · · · 00 α 0 · · · 00 0 α · · · 0... ... ... . . . ...0 0 0 · · · α

∈ Mn(K)

y que toda matriz conmuta con la identidad, podemos obtener la siguientefórmula, válida ∀A ∈ Mn(K), ∀m ∈ N :

(A + αIn)m =

(m0

)Am +

(m1

)(αIn) Am−1 + ... +

(mm

)(αIn)m

1.2.6 Matrices invertiblesDe�nición 1.2.17 Se dice que A ∈ Mn(K) es invertible si ∃B ∈ Mn(K) talque

A ·B = In ∧ B · A = In.

Obviamente, si B y B′ satisfacen las condiciones de la de�nición anterior,es decir, si

A ·B = In ∧ B · A = In

Page 41: Libro Completo Algebra

Álgebra 41

yA ·B′ = In ∧ B′ · A = In

resulta que

B = B · In = B · (A ·B′) = (B · A) ·B′ = In ·B′ = B′

por lo que dada A ∈ Mn(K) a lo sumo hay una matriz B que satisface lascondiciones de la de�nición anterior.

De�nición 1.2.18 Si A ∈ Mn(K) es invertible, y

A ·B = In ∧ B · A = In.

se dice que B es la matriz inversa de A y a dicha matriz la denotaremospor A−1.

Observación 12 En la de�nición de matriz invertible, imponemos que elproducto de A por un cierta matriz B, por ambos lados, sea el elemento neu-tro. Hemos de hacerlo así porque el producto de matrices no es conmutativo.Sin embargo, veremos en el teorema 1.2.22 que es su�ciente comprobarlo poruno sólo de los dos lados.

Ejemplo 1.2.19 La matriz inversa de la matriz A =

(2 1/22 1

)es la ma-

triz A−1 =

(1 −1/2−2 2

).

Proposición 1.2.20 Sean A,B,A1, · · · , Ap ∈ Mn(K). Se veri�ca que :

1. si A,B ∈ Mn(K) son invertibles, entonces A ·B es invertible y

(A ·B)−1 = B−1 · A−1,

2. si A1, · · · , Ap son invertibles, entonces el producto A1 · A2 · · · · Ap esinvertible y (A1 · A2 · · · · Ap)

−1 = Ap−1 · · ·A2

−1A1−1,

3. si A ∈ Mn(K) es invertible, entonces (−A) ∈ Mn(K) es invertible y(−A)−1 = −(A−1),

Page 42: Libro Completo Algebra

42 Álgebra

4. si A ∈ Mn(K) es invertible, entoncest(A) ∈ Mn(K)

es invertible y t (A−1) = (tA)−1

.

Corolario 1.2.21 Si A ∈ Mn(K) es una matriz invertible, se veri�ca que1. A−1 es invertible y (A−1)

−1= A

2. ∀m ∈ N Am es invertible y (Am)−1 = (A−1)m

3. ∀α ∈ K, α 6= 0 se veri�ca que αA es invertible, y (αA)−1 = α−1A−1

El siguiente teorema a�rma que si una matriz cuadrada tiene una matrizinversa �a la derecha� o �a la izquierda�, entonces es invertible:Teorema 1.2.22 Si A,B ∈ Mn(K) se veri�ca que:

1. A ·B = In ⇒ B = A−1.2. B · A = In ⇒ B = A−1.

Demostración Probemos 2: suponemos que B ·A = In, y debemos probarque A ·B = In.

Si B ·A = In, todo sistema que tenga como matriz asociada A tiene unaúnica solución: dado un sistema A ·X = C, donde C es una matriz columna,multiplicando a ambos lados de la igualdad por B se obtiene:

B · (A ·X) = B · CPor la asociatividad del producto de matrices

(B · A) ·X = B · CY usando nuestra hipótesis inicial

X = In ·X = B · CEs decir, que si X veri�ca la ecuación A ·X = C, necesariamente X = B ·C.

En concreto, denotando con Ijn la columna j-ésima de In, el sistema A ·

X = Ijn tiene una única solución B · Ij

n, que es la columna j-esima de B,que denotamos Bj, para cada j ∈ {1, . . . , n}. Es decir, hemos obtenido queA·Bj = Ij

n para cada j ∈ {1, . . . , n}. Entonces también A·B = In y podemosescribir B = A−1.

Para probar 1 suponemos que A · B = In. Aplicamos 2 a la matriz B yobtenemos que B · A = In. 2

Page 43: Libro Completo Algebra

Álgebra 43

1.2.7 Matrices elementales y un método para hallar A−1

De�nición 1.2.23 Se dice que una matriz A ∈ Mn(K) es una matriz ele-mental si es el resultado de realizar una única transformación elemental por�las sobre la matriz In.

Ejemplo 1.2.24(

1 00 −2

)es una matriz elemental, pues

(1 00 1

)F2 = (−2)F2

−→(

1 00 −2

)

Igualmente

1 0 0 00 0 0 10 0 1 00 1 0 0

y

1 0 50 1 00 0 1

son matrices elementales, pues

1 0 0 00 1 0 00 0 1 00 0 0 1

F2 ↔ F4

−→

1 0 0 00 0 0 10 0 1 00 1 0 0

1 0 00 1 00 0 1

F1 = F1 + 5F3

−→

1 0 50 1 00 0 1

.

Es obvio que si A es una matriz elemental de orden n, la matriz In se puedeobtener realizando una única transformación elemental sobre la matriz A (latransformación elemental inversa).

El siguiente resultado quedará su�cientemente veri�cado tras la realizaciónde la práctica 2 en el aula informática:Teorema 1.2.25 Si E es la matriz elemental de orden m que se obtiene alrealizar la transformación elemental t sobre las �las de Im, y A ∈ Mm×n(K),entonces la matriz resultante de realizar la transformación t sobre las �lasde A es la matriz producto E · A.

Ejercicio 1.2.3 Veri�car el resultado anterior realizando la transformaciónelemental F3 = F3 + 3F1 sobre la matriz

−1 4 60 2 10 0 1

.

Page 44: Libro Completo Algebra

44 Álgebra

Teniendo ahora en cuenta que, según hemos visto, cualquier transforma-ción elemental es reversible, y que la inversa de una transformación elementales una transformación elemental, según el cuadro que ya establecimos en sumomento

TRANSFORMACIÓN TRANSFORMACIÓN INVERSAFi = Fi + λFj Fi = Fi − λFj

Fi = λFi (λ 6= 0) Fi =1

λFi

Fi ↔ Fj Fi ↔ Fj

resulta que, si denotamos por Pi(λ) a la matriz elemental asociada a la trans-formación Fi = λFi (λ 6= 0), por Sij(λ) a la matriz elemental asociada a latransformación Fi = Fi + λFj y por Eij a la matriz elemental asociada a latransformación Fi ↔ Fj, tenemos el siguiente corolario del teorema anterior:

Corolario 1.2.26 Toda matriz elemental es invertible, y su inversa tambiénes una matriz elemental. Concretamente,

(Sij(λ))−1 = Sij(−λ)

(Pi(λ))−1 = Pi(1

λ)

(Eij)−1 = Eji

Ejercicio 1.2.4 Verifíquese el resultado recogido en el corolario anterior,multiplicando las matrices

P2(−5) =

(1 00 −5

)

S13(4) =

1 0 40 1 00 0 1

y

E24 =

1 0 0 00 0 0 10 0 1 00 1 0 0

por sus correspondientes inversas y observando que en cada caso el resultadoes la matriz identidad del orden correspondiente.

Page 45: Libro Completo Algebra

Álgebra 45

Teorema 1.2.27 Si A ∈ Mn(K) las siguientes proposiciones son equivalen-tes:

1. A es invertible2. La ecuación A ·X = (0) sólo tiene la solución trivial3. A es equivalente por �las a la matriz In, es decir,su forma escalonada reducida es la matriz identidad In

4. El sistema A ·X = b es compatible determinado para toda matrizcolumna b ∈ Mn×1(K) y su única solución es X = A−1 ·B.

Ejemplo 1.2.28 Si A ∈ Mn(K) y b ∈ Mn×1(K), entonces el sistema A ·X = b es compatible determinado para toda matriz columna si y solo siA es invertible. Si A no es invertible o si A no es una matriz cuadrada,podemos todavía determinar condiciones sobre la matriz b tales que el sistemaA ·X = b sea consistente. Por ejemplo, aplicando el método de Gauss-Jordana la matriz ampliada del sistema se obtiene que

x1 + x2 + 2x3 = b1

x1 + x3 = b2

2x1 + x2 + 3x3 = b3

1 1 2 b1

1 0 1 b2

2 1 3 b3

F2 = F2 − F1

F3 = F3 − F1

1 1 2 b1

0 −1 −1 b2 − b1

2 1 3 b3 − 2b1

F1 = F1 + F2

F3 = F3 − F2

F2 = −F2

1 0 1 b2

0 1 1 −b2 + b1

0 0 0 b3 − b2 − b1

.

Si b3 − b2 − b1 6= 0 el sistema no es compatible y si b3 − b2 − b1 = 0 elsistema es equivalente al sistema

{x1 = −x3 + b2

x2 = −x3 − b2 + b1, que tiene in�nitas

soluciones de la forma {(−t + b2,−t− b2 + b1, t) : t ∈ R} .

Método para determinar la matriz inversaEl teorema anterior permite establecer un método para determinar la inversade una matriz invertible. Pues si A es invertible, A es equivalente por �las ala matriz In y existen m matrices elementales E1, E2, · · · , Em tales que

Em · Em−1 · ... · E1 · A = In.

Se sigue que, por el teorema 1.2.22,

Page 46: Libro Completo Algebra

46 Álgebra

Em · Em−1 · · · · · E1 = A−1.

es decir, recogiendo las dos igualdades anteriores,

In = Em · Em−1 · ... · E1 · AA−1 = Em · Em−1 · ... · E1 · In

En otras palabras, la sucesión de transformaciones elementales que transfor-ma la matriz A en la matriz In, también transforma la matriz In en la matrizA−1, con lo que, siendo t1, ..., tm las transformaciones elementales por �lasque permiten obtener In a partir de A, el esquema

A In → t1, ..., tm → In A−1

nos da un método para la obtención de la inversa de una matriz invertible Apor transformaciones elementales .

Ejemplo 1.2.29 Para calcular la inversa de la matriz

−1 −1 02 1 02 1 1

pro-

cederíamos del siguiente modo

−1 −1 02 1 02 1 1

1 0 00 1 00 0 1

→ F2 = F2 + 2F1

F3 = F3 + 2F1→

−1 −1 00 −1 00 −1 1

1 0 02 1 02 0 1

→F1 = F1 − F2

F3 = F3 − F2

F1 = (−1)F1

F2 = (−1)F2

1 0 00 1 00 0 1

1 1 0−2 −1 00 −1 1

obteniendo, por tanto que

−1 −1 02 1 02 1 1

−1

=

1 1 0−2 −1 00 −1 1

.

Page 47: Libro Completo Algebra

Álgebra 47

Observación 13 Nótese que, teniendo en cuenta el resultado obtenido en

el teorema 1.2.27, al ser

−1 −1 02 1 02 1 1

invertible, el sistema homogéneo

−x− y = 02x + y = 02x + y + z = 0

sólo tiene la solución trivial.

1.3 Estructuras algebraicasEl álgebra moderna está caracterizada por el estudio de ciertas estructurasabstractas que tienen en común una gran variedad de objetos matemáticos,entendiendo por abstracción �el proceso de separar la forma del contenido�.Lo importante del estudio de estas estructuras es que, una vez establecidaslas propiedades que satisfacen, dichas propiedades son satisfechas por todoslos objetos que comparten dicha estructura. En este apartado estudiaremosalgunas de estas estructuras, en particular las de grupo, anillo y cuerpo, comopaso previo al estudio de la principal estructura sobre la que trabajaremoseste curso, la estructura de espacio vectorial, y echaremos una breve miradahacia las algebras multigénero o tipos abstractos de datos. Este tipo de álge-bras serán objeto de estudio con mayor nivel de profundidad en la asignaturade segundo curso �Estructuras de datos y de la información�.

1.3.1 El concepto de operaciónHablando de manera aproximada, se puede decir que el origen del álgebrase encuentra en el arte de sumar, multiplicar y elevar a potencias númerosenteros.

La sustitución de números por letras y de las operaciones aritméticas porel concepto más general de �operación� permite operar con reglas análogasa las vistas para los números enteros en el contexto de objetos matemáticosmás generales, como por ejemplo las matrices.

Bajo la envoltura abstracta de la mayoría de las teorías axiomáticas del ál-gebra (grupos, anillos, cuerpos, espacios vectoriales, módulos, ...) se ocultanproblemas concretos cuya resolución dió lugar a dichas de�niciones abstrac-tas, y algunas generalizaciones de gran aplicación. Entre estas aplicaciones seencuentran dos de los pilares básicos de la ingeniería de software: las técnicas

Page 48: Libro Completo Algebra

48 Álgebra

de especi�cación formal y de veri�cación de programas.

De�nición 1.3.1 Siendo A un conjunto no vacío, llamaremos operación oley de composición interna sobre A a cualquier función

∗ : A× A −→ A(x, y) ; ∗(x, y)

.

La imagen ∗(a, b) representa el �resultado de operar a con b” en ese orden.Nótese, pues, que lo que es fundamental en la de�nición anterior es que a cadapar de objetos de A se le asigna un unico elemento de A : dicho elemento esel resultado que se obtiene al operar dichos objetos.

Observación 14 Para denotar operaciones normalmente se emplean símbo-los no alfabéticos del estilo de +, ·, ∗,±,⊕,⊗,¯,2,÷,etc..., y se utiliza conellos notación in�ja, es decir:

notacion funcional notacion infija+(a, b) a + b·(a, b) a · b∗(a, b) a ∗ b

Así, en lugar de escribir, por ejemplo, +(a, +(a, b)) escribiremos a+(a+b).

Es importante insistir de nuevo en que para poder realizar el productode matrices A ·B, el número de columnas de A debe coincidir con el númerode �las de B. Por consiguiente, para poder realizar los dos productos A · By B · A, donde A ∈ Mm×n(K) y B ∈ Mq×p(K), el número de columnas deA debe coincidir con el de �las de B y recíprocamente, esto es, para poderrealizar el producto A · B, n = q, y para poder realizar el producto B · A,p = m, es decir, A ∈ Mm×n(K) y B ∈ Mn×m(K). Si queremos además queel producto sea una operación en el sentido de la de�nición anterior, sólotendrá sentido hablar del producto de matrices como operación cuandoconsideramos matrices en Mn×n(K).

De�nición 1.3.2 Siendo ∗ : A× A → A una operación, diremos que:

• ∗ es asociativa si ∀x, y, z ∈ A x ∗ (y ∗ z) = (x ∗ y) ∗ z

Page 49: Libro Completo Algebra

Álgebra 49

• ∗ es conmutativa si ∀x, y ∈ A x ∗ y = y ∗ x

• e ∈ A es un elemento neutro de la operación ∗ si

∀x ∈ A x ∗ e = x ∧ e ∗ x = x

• a ∈ A es un elemento idempotente de la operación ∗ si a ∗ a = a

Es evidente que si e, e′ ∈ A son elementos neutros de A para la operación∗, entonces e = e′ (es decir, si una operación tiene elemento neutro,éste es único), pues: e ∗ e′ = e, por ser e′ elemento neutro y e ∗ e′ = e′ porser e un elemento neutro, de donde e = e′.

Por otra parte también es evidente que si e es el elemento neutro de unaoperación ∗, e es idempotente, puesto que e∗e = e por ser e elemento neutrode ∗.

De�nición 1.3.3 Si ∗ : A × A → A es una operación con elemento neutroe, diremos que a′ es un elemento simétrico de a si

a ∗ a′ = e ∧ a′ ∗ a = e

Proposición 1.3.4 Siendo ∗ : A×A → A una operación asociativa y conelemento neutro e, si a, a′, a′′ ∈ A son tales que a′ y a′′ son simétricos de aentonces a′ = a′′.

Demostración Si a′ y a′′ son elementos simétricos de a, entonces se veri�caque a′ = e ∗ a′ = (a′′ ∗ a) ∗ a′ = a′′ ∗ (a ∗ a′) = a′′ ∗ e = a′′ 2

Ejemplo 1.3.5 Si X es un conjunto, y P (X) es el conjunto de las partesde X, es decir, el conjunto cuyos elementos son todos los subconjuntos de X,las operaciones

∪ : P (X)× P (X) −→ P (X)(A,B) ; A ∪B

y∩ : P (X)× P (X) −→ P (X)

(A,B) ; A ∩B

Page 50: Libro Completo Algebra

50 Álgebra

satisfacen las propiedades asociativa y conmutativa. El conjunto vacìo ∅es el elemento neutro de la operación ∪ , y X es el elemento neutro de laoperación ∩ . Obsérvese que para ninguna de estas dos operaciones existe elelemento simétrico de un elemento dado.

1.3.2 GruposDe�nición 1.3.6 Sea G 6= ∅ y ∗ : G × G −→ G una operación. Diremosque G tiene estructura de grupo respecto de ∗, o también que el par (G, ∗) esun grupo, si se veri�ca que:

1. ∗ es asociativa

2. ∃e ∈ G que es elemento neutro para ∗3. Todo elemento a ∈ G tiene simétrico respecto de la operación ∗.Si además ∗ satisface la propiedad conmutativa, entonces se dice que

(G, ∗) es un grupo abeliano.De G se dice que es el conjunto subyacente del grupo (G, ∗).

Ejemplo 1.3.7 Si consideramos la suma y producto habituales sobre cadauno de estos conjuntos, los siguientes pares son grupos abelianos:(R, +), (R−{0}, ·), (C, +), (C−{0}, ·), (R+, ·), (Z, +), (Q−{0}, ·) y (Q, +) donde R+ ={x ∈ R |x > 0}, Z es el conjunto de los números enteros y Q es el conjuntode los números racionales.

Ejemplo 1.3.8 Otro ejemplo de interés especial para nosotros es el grupo(Z2, +), donde Z2 = {0, 1} y la operación + se de�ne mediante la tabla:

+ 0 10 0 11 1 0

es decir, 0 + 0 = 0, 1 + 0 = 1, 0 + 1 = 1, 1 + 1 = 0. Es obvio que el elementoneutro es el 0, y que el opuesto de 1 es el propio 1, y que el grupo es abeliano,pues 1 + 0 = 1 = 0 + 1.

Ejemplo 1.3.9 El conjunto de matrices invertibles de orden �n� con coe�-cientes en K tiene estructura de grupo (no abeliano en general) respecto delproducto usual de matrices. A dicho grupo se le denomina grupo lineal deorden �n� con coe�cientes en K.

Page 51: Libro Completo Algebra

Álgebra 51

Ejemplo 1.3.10 Los conjuntos (R, ·),(C, ·),(Q, ·), (Z− {0}, ·),(N, +), y(Mn(K)− {0}, ·) no son grupos.

Propiedades de los grupos.Si (G, ∗) es un grupo se veri�ca que:

1. Se puede simpli�car a derecha e izquierda, es decir:∀a, x, y ∈ G (x ∗ a = y ∗ a) ⇒ x = y

∀a, x, y ∈ G (a ∗ x = a ∗ y) ⇒ x = y

2. Las ecuaciones de la forma x ∗ a = b y a ∗ x = b tienen solución única.Concretamente:∀a, b ∈ G ∃!x ∈ G..a ∗ x = b

∀a, b ∈ G ∃!x ∈ G..x ∗ a = b

3. El único elemento idempotente de (G, ∗) es el elemento neutro e :

∀a ∈ G(a ∗ a = a ⇔ a = e)

4. ∀a, b ∈ G(a ∗ b = e ⇒ b = a

′) donde a′ es el elemento simétrico de a

5. ∀a ∈ G(a′)′

= a

6. ∀a, b ∈ G (a ∗ b)′= b′ ∗ a′

Demostración

1. Siendo a, x, y ∈ G, si x∗a = y∗a, necesariamente (x∗a)∗a′ = (y∗a)∗a′,esdecir, x∗(a∗a′) = y∗(a∗a′) , o lo que es lo mismo, x∗e = y∗e, con lo queconcluimos que x = y. La otra propiedad se demuestra análogamente.

2. Siendo a, b, x ∈ G, a∗x = b ⇔ a′ ∗ (a ∗ x) = a′ ∗ b, es decir, (a′ ∗a)∗x =a′ ∗ b , y esto es equivalente a que e ∗ x = a′ ∗ b, o lo que es lo mismo,a que x = a′ ∗ b.La otra propiedad se demuestra análogamente.

Page 52: Libro Completo Algebra

52 Álgebra

3. Esta equivalencia la probaremos demostrando que la dos implicacionesson V, es decir, probando que para cualquier elemento a ∈ G,

((a ∗ a = a ⇒ a = e) ∧ (a = e ⇒ a ∗ a = a)) . Sea a ∈ G tal que a∗a =a. En ese caso a′ ∗ (a ∗ a) = a′ ∗ a, es decir, (a′ ∗ a) ∗ a = e con lo quee ∗ a = e, es decir, a = e. La implicación recíproca es evidente, pues sia = e, entonces a ∗ a = e ∗ e = e.

4. Siendo a, b ∈ G tales que a ∗ b = e, necesariamente a′ ∗ (a ∗ b) = a′ ∗ e,es decir, (a′ ∗ a) ∗ b = a′ con lo que e ∗ b = a′, o lo que es lo mismo,b = a′.

5. Siendo a ∈ G, de a ∗ a′ = e ∧ a′ ∗ a = e se sigue que(a′)′

= a.

6. Siendo a, b ∈ G, (a ∗ b)∗(b′ ∗ a′) = ((a ∗ b) ∗ b′)∗a′ = (a ∗ (b ∗ b′))∗a′ =a ∗ a′ = e, por lo que, teniendo en cuenta la propiedad 4 que acabamosde ver, b′ ∗ a′ = (a ∗ b)

′. 2

Observación 15 Nótese que, como caso particular de los resultados ante-riores, para el caso en que las operaciones + y · sean las operaciones de ungrupo, se tendrá que, siendo x e y dos elementos genéricos:

(x + x = x) ⇔ x = 0(x · y = 1) ⇔ y = x−1

(x−1)−1

= x(x · y)−1 = y−1 · x−1

es decir,

((∗ = +) ⇒ e = 0 ∧ x′ = (−x))

((∗ = ·) ⇒ e = 1 ∧ x′ = (x−1)).

1.3.3 Anillos y cuerposDe�nición 1.3.11 Se dice que un conjunto A 6= ∅ tiene estructura de anillorespecto de las operaciones + y ·, o también que la 3-tupla (A, +, ·) es unanillo si se veri�ca que:

Page 53: Libro Completo Algebra

Álgebra 53

1. (A, +) es un grupo abeliano

2. “ · ” satisface la propiedad asociativa

3. “ · ” es distributiva respecto de “ + ”, es decir:∀x, y, z ∈ A ((x · (y + z) = x · y + x · z) ∧ ((y + z) · x = y · x + z · x))

Si además “ · ” satisface la propiedad conmutativa, se dice que el anillo(A, +, ·). es un anillo conmutativo. Finalmente, si “ · ” tiene elementoneutro 1 ∈ A, y 1 6= 0, se dice que el anillo (A, +, ·) es un anillounitario.

Ejemplo 1.3.12 (Z, +, ·) es un anillo conmutativo y unitario, donde + y ·son la suma y producto habituales de los números enteros.

Ejemplo 1.3.13 Si denotamos por C[x] al conjunto de polinomios con coe�-cientes en C, es decir, al conjunto formado por todas las funciones p : C→ Ctales que ∃n ∈ N∪{0} y ∃(a0, ..., an) ∈ Cn+1 de manera que ∀x ∈ C se veri�caque

p(x) = anxn + ... + a1x + a0

con la suma + y el producto · de polinomios habituales, resulta que (C[x], +, ·)es un anillo conmutativo y unitario. Con vistas a recordar las operaciones,si por ejemplo consideramos los polinomios p, q ∈ C[x] ,tales que ∀x ∈ Cp(x) = 2x2 + x− 5 y q(x) = 3x− 4, tendremos que

(p + q)(x) = p(x) + q(x) =(2x2 + x− 5

)+ (3x− 4) = 2x2 + 4x− 9

y

(p · q)(x) = p(x) · q(x) =(2x2 + x− 5

) · (3x− 4) = 6x3 − 5x2 − 19x + 20.

Ejemplo 1.3.14 Según hemos visto, (Mn(K), +, ·) es un anillo no conmu-tativo y con elemento unidad In, siendo + y · la suma y producto de matriceshabituales.

De�nición 1.3.15 Siendo (A, +, ·) un anillo, se dice que a ∈ A−{0} es undivisor de cero si ∃b ∈ A− {0} tal que a · b = 0 ∨ b · a = 0.

Page 54: Libro Completo Algebra

54 Álgebra

Ejemplo 1.3.16 Es fácil comprobar que (Mn(K), +, ·) tiene divisores de ce-ro. Así por ejemplo

(1 11 1

)·(

1 1−1 −1

)=

(0 00 0

)

De�nición 1.3.17 Siendo (A, +, ·) un anillo unitario, se dice que a ∈ A esinvertible (o inversible) si existe un elemento b ∈ A tal que (a · b = 1∧ b · a =1). En tal caso, es obvio que b es el elemento inverso de a, y por tantoescribiremos b = a−1.

Propiedades de los anillosSi (A, +, ·) es un anillo se veri�ca que:

1. ∀a ∈ A (a · 0 = 0 ∧ 0 · a = 0)

2. ∀a, b ∈ A (a · (−b) = −(a · b) ∧ (−a) · b = −(a · b))Si además (A, +, ·) es unitario, también se veri�ca que:

3. Si a,b ∈ A son inversibles, entonces a·b es inversible y (a · b)−1 = b−1·a−1

4. Si a ∈ A es inversible, entonces (−a) es inversible y (−a)−1 = −(a−1)

5. Si a ∈ A es un divisor de cero, entonces a no es inversible.

Demostración

1. Demostramos la primera de las dos propiedades: dado a ∈ A, a · 0 =a · (0 + 0) = a · 0 + a · 0, y puesto que al ser (A, +) un grupo, el únicoelemento idempotente es el 0, concluímos que a · 0 = 0

2. Demostramos la primera de las dos propiedades: siendo a, b ∈ A,

0 = a · 0 = a · (b + (−b)) = a · b + a · (−b)

y en consecuencia a·(−b) = −(a ·b) por la propiedad 4 de los grupos,aplicada a la operaciòn de suma.

Page 55: Libro Completo Algebra

Álgebra 55

3.(a · b) · (b−1 · a−1) = ((a · b) · b−1) · a−1 =

= a · (b · b−1) · a−1 = a · a−1 = 1 y(b−1 · a−1) · (a · b) = ((b−1 · a−1) · a) · b =

= b−1 · (a−1 · a) · b = b−1 · b = 1

4. Por la propiedad 2,

(−a) · (−(a−1)) = −((−a) · (a−1)) = −(−(a · a−1)) = −(−1) = 1

−(a−1) · (−a) = −((−(a−1)) · a) = −(−(a−1 · a)) = −(−1) = 1

5. Razonamos por reducción al absurdo: si a ∈ A es un divisor de ce-ro, existirá un elemento b 6= 0 tal que a · b = 0 o tal que b · a = 0.Pero puesto que a tiene inverso, si a · b = 0, entonces por una partea−1 · (a · b) = a−1 · 0 = 0, pero también a−1 · (a · b) = (a−1 · a) · b = b, esdecir, b = 0 (contradicción). Si b · a = 0 se razona análogamente. 2

Observación 16 Las matrices invertibles son los elementos invertibles delanillo Mn(K). Así pues, todas las propiedades vistas para los elementos in-vertibles de un anillo genérico, son válidas para el anillo considerado(Mn(K), +, ·). En particular, si A,B ∈ Mn(K) son invertibles, entonces A·Bes invertible y (A ·B)−1 = B−1 ·A−1, y si A ∈ Mn(K) es invertible, entonces(−A) ∈ Mn(K) es invertible y (−A)−1 = −(A−1).

Ejercicio 1.3.1 Probar que si (A, +, ·) es un anillo unitario, y a, b, c ∈ Ason tales que a ·b = 1 y c ·a = 1, entonces necesariamente b = c. (Indicación:desarróllese la igualdad b = 1 · b = ...)

Proposición 1.3.18 Si (A, +, ·) es un anillo sin divisores de cero se veri�caque

∀a, b, c ∈ A ((a · b = a · c ∧ a 6= 0) ⇒ (b = c))

y

∀a, b, c ∈ A ((b · a = c · a ∧ a 6= 0) ⇒ (b = c))

Page 56: Libro Completo Algebra

56 Álgebra

Demostración Si a, b, c ∈ A son tales que a ·b = a ·c con a 6= 0, tendremosque a · b + (−(a · c)) = 0, o lo que es lo mismo, a · b + (a · (−c)) = 0, con loque, por la propiedad distributiva, a · (b + (−c)) = 0, y puesto que a 6= 0,necesariamente (b + (−c)) = 0, es decir, b = c. 2

De�nición 1.3.19 Se dice que una terna (K, +, ·) es un cuerpo, o tambiénque K tiene estructura de cuerpo respecto de las operaciones + y · si (K, +, ·)es un anillo conmutativo y unitario y además todos los elementos de K−{0}son inversibles.

Ejemplo 1.3.20 (R, +, ·), (C, +, ·) y (Q, +, ·) son cuerpos, siendo en cadacaso las operaciones + y · la suma y el producto habituales considerados sobrecada uno de esos conjuntos.

Ejemplo 1.3.21 Otro ejemplo de interés especial para nosotros es el cuerpo(Z2, +, ·), donde Z2 = {0, 1}, y las operaciones + y · se de�nen mediante lassiguientes tablas.

+ 0 10 0 11 1 0

· 0 10 0 01 0 1

Es decir, 0 + 0 = 0, 1 + 0 = 1, 0 + 1 = 1, 1 + 1 = 0, y 0 · 1 = 1 · 0 = 0,1 · 1 = 1.

Proposición 1.3.22 Si (K, +, ·) es un cuerpo, y a, b ∈ K son tales quea · b = 0, necesariamente a = 0 ∨ b = 0 (un cuerpo no tiene divisores de locero).

Demostración Si a · b = 0 y a 6= 0, entonces, puesto que a ∈ K − {0}, atiene inverso por lo que, por una parte a−1 · (a · b) = a−1 · 0 = 0, y por otraa−1 · (a · b) = (a−1 · a) · b = 1 · b = b, con lo que b = 0 2

Observación 17 Como consecuencia de la proposición anterior, si (K, +, ·)es un cuerpo, entonces (K, +, ·) no tiene divisores de cero. El recíproco ob-viamente no es cierto. (Z, +, ·) es un ejemplo de anillo sin divisores de ceroque no es cuerpo.

Page 57: Libro Completo Algebra

Álgebra 57

1.3.4 Introducción a los Tipos Abstractos de DatosLas estructuras de datos y los tipos de datos son conceptos fundamentalesen el mundo de la programación y de la especi�cación de sistemas de soft-ware. El concepto de estructura de datos se usa comúnmente para referirsea un conjunto de datos organizados de un cierto modo, como por ejemplo,colocados en una secuencia o en una tabla.

Junto con el conjunto de datos hay que considerar de�nidas una serie deoperaciones necesarias para obtener la información y actualizarla. Pero estasoperaciones no están necesariamente de�nidas sobre objetos de la mismanaturaleza; por ejemplo, entendiendo por pila un dispositivo que almacenadatos, caracterizado por el hecho de que el primer dato que se puede extraeres el último que se ha almacenado, resulta que la operación �almacenar unelemento en una pila� está de�nida del siguiente modo

push : Pila×Dato → Pilas

en el sentido de que el par formado por una pila y un dato (P, d) nos da comoresultado de aplicarle la operación push una nueva pila obtenida añadiendoel dato d a la pila p.

De forma análoga, la operación �extraer el último elemento almacenadode una pila� (operación que habitualmente se denota por pop) es la función

pop : Pila → Pila

tal que pop(P ) es la pila obtenida a partir de P eliminando el último datoalmacenado en P.

En esta sección el concepto de operación no será, pues, equivalente alde �ley de composición interna�, pues en principio nos podemos referir aoperaciones entre objetos de distinta naturaleza. Así pues, las operacionesa las que nos referimos en este apartado serán operaciones �generalizadas,�entendidas como funciones de un producto cartesiano de conjuntos a otroconjunto.

En ciertas ocasiones, por ejemplo, para diseñar un algoritmo o un sistemade software, resulta más cómodo e interesante trabajar con una representa-ción abstracta de los datos que sea independiente de la forma en la que están,o van a ser, implementados en el ordenador.

Una forma de representar las propiedades abstractas de un conjunto dedatos consiste en utilizar ecuaciones a modo de axiomas, de manera que dos

Page 58: Libro Completo Algebra

58 Álgebra

tipos de datos diferentes son considerados como iguales (o si se pre�ere, conla misma estructura) si ambos satisfacen las mismas ecuaciones. Desde esepunto de vista abstracto, �ambos tipos de datos se diferenciarían únicamenteen el nombre de los datos básicos y de las operaciones�. La búsqueda de unarepresentación abstracta común para tipos de datos �similares� nos lleva a lade�nición del concepto de tipo abstracto de datos :

De�nición 1.3.23 Un tipo abstracto de datos (TAD) es una cuádrupla

(Tip, Cons, Op, Ec)

en la que Tip es el conjunto de tipos de datos del TAD, Cons es el conjuntode constantes o datos básicos del TAD, Op es el conjunto de operaciones(generalizadas) y Ec el conjunto de las ecuaciones.

A los tipos abstractos de datos también se les conoce en la literatura comoálgebras multigénero o álgebras multitipo.

Observación 18 La mayoría de los lenguajes de programación tratan lasvariables y las constantes de un programa como instancias de un tipo dedato.

Ejemplo 1.3.24 Como ya hemos dicho, una pila, en el ámbito de la infor-mática o las ciencias de la computación es un dispositivo en el que los datosson almacenados en secuencia, de manera que en cada paso únicamente esposible acceder al último dato almacenado (top) (este modo de acceso a losdatos que caracteriza al dispositivo de almacenamiento �pila� es conocido co-mo �lifo�, abreviatura de �last in-�rst out�). Este tipo de dispositivo apareceen muchas ocasiones, por ejemplo, en el almacenamiento de información envariables que aparecen en programas con bucles anidados, en la evaluación deexpresiones e incluso en la ejecución de procedimientos recursivos. Las ope-raciones consideradas sobre una pila son la de almacenamiento (push), quecoloca un nuevo dato encima de la �pila�, la extracción del último dato alma-cenado (pop) y la �visualización� del elemento situado en la parte superior dela pila (top). La constante �newstack� representa la pila vacía y que es deltipo PILA, y la constante �error� del tipo ERROR, nos permitirá representarla situación (mensaje de error) que se produce cuando miramos cual es elelemento situado en la parte superior de la pila vacía. Por consiguiente, el

Page 59: Libro Completo Algebra

Álgebra 59

modelo �PILA� queda especi�cado como tipo abstracto de datos del siguientemodo:PILA =

1. Tipos : PILA, DATO, ERROR

2. Constantes :

{error ∈ ERROR,newstack ∈ PILA

3. Operaciones :

push : PILA×DATO → PILApop : PILA → PILAtop : PILA → DATO ∪ ERROR

4. Ecuaciones:

∀p ∈ PILA, ∀a ∈ DATOpop(push(p, a)) = ppop(newstack) = newstacktop(push(p, a)) = atop(newstack) = error

Así por ejemplo, la pilaa3

a3

a1

se representaría en este modelo por:push(push(push(newstack, a1), a3), a3).

Ejemplo 1.3.25 Teniendo en cuenta que un semigrupo es un conjunto do-tado de una ley de composición interna asociativa, y que un monoide es unsemigrupo con elemento neutro, sus especi�caciones como tipos abstractos dedatos serían las siguientes:

SEMIGRUPO =1. Tipos: ELEM2. Constantes:3. Operaciones: ∗ : ELEM × ELEM → ELEM

4. Ecuaciones:{ ∀x, y, z ∈ ELEM

x ∗ (y ∗ z) = (x ∗ y) ∗ z

MONOIDE = SEMIGRUPO +Constantes: e ∈ ELEM

Ecuaciones:

∀x ∈ ELEMx ∗ e = xe ∗ x = x

Page 60: Libro Completo Algebra

60 Álgebra

Ejercicio 1.3.2 En el ámbito de las ciencias de la computación una cadenao �string� es una secuencia de items (datos) de algún conjunto (o dominio)de datos. En términos matemáticos una cadena es una palabra a1...an delongitud n ≥ 0 formada con letras de un alfabeto dado. Para n = 0 setrata de la cadena vacía (a la que en su momento denotamos por λ) y paran ≥ 1 los elementos a1, ..., an pertenecen al mismo conjunto o alfabeto A. Elejercicio consiste en construir un modelo de tipo abstracto de datos al quedenominaremos cadena o �string�, teniendo en cuenta que hay que consi-derar los datos y las cadenas de datos de un conjunto A = {a1, ..., ak}, quelas cadenas son elementos del conjunto A∗ (conjunto de todas las cadenaso palabras de�nidas sobre el alfabeto A o lenguaje universal sobre A), quehay que considerar la palabra vacía como una constante. Como operacionessobre las cadenas consideramos las siguientes: construye, que a partir deun elemento de A construye una lista de longitud 1, la operación concat,de�nida sobre pares de palabras por concat(a1...an, b1...bm) = a1...anb1...bm, ylas operaciones iañade (iadd) y dañade (dadd) que añaden, respectivamente,un elemento a la izquierda o a la derecha de una cadena dada.(Nota: Sonsu�cientes 5 ecuaciones).

1.4 Ejercicios1.4.1 Ejercicios resueltos1. Representar por su matriz ampliada y resolver por el método de Gauss-Jordan cada uno de los siguientes sistemas de ecuaciones lineales :

2x1 + x2 + 3x3 = 95x1 + 4x2 + 6x3 = 24x1 + 3x2 − 2x3 = 4

, {3x1 + x2 + x3 − 5x4 = 45x1 + 2x2 + 4x3 − 2x4 = 6

x1 − x2 + x3 − x4 = 02x1 + 3x2 + 4x3 + 5x4 = 0x1 − x2 + 2x3 − 2x4 = 0

5x1 + 5x2 + 9x3 + 9x4 = 0

Page 61: Libro Completo Algebra

Álgebra 61

2. Considere el sistema de ecuaciones

x + y + 2z = ax + z = b

2x + y + 3z = c

Demuestre que para que este sistema sea compatible, a, b y c debensatisfacer c = a+b.

3. Resuelva cada uno de los sistemas siguientes por eliminación de Gauss-Jordan:

a)

2x1 − 3x2 = −22x1 + x2 = 13x1 + 2x2 = 1

b)

3x1 + 2x2 − x3 = −155x1 + 3x2 + 2x3 = 03x1 + x2 + 3x3 = 1111x1 + 7x2 = −30

c)

4x1 − 8x2 = 123x1 − 6x2 = 9

−2x1 + 4x2 = −6

4. ¾Para qué valores de a el sistema que sigue no tiene soluciones? ¾Tieneexactamente una solución? ¾ Tiene in�nidad de soluciones?

x + 2y − 3z = 43x− y + 5z = 2

4x + y + (a2 − 14)z = a + 2

5. Calcular las inversas de la siguientes matrices:

A =

(3 15 2

)B =

(2 −34 4

)C =

(2 00 3

)

Page 62: Libro Completo Algebra

62 Álgebra

6. Veri�que que las matrices A y B del ejercicio 5) satisfacen la relación(AB)−1 = B−1A−1.

7. Sea A una matriz invertible y suponga que la inversa de 7A es( −1 24 −7

). Encuentre la matriz A.

8. Sea AX = B un cualquier sistema consistente de ecuaciones linealesy supóngase que X1 es una solución �ja. Demuestre que toda solución parael sistema se puede escribir en la forma X = X1 + X0, en donde X0 es unasolución para AX = 0. Demuestre también que toda matriz de esta formaes una solución.

9. Encontrar la inversa de la matriz dada, si la matriz es invertible:

a) A =

3 4 −11 0 32 5 −4

b) B =

3 1 52 4 1−4 2 −9

c) C =

1 0 10 1 11 1 0

10. Efectúe las operaciones sobre las �las que siguen sobre

A =

3 1 0−2 1 43 5 5

multiplicando por una matriz elemental apropiada. En cada caso, veri�quela respuesta llevando a cabo la operación sobre las �las directamente sobreA.

a)Intercambie la primera y tercera �las.b)Multiplique la segunda �la por 1/3.c)Sume el doble de la segunda �la a la primera.

11. Una caja que contiene monedas con las denominaciones de un centavo,cinco centavos y diez centavos tiene 13 de ellas con un valor total de 83centavos.

¾ Cuántas monedas de cada tipo hay en la caja ?

Page 63: Libro Completo Algebra

Álgebra 63

12. ¾Para cuál valor, o cuáles valores, de a el sistema siguiente tiene cero,una y una in�nidad de soluciones?

x1 + x2 + x3 = 4x3 = 2

(a2 − 4)x3 = a− 2

13. Demostrar que la trasposición de matrices satisface las siguientespropiedades.

a) ∀A ∈ Mm×n(K) t(tA) = A.b) ∀A,B ∈ Mm×n(K) t(A + B) =t A +t B.c)∀A ∈ Mm×n(K), ∀B ∈ Mn×p(K), t(A ·B) =t B ·t A.

14. Demostrar que si A ∈ Mn(K) es invertible, entoncest(A) ∈ Mn(K)

es invertible y t (A−1) = (tA)−1

.

15. Si A = (aij) ∈ Mn(K), se denomina traza de A a la suma de loselementos de la diagonal principal de A, es decir,

Tr(A) = a11 + ... + ann =n∑

i=1

aii.

Demostrar que ∀A,B,C ∈ Mn(K):a) Tr(A + B) = Tr(A) + Tr(B).b) Tr(AB) = Tr(BA).Poner un contraejemplo que ponga de mani�esto que

Tr(A.B) 6= Tr(A) · Tr(B).

c) Siendo C = AtA,

Tr(AtA) =n∑

i=1

n∑

k=1

a2ik.

16. Se dice que una matriz A ∈ Mn(K) es simétrica si tA = A. Demostrarque una condición necesaria y su�ciente para que el producto de dos matrices

Page 64: Libro Completo Algebra

64 Álgebra

simétricas A,B ∈ Mn(K) dé como resultado una matriz simétrica es queAB = BA.

17. Determinar α ∈ C y β ∈ C para que la matriz A =

(2 11 2

)∈

M2(C) satisfaga la ecuación A2 + αA + βI2 = (0).

18. Se dice que una matriz A ∈ Mn(K) es idempotente si A2 = A.Demostrar que si A ∈ Mn(K) es idempotente, entonces B = In − A esidempotente. Demostrar también que AB = (0) y que BA = (0).

19. En una feria de ganado un granjero compró pollos, conejos y terneros.Los pollos los compró a 50 pts., los conejos a 1000 pts. y los terneros a5000pts.

Compró 100 animales y gastó 100.000 pts.Sabiendo que compró animales de las 3 clases, averiguar el número de

animales que compró de cada clase.

20. En el ámbito de las ciencias de la computación una cadena o �string�es una secuencia de items (datos) de algún conjunto (o dominio) de datosdado. En términos matemáticos una cadena es una palabra a1...an de longi-tud n ≥ 0. Para n = 0 se trata de la cadena vacía (a la que en su momentodenotamos por λ) y para n ≥ 1 los elementos a1, ..., an pertenecen al mis-mo conjunto o alfabeto A. El ejercicio consiste en construir un modelo detipo abstracto de datos al que denominaremos cadena o � string�, teniendoen cuenta que hay que considerar los datos y las cadenas de datos de unconjunto A = {a1, ..., ak}, que las cadenas son elementos del conjunto A∗

(conjunto de todas las cadenas o palabras de�nidas sobre el alfabeto A olenguaje universal sobre A), que hay que considerar la palabra vacía comouna constante, y que como operaciones sobre las cadenas consideramos lassiguientes: construye, que a partir de un elemento de A construye una lis-ta de longitud 1, la operación concat, de�nida sobre pares de palabras porconcat(a1...an, b1...bm) = a1...anb1...bm, y las operaciones iañade (iadd) y da-ñade (dadd) que añaden, respectívamente, un elemento a la izquierda o a laderecha de una cadena dada.(Nota: Son su�cientes 5 ecuaciones).

1.4.2 Ejercicios propuestos1. Resolver los siguientes sistemas por el método de eliminación gaussiana:

Page 65: Libro Completo Algebra

Álgebra 65

a)

2x− 5y + 4z + u− v = 3x− 2y + z − u + v = 5x− 4y + 6z + 2u− v = 10

, b)

4x− 3y + 2z + u = 3x− 2y + z + 2u = −24x− y + z − u− v = 52x + 3y − z − 4u = 9

c)

4x− 3y + 2z = −2−2x + y + 2z = 3−x + y − 2z = 7

, d)

4x− 3y + 2z = 3−2x + y + 2z = 1−x + y − 2z = −2

2. Resolver los siguientes sistemas de ecuaciones lineales por el método deGauss-Jordan:

3x1 + 4x2 + x3 + 2x4 = 22x1 + 2x2 − 6x3 + 2x4 = −44x1 + 5x2 − x3 + 3x4 = −3

,

7x2 + x3 = 13x1 + 4x2 + 1x3 = 7−9x1 − 5x2 − 2x3 = 2

3. Resolver el siguiente sistema de ecuaciones (no lineales):

2x2 − 6y3 + 3ez = 174y3 − ez = −5−3x2 − 2y3 = −10

4. Discutir las distintas soluciones del siguiente sistema según los distintosvalores del parámetro k:

x + y + 2z = 2−3x + 2y + 3z = −22x + ky − 5z = −4

5. Discutir las distintas soluciones del siguiente sistema según los distintosvalores de los parámetros a y b:

ax + bz = 2ax + ay + 4z = 4ax + 2z = b

6. Veri�car que existe un sistema de dos ecuaciones en las variables x, y,z, cuyas soluciones sean, en función del parámetro t:

x = −1− ty = 2 + 5tz = 4− t

Page 66: Libro Completo Algebra

66 Álgebra

7. Un padre con a�ciones matemáticas decide hacer su testamento de lamanera siguiente:

• Todo mi capital será dividido entre mis tres hijos: Antonio, Benitoy Carla.

• Del capital menos 10.000 euros Antonio recibe la mitad.• La cantidad recibida por Carla menos la cantidad que reciba Be-

nito debe ser igual a la cantidad recibida por Benito menos lacantidad recibida por Antonio.

• La cantidad recibida por Carla menos el 60 por ciento de la reci-bida por Benito debe ser igual a 4.000 euros.

¾Cuanto dinero recibirá cada uno?

8. Calcular la inversa, si existe, de las siguientes matrices y comprobar larespuesta por multiplicación:

A =

8 −11 −76 −8 −51 −1 −1

, B =

−2 3 1−2 4 2−3 2 −1

, C =

−2 0 −6 −10 −3 0 −31 0 −3 10 −3 3 −3

9. Demostrar que la matriz

A =

1 −1 30 4 −2−2 6 −8

no es invertible comprobando que existe una solución no trivial delsistema homogéneo A ·X = 0.

10. Sea A la matriz

A =

3 −3 51 4 −3−3 4 −6

.

• Usando el método de Gauss-Jordan, exprésese la matriz A−1 comoproducto de matrices elementales.

Page 67: Libro Completo Algebra

Álgebra 67

• Exprésese la matriz A como producto de matrices elementales.

11. El producto de matrices cuadradas n × n no es conmutativo. Sin em-bargo, dada una matriz A, existen matrices B que conmutan con ella,es decir, tales que A ·B = B ·A (por ejemplo, la identidad o la propiaA). El conjunto de tales matrices se llama conmutador de A. Calcúleseel conmutador de la matriz:

A =

(1 0−2 −1

)

12. Una matriz cuadrada S se dice simétrica si S = tS y antisimétrica siS = − tS.

(a) Dar dos ejemplos de matrices simétricas y antisimétricas 3× 3.(b) Probar que dada una matriz cuadrada cualquiera B, las matrices

12(B + tB) y 1

2(B − tB) son simétrica y antisimétrica, respectiva-

mente, y que su suma es B.(c) Probar que si una matriz cuadrada B se escribe como suma B =

S+A donde S y A son simétrica y antisimétrica, respectivamente,entonces S = 1

2(B + tB) y A = 1

2(B − tB).

De este ejercicio se deduce que toda matriz se descompone de ma-nera única como suma de una matriz simétrica y una antisimétrica.Calcúlese la descomposición de la matriz

A =

2 3 −14 5 70 2 4

13. Calcúlense por inducción las potencias m-ésimas de las matrices:

A =

(a 10 a

), B =

(0 11 0

).

14. Dos matrices cuadradas A y B se dicen semejantes (o congruentes) siexiste una matriz invertible P tal que A = P ·B · P−1.Sean A y B semejantes.

Page 68: Libro Completo Algebra

68 Álgebra

(a) Probar por inducción que para todo n ∈ N se veri�ca Am = P ·Bm · P−1.

(b) Si dos matrices invertibles A y B son semejantes, ¾es A−1 seme-jante con B−1? ¾Es tA semejante con tB?

(c) Con la notación anterior, y siendo

B =

(2 00 3

), P =

(1 −2−2 3

),

calcúlense las potencias A3, A10 y Am, m ∈ N.15. Considérense las matrices

Aα =

(cos α sin α− sin α cos α

), α ∈ R.

(a) Probar que Aα ·Aβ = Aα+β (Ayuda: Úsense las fórmulas del senoy el coseno de la suma de dos angulos: cos(α+β) = cos α · cos β−sin α · sin β y sin(α + β) = sin α · cos β + cos α · sin β).

(b) Probar que A0 = I2.(c) Probar que (Aα)−1 = A−α.(d) Concluir que el conjunto G = {Aα|α ∈ R} es un grupo conmuta-

tivo con el producto usual de matrices.(e) G se llama usualmente el grupo de rotaciones del plano, ya que

dado un vector v ∈ R2 (cuyas coordenadas escribimos en unamatriz columna), el producto Aα · v es el vector que resulta derotar v α grados con respecto al origen en el sentido de las agujasdel reloj. Considérese el triángulo T formado por el origen y losvectores v = (1, 0) y w = (1, 1); calcular y dibujar los vértices delos triángulos que resultan de rotar T 30, 45, 60 y 90 grados.

EJERCICIOS COMPLEMENTARIOS.

16. Calcular dos matrices cuadradas X e Y que veri�quen:

4X + 3Y =

(3 −24 0

), 3X + 2Y =

(1 5−3 2

).

Page 69: Libro Completo Algebra

Álgebra 69

17. Probar por inducción que si dos matrices A y B conmutan (es decirA ·B = B · A) entonces se veri�ca la fórmula de Newton:

(A + B)m =m∑

i=0

(mi

)Ai ·Bm−i.

Poner un ejemplo de dos matrices 2× 2 que no conmuten y comprobarque la fórmula anterior ya no se veri�ca para m = 2.

18. Llamamos matriz de permutación a una matriz cuadrada veri�candoque todos sus coe�cientes son cero excepto un elemento en cada �la yen cada columna. En este ejercicio consideraremos matrices cuadradas3 × 3. Una matriz de permutación 3 × 3 viene determinada por unapermutación σ del conjunto de indices {1, 2, 3} de tal manera que lamatriz correspondiente Aσ viene dada por (Aσ(i, j) = 0 ⇐⇒ j 6=σ(i)) ∧ (Aσ(i, j) = 1 ⇐⇒ j = σ(i)).

(a) Dada una matriz 3 × 3 B, veri�car que el producto Aσ · B esuna matriz que tiene las mismas �las que B pero en el ordenσ(1), σ(2), σ(3).

(b) Escribir todas las permutaciones del conjunto {1, 2, 3} y las corres-pondientes matrices de permutación.

(c) Probar que el producto de matrices de permutación es una matrizde permutación.

(d) Probar que el conjunto de matrices de permutación con el produc-to usual de matrices es un grupo no conmutativo.

19. Sea K el conjunto de números reales x tales que existen dos númerosracionales a y b con x = a+

√2·b. Llamaremos a a y b, respectivamente,

la parte racional y la parte irracional de x.

(a) Probar que la suma y el producto de dos números reales en Kpertenece a K. Escríbase la expresión de tales operaciones enfunción de las partes racional e irracional.

(b) Probar que 0 y 1 pertenecen a K.(c) Probar que el elemento opuesto de un elemento en K pertenece a

K.

Page 70: Libro Completo Algebra

70 Álgebra

(d) Probar que el elemento inverso de un elemento no nulo en K per-tenece a K.

(e) Concluir que K es un cuerpo conmutativo.(f) ¾Se te ocurren otros ejemplos de cuerpos construídos de forma

similar?

Page 71: Libro Completo Algebra

Capítulo 2

Espacios vectoriales

En este capítulo vamos a estudiar el concepto de espacio vectorial. Esta es laestructura algebraica sobre la que se desarrolla la parte de las matemáticasconocida como Algebra Lineal.

Veamos un primer ejemplo en el que aparece la estructura de espaciovectorial.

Al estudiar el método de Gauss-Jordan para la resolución de un siste-ma de ecuaciones lineales, establecimos ciertas operaciones sobre las �las dela matriz ampliada asociada al sistema de ecuaciones a las que llamamostransformaciones elementales. Para de�nirlas tuvimos que considerar las si-guientes operaciones sobre las �las de dicha matriz:

1. Sumar dos �las Fi = Fi + Fj

2. Multiplicar una �la por un número: Fi = λFi,

de manera que si (ai1 · · · ain bi) y (ak1 · · · akn bk) son dos �las de dichamatriz, su suma era

(ai1 · · · ain bi) + (ak1 · · · akn bk) = (ai1 + ak1 · · · ain + akn bi + bk)

y el producto de una �la (ai1 · · · ain bi) por un número complejo λ eraλ(ai1 · · · ain bi) = (λai1 · · ·λain λbi).

En general, si (a1 · · · an) y (b1 · · · bn) son matrices �la y λ es un númerocomplejo,

(a1 · · · an) + (b1 · · · bn) = (a1 + b1 · · · an + bn)

y

λ(a1 · · · an) = (λa1 · · ·λan).

71

Page 72: Libro Completo Algebra

72 Álgebra

Siendo a,b y c matrices �la, y λ, µ ∈ C, no es difícil veri�car que se satisfacenlas siguientes propiedades:

1. a + b = b + a.2. (a + b) + c = a + (b + c).3. a + (0) = (0) + a = (0).4. a + (−a) = (0) y (−a) + a = (0), siendo además −a = (−1)a.5. (λµ)a =λ(µa).6. λ(a + b) =λa+λb.7. (λ + µ)a =λa + µa.8. 1 · a = a.Estas propiedades, como ahora veremos, servirán para establecer los axio-

mas de la de�nición de espacio vectorial.La noción de espacio vectorial también está estrechamente relacionada

con la siguiente idea: si alguien quiere comprar 3 Kg. de peras y 2 Kg. demanzanas, no le pide al tendero 5 Kg. de peras y manzanas, ya que en esecaso podrían darle, por ejemplo, 1 Kg. de peras y 4 Kg. de manzanas. Porotra parte, si esa compra representa el postre de la semana de una familia,y la persona que va a realizarla recibe el encargo de su cuñada de comprar 4Kg. de peras y 2 Kg. de manzanas, y de su vecina de comprar la mitad delo que él mismo vaya a comprar, nuestro amigo deberá comprar(

3 Kg. de peras

2 Kg. de manzanas

)+

(4 Kg. de peras

2 Kg. de manzanas

)+ 1

2

(3 Kg. de peras

2 Kg. de manzanas

)=

(8.5 Kg. de peras

5 Kg. de manzanas

).

Estas listas (o matrices columna) de números que sabemos sumar y �multi-plicar por números� constituyen un primer ejemplo de lo que denominaremos�vectores�.

El concepto de vector también se emplea en Física para representar mag-nitudes que no quedan completamente determinadas por un número, y estradicional asociar una ��echa� a dichas magnitudes y representarlas por un�segmento orientado�. Sin embargo, el asociar el concepto de vector a unobjeto �geométrico� tiene una limitación importante, pues si trabajamos conlistas de más de tres números, no contamos con su�cientes dimensiones en elespacio físico para situar tal �echa.

La descripción axiomática de vector sobre la que vamos a trabajar, esabstracta por lo que no requiere el uso de objetos geométricos. Además,

Page 73: Libro Completo Algebra

Álgebra 73

dicha abstracción conlleva otra ventaja adicional: no requiere la introducciónde nociones como �sistema de coordenadas� o �sistema de direcciones�.

Esta visión axiomática permite englobar como ejemplos de vectores aobjetos matemáticos aparentemente tan distintos como los polinomios, lasmatrices, las funciones reales de variable real, las sucesiones de númerosreales y un largo etcétera.

2.1 Vectores en el plano y en el espacioSi queremos representar objetos de la Física elemental como fuerza, despla-zamiento y velocidad, tenemos que utilizar vectores geométricos en el planoR2 o en el espacio tridimensional R3. En efecto los vectores geométricosnos permiten especi�car magnitud, dirección y sentido para estas cantidadesfísicas. Aquí sólo recordaremos las de�niciones básicas.

Dados tres segmentos orientados AB, CD y EF, en el espacio bidimensio-nal o tridimensional como en la �gura 2.1 a), para cada uno de ellos estándeterminados un punto de aplicación (respectivamente A, C y E), un ex-tremo o a�jo (respectivamente B, D y F), una magnitud representada porla longitud del segmento, y una dirección, que es la dirección de la rectaque lo contiene. Si ahora �jamos un punto O en nuestro espacio y dibuja-mos nuestras tres ��echas� a partir del punto O (es decir, si A=C=E=O),obtenemos la �gura 2.1 b), donde CD y EF coinciden y se pueden considerarequivalentes. Esta sencilla consideración está en la base de la de�nición devector geométrico.

Sobre el conjunto de todos los segmentos orientados del plano (o delespacio tridimensional) de�nimos la siguiente relación de equivalencia:

AB ∼ CD ⇔ AB y CD tienen igual magnitud, dirección y sentido.

Ejercicio 2.1.1 Veri�car que � ∼� es una relación de equivalencia.

De�nición 2.1.1 Si dos segmentos orientados pertenecen a la misma cla-se de equivalencia de las obtenidas al considerar la relación de equivalenciaanterior, se dice que son equivalentes.

Ahora el conjunto de todos los segmentos orientados se puede pensarcomo la unión disjunta de estas clases de equivalencia:

Page 74: Libro Completo Algebra

74 Álgebra

A

B

C

D E

F©©©©©©©©*

@@

@@R

@@

@@R

a)

O

B

D=F

©©©©©©©©*

@@

@@R

b)

Figura 2.1: Vectores geométricos

De�nición 2.1.2 Un vector geométrico v en R2 o en R3 es una clase deequivalencia de segmentos orientados respecto de la relación de equivalenciaanterior.

Como cada clase está formada por todos los segmentos orientados (en R2

o en R3) que tienen igual magnitud, dirección y sentido (es decir, por todoslos segmentos orientados que coinciden una vez que sean aplicados en unpunto pre�jado O), estos valores comunes de magnitud, dirección y sentidose llaman magnitud, dirección y sentido del vector v.

Se sigue de esta de�nición que dos vectores v1 y v2 son iguales si y solo sitienen igual magnitud, dirección y sentido.

Podemos, por tanto, representar un vector geométrico por cualquiera de

Page 75: Libro Completo Algebra

Álgebra 75

v

w

v+w

¢¢¢¢¢¢¢¢

½½

½½

½½

½½

½½

½½

½½½>

³³³³³³³³³³³1

A

B

C

a)

v

w

v-w

¢¢¢¢¢¢¢¢

³³³³³³³³³³³1HHHHHHHHY

b)

Figura 2.2: Operaciones con vectores geométricos

los segmentos orientados del conjunto que lo de�ne. En la �gura 2.1 a), CDy EF representan el mismo vector geométrico v porque di�eren solo en suspuntos de aplicación.

Nota: Abusando de la notación, se escribirá AB = v para denotar queel segmento orientado AB es un representante del vector v.

De�nición 2.1.3 Sean v y w dos vectores geométricos, la suma v+w esel vector de�nido por la regla del paralelogramo en la �gura 2.2 a). Si AB yBC representan los vectores v y w, respectivamente, el segmento orientadoAC representa el vector v + w.

Observación 19 Esta de�nición de suma de vectores no depende de los seg-mentos orientados elegidos para representar los vectores v y w.

Page 76: Libro Completo Algebra

76 Álgebra

Ejercicio 2.1.2 Veri�car, realizando el correspondiente dibujo, que para to-do par de vectores geométricos v y w, v + w = w + v.

El vector de magnitud cero es el vector cero y se denota por 0; paratodo vector v, v + 0 = 0 + v.

El opuesto de un vector v es el vector de igual dirección, magnitud quev, pero de sentido opuesto.

La sustracción de dos vectores está de�nida por v−w = v + (−w) y sepuede representar geométricamente como en �gura 2.2 b).

El producto de un vector por un escalar k ∈ R es el vector w = kvque tiene misma dirección que v, magnitud igual a k veces la magnitud de vy mismo sentido que v si k > 0 o opuesto si k < 0. Si k = 0, kv = 0.

Si ahora introducimos un sistema de coordenadas ortogonales en elplano (o en el espacio tridimensional), es decir si seleccionamos un puntoO, dos rectas orientadas mutuamente perpendiculares (o tres si se trata delespacio tridimensional) y una magnitud unitaria, cada punto P admitirá unarepresentación analítica en términos de coordenadas o componentes (x,y)en el caso del plano o (x,y,z) en el caso del espacio tridimensional. Comoel segmento orientado OP representará un vector v, diremos también queel vector v tiene componentes (x,y) (o (x,y,z)). Por tanto, dos segmentosorientados OP y OQ son equivalentes (es decir, representan el mismo vectorgeométrico v) si y sólo si los puntos P y Q tienen iguales coordenadas.

Las operaciones de�nidas sobre vectores geométricos se pueden ahora re-escribir en términos de coordenadas: sean v = (v1, v2, v3) y w = (w1, w2, w3)dos vectores en R3 y k ∈ R, entonces

v + w = (v1 + w1, v2 + w2, v3 + w3)

kv = (kv1, kv2, kv3)

v − w = (v1 − w1, v2 − w2, v3 − w3)

En le caso de vectores v y w en R2 estas operaciones están de�nidas de formaanáloga.

Ejercicio 2.1.3 En R3, sean k = 2, v1 = (−1, 2, 0), v2 = (4,−3, 2) y v3 =(−1,−1,−1). Hallar v1 − k(v1 + v2) + v3.

Page 77: Libro Completo Algebra

Álgebra 77

Nota: Todos los sistemas de coordenadas que consideraremos a lo largodel capítulo serán ortogonales.

Si P = (x1, x2, x3) y Q = (y1, y2, y3) son dos puntos en R3, el segmentoorientado PQ representa un vector v en R3 de coordenadas:

PQ = v = (y1 − x1, y2 − x2, y3 − x3) = Q− P.

De forma similar, dos puntos P = (x1, x2) y Q = (y1, y2) en R2 determinanun vector v = (y1 − x1, y2 − x2), que se puede representar por el segmentoorientado PQ.

Ejercicio 2.1.4 Sean P = (3,−2, 4) y Q = (−1, 4,−5), determinar las coor-denadas del vector v = PQ.

A veces la elección de un sistema de coordenadas adecuado puede sim-pli�car la solución de un problema. Las ecuaciones de traslación de losejes nos permiten de pasar de un sistema S a otro sistema S ′, cuyos ejes sonparalelos a los ejes de S.

En R2, sea O′, x′, y′ el origen y los ejes del nuevo sistema de coordenadasS ′. Un punto P en el plano tiene coordenadas (x, y) respecto del sistemaS y coordenadas (x′, y′) respecto del sistema S ′. Si las coordenadas de O′

respecto de S son O′ = (a, b), se veri�ca que

(x, y) = OP = OO′ + O′P = (a, b) + (x′, y′),

y, por tanto,x′ = x− a, y′ = y − b.

En el espacio tridimensional, si O′ = (a, b, c) respecto de S, las ecuaciones detraslación son

x′ = x− a, y′ = y − b, z′ = z − c.

Ejercicio 2.1.5 En R3, sean S y S ′ dos sistemas de coordenadas, dondeO′ = (−1, 2, 3) respecto de S. Encontrar las coordenadas en el sistema S ′

del punto P de coordenadas (−1, 0, 1) en S y las coordenadas en el sistemaS del punto Q de coordenadas (3,−1, 4) en S ′.

Las siguientes propiedades son de fácil demostración:

Page 78: Libro Completo Algebra

78 Álgebra

Teorema 2.1.4 Si x e y son vectores en R2 o en R3, y λ, µ son dos escalares,entonces

1. x + y = y + x2. (x + y) + z = x + (y + z)3. x + (0) = (0) + x = x4. x + (−x) = (0) y (−x) + x = (0)5. (λµ)x =λ(µx)6. λ(x + y) = λx+λy7. (λ + µ)x = λx + µx8. 1 · x = x

Utilizando el Teorema de Pitágoras, la magnitud o norma de un vectoren el plano o en el espacio tridimensional se puede determinar como sigue:para v = (x, y), ‖ v ‖≡

√x2 + y2

para v = (x, y, z), ‖ v ‖≡√

x2 + y2 + z2.Un vector de norma 1 se llama unitario .La distancia euclídea entre dos vectores v = (x1, x2) y w = (y1, y2) en

R2 es el número real

d(v, w) ≡‖ v − w ‖=√

(y1 − x1)2 + (y2 − x2)2.

La distancia euclídea entre dos vectores v = (x1, x2, x3) y w = (y1, y2, y3) enR3 es el número real

d(v, w) ≡‖ v − w ‖=√

(y1 − x1)2 + (y2 − x2)2 + (y3 − x3)2.

Si k es un escalar, ‖ kv ‖= |k| ‖ v ‖ .

Ejercicio 2.1.6 Sean v = (0, 2, 3), w = (2, 0,−4). Hallar ‖ v ‖, ‖ w ‖ yd(v, w).

Sean v y w dos vectores de R2 o de R3 representados por dos segmentosorientados AB y AC (estos dos segmentos tienen el mismo punto de aplica-ción). Si v 6= 0 y w 6= 0, en el plano que los contiene, AB y AC determinandos ángulos θ1 y θ2 = 2π − θ1.

Observación 20 Los dos ángulos determinados por v y w no dependen delos segmentos orientados elegidos para representar los vectores v y w.

Page 79: Libro Completo Algebra

Álgebra 79

Si v 6= 0 y w 6= 0, el ángulo entre v y w es el ángulo θ determinadopor AB y AC, que satisface la condición: 0 ≤ θ ≤ π.

De�nición 2.1.5 Si v 6= 0 y w 6= 0 son dos vectores del plano o del espaciotridimensional y θ es el ángulo entre v y w, el producto escalar euclídeo(o producto interior euclídeo) de v y w es el número real:

v · w =‖ v ‖‖ w ‖ cos(θ). (2.1)Si v = 0 o si w = 0, v · w = 0.

Ejercicio 2.1.7 En R3, sean v = (2, 0, 0) y w = (3, 3, 0). Hallar v · w.

Proposición 2.1.6 Sean v = (v1, v2, v3) y w = (w1, w2, w3) dos vectores deR3, entonces

v · w = v1w1 + v2w2 + v3w3

Sean v = (v1, v2) y w = (w1, w2) dos vectores de R2, entoncesv · w = v1w1 + v2w2

La demostración de esta proposición se sigue de la ley de los cosenos:‖w − v‖2 = ‖v‖2 + ‖w‖2 − 2‖v‖‖w‖ cos(θ) = ‖v‖2 + ‖w‖2 − 2v · w.

Si v y w son dos vectores no cero, de la ecuación 2.1 se deriva fácilmentela siguiente fórmula:

cos(θ) =v · w

‖ v ‖‖ w ‖ (2.2)

Ejercicio 2.1.8 Encontrar el ángulo entre una diagonal de un cubo y unode sus lados. (arccos( 1√

3) ≈ 54◦44′)

Teorema 2.1.7 Sean v y w dos vectores en el plano o en el espacio tridi-mensional. Entonces

a) ‖ v ‖=√

(v · v)

b) Si v 6= 0 y w 6= 0, el ángulo θ entre v y w

es agudo⇔ v · w > 0

es obtuso⇔ v · w < 0

θ =π

2⇔ v · w = 0

Page 80: Libro Completo Algebra

80 Álgebra

La demostración de este teorema es una aplicación de la fórmula 2.2.

Ejercicio 2.1.9 Dados v = (√

3, 0,−2) y w = (4, π, 37), veri�car que elángulo entre v y w es obtuso.

Hemos visto que si v 6= 0 y w 6= 0 son perpendiculares (es decir, si θ = π2),

el producto interior de v y w es cero. Si se admite que v y w puedan ser cero,la de�nición de vectores perpendiculares es la siguiente:

De�nición 2.1.8 Dos vectores v y w son ortogonales si v · w = 0.

Las siguientes propiedades son de fácil demostración:

Teorema 2.1.9 Sean u, v y w tres vectores en el plano o en el espaciotridimensional y sea k un número real:

1. u · v = v · u2. u · (v + w) = u · v + u · w3. k(u · v) = (ku) · v = u · (kv)4. v · v ≥ 0 y v · v = 0 ⇔ v = 0

Demostración Ejercicio.

Sea ahora v 6= 0 un vector bidimensional o tridimensional representadopor el segmento orientado OA y sea w 6= 0 otro vector del mismo espacio.Utilizando el producto interior es posible de�nir la proyección ortogonal delvector w sobre v como sigue. Representamos el vector w por un segmentoorientado OP como en la �gura 2.3. El segmento orientado OP1 representaun vector w1 y los segmentos P1P y OP2 el vector w2 = w − w1.

Entonces, w = w1 + w2, donde el vector w1 = pv(w) es la proyecciónortogonal de w sobre v o componente vectorial de w a lo largo de vy el vector w2 = w − pv(w) es la componente vectorial de w ortogonala v.

Teorema 2.1.10 Si v 6= 0 y w son dos vectores de R2 o de R3,

pv(w) = w1 =

(w · v‖ v ‖2

)v

w2 = w − w1 = w −(

w · v‖ v ‖2

)v

Page 81: Libro Completo Algebra

Álgebra 81

θ

O A

P

P1

P2

w

vw1

w2 w − w1

­­

­­

­­

­­

­­­Á

- -

66

Figura 2.3: Proyección ortogonal de w sobre v

Demostración Existe un escalar k tal que pv(w) = kv (ya que pv(w) esparalelo a v). Entonces w = w1 +w2 = kv +w2 y w · v = w1 · v +w2 · v =kv · v + w2 · v = k ‖ v ‖2 . 2

Se sigue fácilmente del último teorema y de las propiedades de la normaque la magnitud del vector pv(w) es:

‖ pv(w) ‖= |w · v|‖ v ‖ =‖ w ‖ | cos(θ)|

Es importante observar que la norma de pv(w) depende de la direcciónde v y no depende de su magnitud.Ejercicio 2.1.10 Sean v = (1,−4, 8) y w = (−2, 0,−1). Determinar elvector pv(w) y su magnitud.

2.1.1 Producto vectorial y producto mixtoDe�nición 2.1.11 Sean u = (u1, u2, u3), v = (v1, v2, v3) y w = (w1, w2, w3)tres vectores en R3, donde hemos �jado el sistema de coordenadas ortogonales

Page 82: Libro Completo Algebra

82 Álgebra

usual (O = (0, 0, 0), (e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1))).

• El producto vectorial es una operación en R3, que a cada par devectores (u, v) asocia el vector

u× v = (u2v3 − u3v2)e1 + (u3v1 − u1v3)e2 + (u1v2 − u2v1)e3 =

= det

(u2 u3

v2 v3

)e1 − det

(u1 u3

v1 v3

)e2 + det

(u1 u2

v1 v2

)e3.

• El producto mixto es una función del producto cartesiano R3×R3×R3

en R, que a cada terna de vectores (u, v, w) asocia el número realque se obtiene calculando el producto escalar del vector u con el vectorv × w :

u · (v × w) = u1(v2w3 − v3w2)− u2(v1w3 − v3w1) + u3(v1w2 − v2w1) =

= det

u1 u2 u3

v1 v2 v3

w1 w2 w3

.

Ejemplo 2.1.12 1) El producto vectorial de u = (1, 0, 1) y v = (−1, 2, 0) es

u× v = det

(0 12 0

)e1 − det

(1 1−1 0

)e2 + det

(1 0−1 2

)e3 =

= −2e1 − e2 + 2e3 = (−2,−1, 2).

2) El producto mixto de a = (1, 1, 0), u = (1, 0, 1) y v = (−1, 2, 0) es

a · (u× v) = det

1 1 01 0 1−1 2 0

= −2− 1 = −3.

Interpretación geométrica y propiedades del producto vectorial ydel producto mixto

• El vector u×v es ortogonal a u y a v y, por tanto, es ortogonal al planoque contiene a u y v.

• u× v = −v × u y u× v = 0 si y sólo si u y v son paralelos.

Page 83: Libro Completo Algebra

Álgebra 83

• ‖u × v‖ = ‖u‖‖v‖sin(θ), donde θ es el ángulo que forman u y v. Es-ta norma coincide con el área del paralelogramo determinado por losvectores u y v. (Para comprobarlo se puede utilizar la identidad deLagrange: ‖u× v‖2 = ‖u‖2‖v‖2 − (u · v)2.)

• u× (v + w) = u× v + u× w y (v + w)× u = v × u + w × u.

• El producto mixto u · (v×w) representa, en valor absoluto, el volumendel paralelepípedo individuado por los tres vectores u, v y w.

• u · (v × w) = 0 si y sólo si los tres vectores u, v y w pertenenecen almismo plano.

2.1.2 Rectas en le planoSean P0 = (x0, y0) y P1 = (x1, y1) dos puntos en el plano R2. El vectorP0P1 = (x1− x0, y1− y0) individua la dirección de la recta l que pasa por P0

y P1 y, por tanto, tiene pendiente igual a m =y1 − y0

x1 − x0

= tg(α), siendo α elángulo que la recta l forma con el eje de las x. Sea n = (a, b), un vector cuyadirección es perpendicular a la dirección de la recta l .

Utilizando los elementos que acabamos de de�nir, es posible representaruna recta l en el plano por medio de distinta ecuaciones:

• Ecuación vectorialSean P0 = (x0, y0) un punto �jado y P = (x, y) un punto genérico deuna recta l . Siendo n = (a, b) un vector ortogonal a l , se obtiene queel producto escalar n · PP0 = 0 (esta ecuación se puede llamar formapunto-normal).Utilizando los vectores v = OP y v0 = OP0, se obtiene la formavectorial de la ecuación de l :

n · (v − v0) = 0.

• Ecuación general implícitaSi desarrollamos la ecuación punto-normal anterior como

0 = n·PP0 = n·(x−x0, y−y0) = a(x−x0)+b(y−y0) = ax+by−(ax0+by0),

Page 84: Libro Completo Algebra

84 Álgebra

y llamamos −(ax0 +by0) = c, lo que se obtiene el la ecuación generalimplícita:

ax + by + c = 0.

• Ecuaciones paramétricasSean P0 = (x0, y0) un punto de la recta l , v = (v1, v2) un vectorparalelo a l y P = (x, y) el punto genérico de l . Entonces el vector P0Pes paralelo a v, es decir, existe un número real k tal que P0P = kv.Esta última ecuación, escrita en términos de coordenadas, de�ne lasecuaciones paramétricas de la recta l :

{x = x0 + kv1

y = y0 + kv2.k ∈ R

• Ecuación pendiente-ordenada en el origenEsta ecuación tiene la forma

y = mx + q,

donde m es al pendiente de la recta l y q es la ordenada del punto decorte con el eje de las y, (0, q).

Ejercicio 2.1.11 Sea P0 = (x0, y0) un punto del espacio bidimensional. De-mostrar que la fórmula para calcular la distancia entre el punto P0 y unarecta r de ecuación ax + by + c = 0 es

d(P0, r) =|ax0 + by0 + c|√

a2 + b2

Utilizar el hecho de que en R2 el vector n = (a, b) 6= (0, 0) es ortogonal a larecta de ecuación ax + by + c = 0.

Ejemplo 2.1.13 La distancia entre el punto P0 = (2,−1) y la recta r deecuación x− y + 3 = 0 es igual a d(P0, r) = |2+1+3|√

1+1= 6√

2.

Page 85: Libro Completo Algebra

Álgebra 85

2.1.3 Planos en el espacio tridimensionalPara determinar la ecuación de una recta r : ax + by + c = 0 en el espaciobidimensional es su�ciente conocer las componentes de un punto P = (x, y)de r y su coe�ciente angular. De forma análoga, en el espacio tridimensionalse puede determinar un plano π (y su ecuación) por uno de sus puntos P0 =(x0, y0, z0) y un vector n = (a, b, c) ortogonal a π mismo: todo punto P =(x, y, z) del plano π y distinto de P0 es tal que el segmento orientado P0P =(x − x0, y − y0, z − z0) sea perpendicular al vector n. Esta caracterizaciónde los puntos de π se puede expresar por la forma punto-normal de laecuación del plano π :

n · PP0 = a(x− x0) + b(y − y0) + c(z − z0) = 0 (2.3)

Utilizando los vectores OP = v = (x, y, z) y OP0 = v0 = (x0, y0, z0), laecuación 2.3 se puede reescribir en la forma vectorial:

n · (v − v0) = 0. (2.4)

Ejemplo 2.1.14 Según la fórmula 2.3, la ecuación del plano π que pasapor el punto P0 = (2, 0,−1) y es perpendicular a la dirección del vectorn = (1,−1, 4) es

(x− 2)− y + 4(z + 1) = x− y + 4z + 2 = 0.

La misma ecuación se obtiene utilizando la fórmula 2.4:n · (v − v0) = (1,−1, 4) · (x− 2, y, z + 1) = x− y + 4z + 2 = 0.

Teorema 2.1.15 Si n = (a, b, c) 6= (0, 0, 0), la forma implícita de la ecua-ción de un plano π ortogonal al vector n es:

ax + by + cz + d = 0 (2.5)

Demostración Si b 6= 0, ax+ by + cz +d = 0 ⇔ ax+ b(y + db)+ cz = 0. La

última ecuación es la forma punto-normal de la ecuación de un plano por elpunto P0 = (0,−d

b, 0) y ortogonal al vector n = (a, b, c). Si a 6= 0 o si c 6= 0,

se obtienen ecuaciones similares. 2

Page 86: Libro Completo Algebra

86 Álgebra

Ejercicio 2.1.12 Considerar un sistema de tres ecuaciones lineales en R3

a11x + a12y + a13z = b1

a21x + a22y + a23z = b2

a31x + a32y + a33z = b3

Ilustrar con ejemplos geométricos los casos en los cuales el sistema dado seaincompatible, compatible determinado y compatible.

El siguiente ejemplo muestra como se puede determinar la ecuación deun plano a partir de las componentes de tres de sus puntos:

Ejemplo 2.1.16 Sean P1 = (1, 0,−1), P2 = (2, 1, 0) y P3 = (−2, 3, 1) trespuntos de R3. Encontrar la ecuación del plano que los contiene.

Solución: A partir de la ecuación de un plano en forma general 2.5 y susti-tuyendo los valores de las variables (x, y, z) por las componentes de los trespuntos dados, se obtiene un sistema en las variables (a, b, c, d) de la forma

a− c + d = 02a + b + d = 0

−2a + 3b + c + d = 0

El conjunto solución de este sistema es {(−t,−5t, 6t, 7t) : t ∈ R}.Sustituyendo los valores encontrados para los coe�cientes a, b, c y d en la

ecuación 2.5, se obtiene el plano

−tx− 5ty + 6tz + 7t = 0, es decir, x + 5y − 6z + 7 = 0.

Teorema 2.1.17 Sean P0 = (x0, y0, z0) y π : ax+by+cz+d = 0 un punto yun plano en el espacio tridimensional, respectivamente. La siguiente fórmulanos da el valor de la distancia entre P0 y π:

d(P0, π) =|ax0 + by0 + cz0 + d|√

a2 + b2 + c2(2.6)

Page 87: Libro Completo Algebra

Álgebra 87

Demostración Ejercicio.(Sugerencia: Sean n = (a, b, c) el vector normal y Q = (x, y, z) un punto

del plano π. Entonces ‖pn(P0Q)‖ =‖P0Q · n‖‖n‖ .) 2

Ejercicio 2.1.13 a)Encontrar la distancia entre el punto P0 = (1,−2, 3) yel plano π : x− 2y + z = 1.

b)Encontrar la distancia entre los planos paralelos π : x − 2y + z = 1 yπ′ : 2x− 4y + 2z = 3.

2.1.4 Rectas en el espacio tridimensionalSea l una recta en el espacio tridimensional que pasa por el punto P0 =(x0, y0, z0) y es paralela al vector u = (a, b, c) 6= (0, 0, 0).

Si P = (x, y, z) es un punto de l distinto de P0, se veri�ca que P0P =(x − x0, y − y0, z − z0) = ku = (ka, kb, kc) para un escalar k ∈ R. Entoncesla recta l estará determinada por las ecuaciones paramétricas:

x = x0 + kay = y0 + kbz = z0 + kc

, donde k ∈ R. (2.7)

Sean P0 y P dos puntos de una recta l y sean OP0 = v0 y OP = v losvectores del espacio tridimensional correspondientes. Entonces se veri�ca laidentidad P0P = (x − x0, y − y0, z − z0) = v − v0. Si además u es un vectorparalelo a la recta l, se sigue que v − v0 = ku por un escalar k ∈ R.

Llamaremos forma vectorial de la ecuación de una recta en el es-pacio tridimensional a la ecuación:

v = v0 + ku (k ∈ R) (2.8)

Si para de�nir una recta l en el espacio tridimensional utilizamos unsistema de dos ecuaciones de dos planos cuya intersección es l , lo que seobtiene son las ecuaciones implícitas de l :

{a1x + b1y + c1z + d1 = 0

a2x + b2y + c2z + d2 = 0

Page 88: Libro Completo Algebra

88 Álgebra

Ejercicio 2.1.14 a)Encontrar las ecuaciones paramétricas de la recta l quepasa por los puntos P0 = (3,−2, 0) y P = (−5, 13, 4).

b)Encontrar las ecuaciones paramétricas de la recta l intersección de losplanos 3x + 2y − 4z − 6 = 0 y 2x− 6y − 4z − 8 = 0.

c)Encontrar la forma vectorial de la ecuación de la recta l de ecuacionesparamétricas:

x = 2 + 3ky = −5− k

z = 7k, donde k ∈ R. (2.9)

Page 89: Libro Completo Algebra

Álgebra 89

2.2 Espacios vectoriales sobre un cuerpo KSegún hemos visto, en los espacios R2 y R3 se satisfacen las propiedades1) a 8) recogidas en el teorema 2.1.4 respecto de la suma y del productopor escalares (las propiedades 1 a 4 son las que indican que R2 y R3 tienenestructura de grupo abeliano respecto de la suma). Veremos que, en general,si (K, +, ·) es un cuerpo, (Kn, +, ·) también satisface dichas propiedades.Estas propiedades son las que dan lugar a la de�nición de espacio vectorialsobre un cuerpo (K, +, ·).

De�nición 2.2.1 Sea (K, +, ·) un cuerpo. Llamaremos espacio vectorialsobre el cuerpo (K, +, ·) a cualquier 3-tupla (E,⊕, ◦) formada por un con-junto no vacío E, una operación ⊕ : E × E → E, y una función (productopor escalares) ◦ : K×E → E de manera que se satisfagan las siguientespropiedades:

1. (E,⊕) es un grupo abeliano;

2. ∀u, v ∈ E ∀α ∈ K (α ◦ (u⊕ v) = α ◦ u ⊕ α ◦ v),

3. ∀u ∈ E ∀α, β ∈ K ((α + β) ◦ u = α ◦ u ⊕ β ◦ u),

4. ∀u ∈ E ∀α, β ∈ K ((α · β) ◦ u = α ◦ (β ◦ u)),

5. siendo 1 ∈ K el elemento neutro de �·�, ∀u ∈ E (1 ◦ u = u).

A los elementos de K, que habitualmente representaremos por letras delalfabeto griego, se les denomina escalares y a los elementos de E, que habi-tualmente representaremos por letras del alfabeto latino (y en ocasiones ennegrita), vectores.

En este contexto, el término vector servirá para designar en lo sucesi-vo a un elemento del espacio vectorial sobre el que se esté trabajando, yno necesariamente a un �vector geométrico� determinado por un segmentoorientado.

Es usual, dada la sobrecarga de notación derivada del uso de tres ope-raciones y un producto por escalares, el adoptar el siguiente convenio denotación universalmente aceptado.

Page 90: Libro Completo Algebra

90 Álgebra

Operacion Nombre de la operación Notación+ : K×K→ K suma de escalares +· : K×K→ K producto de escalares ·⊕ : E× E → E suma de vectores +◦ : K×E → E producto de vectores por escalares ·

Con esta nueva notación los axiomas de espacio vectorial se escribirán:

1. (E, +) es un grupo abeliano;

2. ∀u, v ∈ E ∀α ∈ K (α · (u + v) = α · u + α · v),

3. ∀u ∈ E ∀α, β ∈ K ((α + β) · u = α · u + β · u),

4. ∀u ∈ E ∀α, β ∈ K ((α · β) · u = α · (β · u)),

5. siendo 1 ∈ K el elemento neutro de � ·,� ∀u ∈ E (1 · u = u),

donde en cada caso la naturaleza de la operación (es decir, si se trata de lasuma enK o en E y lo mismo con el producto de un escalar por un elemento deE y el producto en K) quedará normalmente determinada por la naturalezade los operandos. Así por ejemplo, si E =Mm×n(R), A, B ∈ Mm×n(R), yα, β ∈ R, en la expresión

(α + β) · Aes obvio que la suma considerada es la suma de los números reales α y β,mientras que en la expresión

α · (A + B)

la suma considerada es la de�nida en Mm×n(R).

También señalaremos que es usual omitir el � ·�, escribiendo por ejemploα(βu) en lugar de α · (β · u), por lo que habitualmente lo haremos así.

Ejemplos de espacios vectoriales con los que ya hemos trabajado son:

• Las matrices �la con coe�cientes reales ó complejos M1×n(K) con res-pecto de la suma de �las y producto de una �la por un número.

Page 91: Libro Completo Algebra

Álgebra 91

• Los vectores geométricos del plano y del espacio respecto de la sumade vectores y producto por escalares de�nidos en la primera parte delcapítulo.

• Las propiedades que satisfacen las matrices de orden m× n con coe�-cientes en un cuerpo K respecto de la suma y producto por escalaresde�nidos hacen que Mm×n(K) tenga estructura de espacio vectorial res-pecto de dichas operaciones.

Observación 21 Si (E, +, ·) es un espacio vectorial sobre el cuerpo (K, +, ·),y las operaciones + y · son las usuales del cuerpo K, diremos simplementeque (E, +, ·) es un K-espacio vectorial (abreviadamente: “(E, +, ·) es un K−e.v.)�, o simplemente, que E tiene estructura de espacio vectorial con respectoa las operaciones + : E×E → E y · : K×E → E, y si la suma y el productopor escalares considerados están prede�nidos o se sobrentiende cuales son,diremos de forma abreviada que “E es un K− e.v.′′.

Ejemplo 2.2.2 Sea (K, +, ·) un cuerpo. La terna (K, +, ·) es un (K, +, ·)−espacio vectorial, puesto que, como consecuencia de la de�nición de cuerpo,y en particular, de la propiedad distributiva del producto del cuerpo respectode la suma, de la asociatividad del producto y de la existencia de elementoneutro para el producto, tendremos

1. (K, +) es un grupo abeliano;

2. ∀u, v ∈ K ∀α ∈ K α · (u + v) = α · u + α · v,

3. ∀u ∈ K ∀α, β ∈ K (α + β) · u = α · u + β · u,

4. ∀u ∈ K ∀α, β ∈ K (α · β) · u = α · (β · u),

5. Siendo 1 ∈ K el elemento neutro de �·′′, ∀u ∈ K (1 · u = u).

Así pues, el cuerpo (R, +, ·) es un R−e.v., el cuerpo (C, +, ·) es un C−e.v.y el cuerpo (Z2, +, ·) es un Z2 − e.v.

Page 92: Libro Completo Algebra

92 Álgebra

2.2.1 Propiedades de vectoresLa siguiente proposición recoge una serie de propiedades que se satisfacen entodo espacio vectorial, donde, para mayor claridad, a los vectores los hemosdestacado en negrita.

Proposición 2.2.3 Si E es un K− e.v. se veri�can las siguientes propieda-des:

1. ∀u ∈ E, 0 · u = 0;2. ∀α ∈ K, α · 0 = 0;3. ∀α ∈ K, ∀u ∈ E, ((α · u = 0) ⇒ (α=0 ∨ u = 0)) ;4. ∀u ∈ E, (−1) · u = −u;5. ∀α ∈ K− {0},∀u,v ∈ E, ((α · u =α · v) ⇒ (u = v)) ;6. ∀α, β ∈ K,∀u ∈ E− {0}, ((α · u =β · u) ⇒(α = β)) .

Demostración 1. Dado u ∈ E,

0 · u = (0 + 0) · u =0 · u+0 · u,

y puesto que el único elemento idempotente del grupo (E, +) es el elemento0 ∈ E, concluímos que

0 · u = 0.

2. Dado α ∈ K,

α · 0 =α · (0 + 0) = α · 0 + α · 0,

por lo que, razonando análogamente a la propiedad anterior, concluímos queα · 0 = 0.

3. Sean α ∈ K y u ∈ E, y supongamos que α · u = 0. Caben dos posibi-lidades.

a) Si α = 0, entonces no hay nada que demostrar, puesto que en ese casola sentencia (α=0 ∨ u = 0) es verdadera.

b) Si α 6= 0, consideramos el elemento α−1 ∈ K. Multiplicando a amboslados de la igualdad por α−1 obtenemos

α−1 · (α · u) = α−1 · 0 = 0;

pero por los axiomas de espacio vectorial

α−1 · (α · u) =(α−1 · α) · u =1 · u = u,

Page 93: Libro Completo Algebra

Álgebra 93

es decir , u = 0.4. Sea u ∈ E. Puesto que −1 ∈ K es opuesto de 1 en el grupo (K, +),

tendremos

(− 1) · u + u = (− 1) · u+1 · u = (− 1 + 1) · u = 0,

y puesto que (E, +) es un grupo (abeliano), tendremos también

u + (− 1) · u = 0,

es decir, (− 1) ·u es el elemento opuesto de u en el grupo (E, +), o lo que eslo mismo, (− 1) · u = −u.

5. Sean α ∈ K− {0},u,v ∈ E, y supongamos que α · u =α · v. Multipli-cando ambos miembros de esta igualdad por α−1 obtenemos

α−1 · (α · u) =α−1 · (α · v) ,

o lo que es lo mismo,(α−1 · α) · u =

(α−1 · α) · v,

de donde u = v.6. Sean α, β ∈ K y u ∈ E− {0}, y supongamos que α · u =β · u. En ese

caso necesariamenteα · u + (−(β · u)) = 0.

Pero de los axiomas de espacio vectorial y de las propiedades anteriores sesigue que

α · u + (−(β · u)) =α · u + (−β) · u = (α + (−β)) · u;

es decir,(α + (−β)) · u = 0

siendo u 6= 0, con lo que (α + (−β)) = 0, o lo que es lo mismo, α = β. 2

2.2.2 Producto cartesiano de espacios vectorialesVamos ahora a comprobar que el producto cartesiano de espacios vectorialeses un espacio vectorial, resultado que recogemos en la siguiente proposición:

Page 94: Libro Completo Algebra

94 Álgebra

Proposición 2.2.4 Si (E1, +1, ·1), · · · , (En, +n, ·n) son n K− e.v. entoncesel conjunto E = E1 × · · · × En tiene estructura de espacio vectorial respectode las operaciones

+ : E× E −→ E((u1, · · · , un), (v1, · · · , vn)) ; (u1 +1 v1, · · · , un +n vn)

y· : K×E −→ E

(α, (u1, · · · , un)) ; (α ·1 u1, · · · , α ·n un)

Para realizar dicha comprobación resulta natural utilizar el símbolo �+�tanto para referirnos a cualquiera de las sumas +1, · · · , +n como para desig-nar la suma de�nida en E1 × · · · × En, y lo mismo haremos con el símbolo�· � (que incluso se omite por convenio de notación), de manera que, en ca-da caso, la operación considerada queda determinada por la naturaleza delos operandos; en otras palabras, para cada i ∈ {1, · · · , n}, si ui, vi ∈ Ei,entonces

ui + vi = ui +i vi y αui = α ·i (ui) .

Así por ejemplo, puesto que E1, · · · ,En son �n� K− e.v., en particular

(E1, +), · · · , (En, +)

son grupos abelianos y, en esas condiciones no es difícil veri�car que

(E1 × · · · × En, +)

es también un grupo abeliano.Por otra parte veamos que ∀u, v ∈ E y ∀α ∈ K

α · (u + v) = α · u + α · v :

Si u, v ∈ E, u = (u1, · · · , un) y v = (v1, · · · , vn), por de�nición

(u + v) = (u1 + v1, · · · , un + vn)

y, en consecuencia, según se ha de�nido la ley de composición externa en E,

α · (u1 + v1, · · · , un + vn) = (α (u1 + v1) , · · · , α(un + vn)),

Page 95: Libro Completo Algebra

Álgebra 95

y por la propiedad distributiva que satisface el producto por escalares respec-to de la suma de vectores en cada uno de los espacios vectoriales (Ei, +i, ·i)tendremos que, en de�nitiva,

α · (u + v) = α · (u1 + v1, · · · , un + vn) =

= (α (u1 + v1) , · · · , α(un + vn)) =

= (αu1 + αv1, · · · , αun + αvn) =

= (αu1, · · · , αun) + (αv1, · · · , αvn) =

= α(u1, · · · , un) + α(v1, · · · , vn) =

= α · u + α · v

La demostración de que se satisfacen el resto de las propiedades necesariaspara que E1×· · ·×En tenga estructura de K−e.v. respecto de las operacionesconsideradas se propone como ejercicio.

En particular, como consecuencia de la proposición anterior tenemos quesi (K, +, ·) es un cuerpo, entonces ∀n ∈ N (Kn, +, ·) es un K − e.v., siendolas operaciones de�nidas sobre Kn las de�nidas en la proposición anterior.Estas son las operaciones que se deben dar por sobreentendidas siempre quehagamos alusión al K− e.v. Kn.

Ejemplo 2.2.5 Casos particulares del apartado anterior:

1. (R3, +, ·) es un R− e.v., donde si (x, y, z), (x′, y′, z′) ∈ R3 y α ∈ R,

(x, y, z) + (x′, y′, z′) = (x + x′, y + y′, z + z′)

α(x, y, z) = (αx, αy, αz)

siendo x + x′, y + y′ y z + z′ la suma habitual de estos números reales, yαx, αy y αz el producto habitual de estos números reales.

2. Del mismo modo que en el ejemplo anterior, (C2, +, ·) es un C− e.v.,sobrentendiéndose cuáles son las operaciones de�nidas sobre C2.

3. Análogamente, (Z322 , +, ·) es un Z2 − e.v..

4. El espacio Mm,n(R)× C[x] es un R−espacio vectorial.

Page 96: Libro Completo Algebra

96 Álgebra

2.2.3 Funciones con codominio en un espacio vectorialSi E es un K−e.v., y denotamos por F(X,E) al conjunto formado por todaslas funciones de�nidas sobre un conjunto cualquiera X 6= ∅ y tales que suimagen está contenida en E,

F(X,E) = {f : X −→ E : f es una función} ,

resulta que este conjunto tiene estructura de K− e.v., según se recoge en lasiguiente proposición.

Proposición 2.2.6 Si X 6= ∅ y E es un K − e.v., entonces (F(X,E), +, ·)es un K−e.v., donde ∀f, g ∈ F(X,E) f +g ∈ F(X,E) es la función de�nida∀x ∈ X por la siguiente expresión (f + g)(x) = f(x) + g(x) (nótese que lasuma del lado izquierdo de la igualdad es la suma de funciones, y que la dellado derecho es la suma de E) y ∀f ∈ F(X,E), ∀α ∈ K , (αf) ∈ F(X,E) esla función determinada ∀x ∈ X por la siguiente expresión (αf)(x) = αf(x).

Demostración Siendo f + g la función de�nida por la condición

∀x ∈ X (f + g)(x) = f(x) + g(x)

resulta que tenemos de�nida una operación sobre F(X,E):

+ : F(X,E)×F(X,E) −→ F(X,E)(f, g) ; f + g

Además, se veri�ca que:1. + es asociativa, pues si f, g, h ∈ F(X,E), y x ∈ X

((f + g) + h) (x) = (f + g)(x) + h(x) = (f(x) + g(x)) + h(x) =

= f(x) + (g(x) + h(x)) = f(x) + (g + h)(x) =

= (f + (g + h)) (x)

con lo que (f + g) + h = f + (g + h).2. + es conmutativa, pues si f, g ∈ F(X,E), y x ∈ X,

(f + g)(x) = f(x) + g(x) = g(x) + f(x) = (g + f)(x)

con lo que (f + g) = (g + f).

Page 97: Libro Completo Algebra

Álgebra 97

3. Es inmediato comprobar (verifíquese) que la función constante

0 : X −→ Ex ; 0

es el elemento neutro de (F(X,E), +).4. Del mismo modo, es inmediato comprobar (verifíquese) que ∀f ∈

F(X,E) el elemento simétrico de f respecto de + es la función

(−f): X −→ Ex ; −(f(x))

,

es decir, ∀x ∈ X (−f)(x) = −(f(x)) donde −(f(x)) es el elemento opuestode f(x) en (G, +). Al ser (E, +) un grupo abeliano, (F(X,E), +) también loes, donde

f + g : X → Ex ; f(x) + g(x)

.

Veamos ahora que la operación

· : K×F(X,E) −→ F(X,E)(α, f) ; αf

dondeαf : X → E

x ; αf(x)

satisface el resto de propiedades:5. Sean f, g ∈ F(X,E). Hay que demostrar que ∀α ∈ K

α(f + g) = αf + αg.

Sea α ∈ K. Puesto que(α(f + g)) : X → E

y(αf + αg) : X → E,

para demostrar que dichas aplicaciones son iguales es su�ciente con probarque

∀x ∈ E, (α(f + g))(x) = (αf + αg)(x).

Page 98: Libro Completo Algebra

98 Álgebra

Sea x ∈ E. Por de�nición

(α(f + g))(x) = α ((f + g)(x)) = α (f(x) + g(x)) =

(por la distributividad en E del producto porescalares respecto de la suma de vectores)

= αf(x) + αg(x) = (αf)(x) + (αg)(x) = ((αf) + (αg)) (x).

6. Hay que probar que ∀f ∈ F(X,E) ∀α, β ∈ K

(α + β)f = αf + βf.

Se demuestra de forma análoga a la propiedad que acabamos de ver, por loque se propone como ejercicio.

7. Sean f ∈ F(X,E) y α, β ∈ K . Hay que demostrar que

(αβ)f = α(βf).

Puesto que((αβ)f) : X → E

y(α(βf)) : X → E,

para demostrar que dichas aplicaciones son iguales es su�ciente probar que∀x ∈ E

((αβ)f)(x) = (α(βf))(x).

Sea x ∈ E. Por de�nición

((αβ)f)(x) = (αβ)f(x) = (puesto que α,β ∈ K, f(x) ∈ E

y E es un K-e.v.)= α(βf(x)) = α((βf)(x)) = (α(βf))(x).

8. Finalmente, dado 1 ∈ K, ∀f ∈ F(X,E)

(1 · f) = f,

pues si f ∈ F(X,E) es una función cualquiera de ese conjunto, dado que

(1 · f) : X → E y f : X → E,

Page 99: Libro Completo Algebra

Álgebra 99

y teniendo en cuenta que ∀x ∈ E,

(1 · f)(x) = 1 · f(x) = f(x),

concluímos que (1 · f) = f. 2

Ejemplos. Como consecuencia de la proposición anterior, los siguientesconjuntos tienen estructura de espacio vectorial respecto de las operacionesconsideradas en la misma.

1. Si (K, +, ·) es un cuerpo, el conjunto F(K,K). En particular, el con-junto F(R,R) de las funciones reales de variable real y el conjunto F(C,C)de las funciones complejas de variable compleja.

2. El conjunto F(R,C) de las funciones complejas de variable real es unC− e.v.

3. El conjunto F(N,E) de las sucesiones de elementos de un K − e.v.E. En particular F(N,R), F(N,C), F(N,R3) tienen estructura de espaciovectorial respecto de las operaciones consideradas en la proposición anterior.(Como ejercicio, escríbase cual es la expresión explícita de dichas operacionesparticularizadas en cada uno de los subespacios de este ejemplo).

4. El conjunto Mm×n(K) = F({1, · · · ,m}×{1, · · · , n},K) de las matricesde m �las y n columnas con coe�cientes en un cuerpo K y, en particular, elconjunto de las matrices cuadradas de n �las, al que denotamos por Mn(K).

5. Combinando los ejemplos anteriores también son espacios vectoriales,respecto de la suma y producto por escalares introducidos, el conjunto

F(N,F(R,R))

de las sucesiones de F(R,R), el conjunto

F(N,M2(C))

de las sucesiones de matrices de M2(C), el conjunto

F(M3(C),M3(C)),

el conjuntoF(N,F(R,R)×F(R,R)),

el conjuntoF(C,C×M5(C)),

y un largo etcétera.

Page 100: Libro Completo Algebra

100 Álgebra

2.3 Subespacios vectorialesSiendo E un K − e.v. y H ⊂ E, se dice que H es un subespacio vectorialde E si H tiene estructura de espacio vectorial respecto de las operacionesinducidas por las de E. Por consiguiente, teniendo en cuenta que si + y· satisfacen las propiedades necesarias para que E sea un K − e.v. (+ esasociativa, conmutativa,· · · ), dichas propiedades también se satisfacen en elcaso particular de que los vectores sean de H, y que siendo 0 ∈ K y u ∈ H,0 · u = 0, lo único que necesitamos para que H sea un subespacio vectorialde E es que el resultado obtenido al hacer actuar dichas operaciones sobreelementos de H sea un elemento de H, es decir:

De�nición 2.3.1 Si E es un K − e.v. y H ⊂ E, se dice que H es un sub-espacio vectorial de E si:

1. H 6= ∅.2. ∀u, v ∈ H u + v ∈ H.3. ∀α ∈ K, ∀u ∈ H αu ∈ H.

En lo sucesivo utilizaremos la notación H ≺ E para indicar que H es unsubespacio vectorial de E.

Proposición 2.3.2 Sean E un K− e.v. y H ⊂ E. Se veri�ca que H ≺ E siy sólo si

a) 0 ∈ H

b) ∀u, v ∈ H, ∀α, β ∈ K se veri�ca que (αu + βv) ∈ H.

Demostración Ejercicio. Indicación: veri�car que las condiciones 1, 2 y3 de la de�nición equivalen a las condiciones a) y b). 2

Observación 22 De la de�nición de subespacio vectorial se sigue que, sien-do E un K− e.v. se veri�ca que E ≺ E y que {0} ≺ E.

Page 101: Libro Completo Algebra

Álgebra 101

Observación 23 No es difícil demostrar, razonando por inducción sobre n,que si E es un K− e.v. y H ≺ E , entonces se veri�ca que

∀(u1, · · · , un) ∈ Hn,∀(α1, · · · , αn) ∈ Kn,

(n∑

i=1

αiui

)∈ H.

(De manera informal: si H ≺ E, u1, · · · , un son vectores de H, y α1, · · · , αn

son escalares, necesariamente α1u1 + · · ·+ αnun ∈ H.)

EJEMPLOS:1. Puesto que si H ≺ E, necesariamente 0 ∈ H, no es difícil comprobar

que cualquier plano de R3 que pase por el punto (0, 0, 0) es un subespaciovectorial de R3. Igualmente, cualquier recta de R3 que pase por el punto(0, 0, 0) es un subespacio vectorial de R3. Cuando introduzcamos el concep-to de dimensión veremos que los únicos subespacios vectoriales de R3 son:{0},R3, las rectas que pasan por 0 =(0, 0, 0) y los planos que pasan por 0.(De forma análoga, los únicos subespacios de R2 son: {0},R2 y las rectasque pasan por 0).

2. El conjunto formado por todas las soluciones de un sistema homogéneode m ecuaciones lineales con n incógnitas y con coe�cientes en un cuerpoK es un subespacio vectorial de Kn

a11x1 + · · ·+ a1nxn = 0...

am1x1 + · · ·+ amnxn = 0

.

Para comprobarlo, sólo hay que veri�car que si (α1, · · · , αn), (β1, · · · , βn) ∈Kn son soluciones del sistema anterior y α ∈ K, entonces (α1+β1, · · · , αn+βn)también es solución del sistema, y lo mismo sucede con (αα1, · · · , ααn).

3. C[x] ≺ F(C,C), puesa) 0 ∈ C[x];

b) si f, g ∈ C[x] y α, β ∈ K , de la de�nición de C[x] se sigue que∃n,m ∈ N ∪ {0}, ∃(a0, · · · , an) ∈ Cn+1, ∃(b0, · · · , bm) ∈ Cm+1 tales que∀x ∈ C se veri�ca que

f(x) = anxn + · · ·+ a0 ∧ g(x) = bmxm + · · ·+ b0;

Page 102: Libro Completo Algebra

102 Álgebra

evidentemente, si n ≥ m, poniendo ∀i ∈ {m + 1, · · · , n} bi = 0, tendremosque

∀x ∈ C (αf + βg)(x) =

= α

(n∑

i=0

aixi

)+ β

(n∑

i=0

bixi

)=

=n∑

i=0

(αai + βbi) xi,

es decir, (αf + βg) ∈ C[x].4. Siendo Pn(C) el conjunto de polinomios con coe�cientes en C de grado

≤ n, se veri�ca que Pn(C) ≺ C[x] puesi) 0 ∈ Pn(C), con lo que Pn(C) 6= ∅.ii) Dados f, g ∈ Pn(C), teniendo en cuenta que

gr(f + g) ≤ max{gr(f), gr(g)} ≤ n,

resulta que f + g ∈ Pn(C)iii) Dados f ∈ Pn(C) y α ∈ K, hay que distinguir dos posibilidades: si

α = 0, entonces αf = 0 ∈ Pn(C); por otra parte si α 6= 0, teniendo en cuentaque gr(αf) = gr(f), se sigue que en cualquier caso αf ∈ Pn(C).

5. Si denotamos por C(R,R) al conjunto de funciones reales de variablereal que son continuas en todos los puntos de R, teniendo en cuenta quecualquier función constante es continua (con lo que C(R,R) 6= ∅), que sif, g ∈ C(R,R), entonces f + g ∈ C(R,R), y que si α ∈ R y f ∈ C(R,R),entonces αf ∈ C(R,R), resulta que

C(R,R) ≺ F(R,R).

Por el mismo motivo, el conjunto de las funciones reales de�nidas en el con-junto

[a, b] = {x ∈ R |a ≤ x ≤ b}y continuas en todos los puntos de este intervalo, conjunto al que denotamospor C([a, b],R), constituye un subespacio vectorial de F([a, b],R).

Observación 24 Puesto que todo subespacio vectorial de un espacio vecto-rial dado es a su vez un espacio vectorial, es posible referirnos a cada uno de

Page 103: Libro Completo Algebra

Álgebra 103

los ejemplos anteriores como espacios vectoriales; de este modo, hablaremosdel espacio vectorial de las funciones continuas C(R,R), del espacio vectorialde los polinomios de grado ≤ n, etc..

Ejercicio 2.3.1 Se dice que A ∈ Mn(K) es simétrica si tA = A. Si denota-mos por Sn(K) al conjunto de las matrices simétricas de orden n, demostrarque Sn(K) ≺ Mn(K).

Proposición 2.3.3 Si X 6= ∅, E es un K− e.v. y S ⊂ X, el conjunto

H = {f ∈ F(X,E) |f(S) = {0}}

es un subespacio vectorial de F(X,E).

Demostración Ejercicio.

Corolario 2.3.4 Las matrices triangulares superiormente, T n(K), inferior-mente Tn(K) y diagonales Dn(K) son subespacios vectoriales de Mn(K).

Demostración Es su�ciente con aplicar la proposición anterior teniendoen cuenta que, siendo

ST = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i > j },

ST = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i < j }y

SD = {(i, j) ∈ {1, · · · , n} × {1, · · · , n} |i 6= j },se veri�ca

T n(K) ={A ∈ Mn(K)

∣∣A(ST ) = {0}},

Tn(K) = {A ∈ Mn(K) |A(ST ) = {0}}y

Dn(K) = {A ∈ Mn(K) |A(SD) = {0}} .

2

Page 104: Libro Completo Algebra

104 Álgebra

2.4 Dependencia e independencia linealDe�nición 2.4.1 Si E es un K − e.v., un sistema de vectores de E escualquier secuencia �nita de vectores de E. Así, si u1, · · · , un ∈ E, la secuen-cia u1, · · · , un es un sistema de n vectores de E.

Observación 25 Para mayor claridad, en ocasiones escribiremos {u1, · · · , un}para referirnos al sistema u1, · · · , un.

De�nición 2.4.2 Si {u1, · · · , un} es un sistema de vectores de E, diremosque v ∈ E es combinación lineal de u1, · · · , un si ∃(α1, · · · , αn) ∈ Kn talque v =

n∑i=1

αiui.

Observación 26 Si v ∈ E es combinación lineal de u1, · · · , un también di-remos que v ∈ E depende linealmente de u1, · · · , un.

Ejemplo 2.4.3 Si consideramos en el R−e.v. R2 con su estructura de espa-cio vectorial habitual, resulta que (11, 7) depende linealmente de (2, 1), (1, 0),y (3, 2), puesto que

(11, 7) = (2, 1) + 3 · (3, 2).

Por el mismo motivo, (−3, 0) depende linealmente de (1, 1), (1, 4), pues

(−3, 0) = (−4) · (1, 1) + 1 · (1, 4).

Si E es un K− e.v. y A ⊂ E denotaremos por

L(A) = {v ∈ E |v es combinación lineal de un sistema de vectores de A}.

La siguiente proposición establece que si E es un K− e.v. y A ⊂ E, L(A)es el subespacio vectorial �más pequeño� que contiene a A.

Proposición 2.4.4 Sean E un K−e.v. y A ⊂ E. Se veri�ca que: 1) L(A) ≺E, 2)A ⊂ L(A) y 3)∀H ′ ≺ E (A ⊂ H ′ ⇒ L(A) ⊂ H ′).

Page 105: Libro Completo Algebra

Álgebra 105

Demostración Sea H = L(A).1. Es obvio que 0 ∈ H y, por otra parte, dados α, β ∈ K, y u, v ∈ H, de

la de�nición de H se sigue que existen u1, · · · , un y v1, · · · , vm sistemas devectores de A y ∃(α1, · · · , αn) ∈ Kn,∃(β1, · · · , βm) ∈ Km de manera que

u =n∑

i=1

αiui y v =m∑

i=1

βivi,

por lo que

αu + βv = α

(n∑

i=1

αiui

)+ β

(m∑

i=1

βivi

)=

=n∑

i=1

(ααi) ui +m∑

i=1

(ββi)vi =

=n+m∑i=1

γiwi,

donde hemos puesto ∀i ∈ {1, · · · , n + m},

(i ≤ n ⇒ γi = (ααi) ∧ wi = ui)

(n < i ≤ n + m ⇒ γi = (ββi) ∧ wi = vi) ,

y en consecuencia, puesto que w1, · · · , wn+m es un sistema de n+m vectoresde A, concluímos que

αu + βv ∈ H.

2. Si v ∈ A, podemos poner, por ejemplo, que v = 1 · v, siendo 1 ∈ K y{v} el sistema de vectores de A considerado, con lo que v ∈ H.

3. Finalmente, si H ′ ≺ E es tal que A ⊂ H ′, según vimos en su momento,cualquier combinación lineal de elementos de H ′ (en particular de elementosde A ⊂ H ′) es un elemento de H ′, con lo que H ⊂ H ′. 2

De�nición 2.4.5 Si E es un K− e.v. y u1, · · · , un es un sistema de vecto-res de E, al subespacio vectorial L({u1, · · · , un}) se le denomina subespacio

Page 106: Libro Completo Algebra

106 Álgebra

vectorial generado por el sistema u1, · · · , un, y del sistema u1, · · · , un sedice que es un sistema generador de H = L({u1, · · · , un}). A este subes-pacio también lo denotaremos por L(u1, · · · , un).

Observación 27 Nótese que si todo vector de E se puede expresar como unacombinación lineal de u1, · · · , un, resulta que el subespacio vectorial generadopor u1, · · · , un es H = L({u1, · · · , un}) = E, que obviamente es un subespaciovectorial de E.

Ejemplos:1. Los vectores (1, 0) y (0, 1) constituyen un sistema generador de R2, pues

cualquier vector de R2 se puede expresar como combinación lineal del sistema(1, 0), (0, 1), ya que si (a, b) ∈ R2, (a, b) = a(1, 0) + b(0, 1). Análogamente

(1, 0, 0), (0, 1, 0), (0, 0, 1)

es un sistema generador de R3 y, en general, el sistema de n vectores de Kn

(1, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, · · · , 0, 1)

es un sistema generador de Kn.

2. Los polinomios 1, x, x2, · · · , xn constituyen un sistema generador dePn(C), pues si f ∈ Pn(C), f es de la forma f = a0 + · · · + anx

n (ya que∀z ∈ C, f(z) = (a0 + · · ·+ anx

n)(z) = a0 + · · ·+ anzn).3. Como hemos visto, los vectores (1, 0) y (0, 1) constituyen un sistema

generador de R2. Pero el sistema (1, 0), (0, 1), (3, 1) también es un sistemagenerador de R2, pues si (a, b) ∈ R2,

(a, b) = a(1, 0) + b(0, 1) + 0(3, 1).

De hecho, cualquier sistema de vectores de R2 que contenga a (1, 0) y(0, 1) será un sistema generador de R2.

Nos interesa caracterizar los sistemas generadores con el menor númeroposible de elementos. Estos sistemas de vectores serán los sistemas de vectoresque, constituyendo un sistema generador, son linealmente independientes.De�nición 2.4.6 Siendo E un K−e.v., se dice que el sistema u1, · · · , un devectores de E es libre (o también que los vectores u1, · · · , un son linealmenteindependientes) si se veri�ca que ∀(α1, · · · , αn) ∈ Kn

(n∑

i=1

αiui = 0 ⇒(α1, · · · , αn) = (0, · · · , 0)

)

Page 107: Libro Completo Algebra

Álgebra 107

Si el sistema de vectores u1, · · · , un no es libre, se dice que es ligado (otambién que los vectores u1, · · · , un son linealmente dependientes). Asípues,

u1, · · · , un es ligado⇔(∃(α1, · · · , αn) ∈ Kn − {(0, · · · , 0)} tales que

n∑i=1

αiui = 0

).

Ejemplo 2.4.7 En el R − e.v. R2 con su estructura de espacio vectorialhabitual el sistema (1, 0), (0, 1) es libre, pues si α(1, 0) + β(0, 1) = (0, 0),tendremos que (α, β) = (0, 0), de donde α = 0 = β. Un argumento similar sepuede emplear para demostrar que el sistema de n vectores de Kn

(1, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, · · · , 0, 1)

es un sistema libre.

Ejemplo 2.4.8 En el R− e.v. R3 con su estructura de espacio vectorial ha-bitual el sistema {(2, 1, 1), (1, 1, 0), (1, 0, 0)} es libre, puesto que si (α, β, γ) ∈R3 es tal que α(2, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0), resulta que (2α +

β + γ, α + β, α) = (0, 0, 0), de donde

2α + β + γ = 0α + β = 0

α = 0y, en de�nitiva,

(α, β, γ) = (0, 0, 0).

Ejemplo 2.4.9 En el R − e.v. R2 con su estructura de espacio vectorialhabitual el sistema {(2, 1), (1, 0), (3, 2), (11, 7)} es ligado, pues

0(1, 0) + (−1)(2, 1) + (−3)(3, 2) + (11, 7) = (0, 0),

y sin embargo(0,−1,−3, 1) 6= (0, 0, 0, 0).

Proposición 2.4.10 Si u1, · · · , un es un sistema de vectores del K− e.v. E,se veri�ca que u1, · · · , un es libre si y sólo si ∀v ∈ E

((v =

n∑i=1

αiui ∧ v =n∑

i=1

βiui

)⇒ (α1, · · · , αn) = (β1, · · · , βn)

).

Page 108: Libro Completo Algebra

108 Álgebra

Demostración �⇒� Si (α1, · · · , αn), (β1, · · · , βn) ∈ Kn son tales que v =n∑

i=1

αiui ∧ v =n∑

i=1

βiui, resulta quen∑

i=1

αiui =n∑

i=1

βiui, es decir,n∑

i=1

(αi−βi)ui =

0, y como por hipótesis u1, · · · , un es libre, concluímos que (α1−β1, · · · , αn−βn) = (0, · · · , 0), es decir,

∀i ∈ {1, · · · , n} (αi − βi) = 0,

y por consiguiente ∀i ∈ {1, · · · , n} αi = βi, o lo que es lo mismo,

(α1, · · · , αn) = (β1, · · · , βn).

�⇐� Supongamos quen∑

i=1

αiui = 0. Como también se veri�ca que 0u1 +

· · ·+ 0un = 0, aplicando la hipótesis resulta que

(α1, · · · , αn) = (0, · · · , 0).

2

Ejercicio 2.4.1 En el anillo de polinomios Pn(C), veri�car que el sistema{1, x, x2, · · · , xn} es libre. (Indicación: utilizar inducción sobre �n� y lacontinuidad de los polinomios.)

La siguiente proposición recoge una caracterización de los sistemas liga-dos.

Proposición 2.4.11 Si u1, · · · , un es un sistema de vectores del K−e.v. E,se veri�ca que u1, · · · , un es ligado si y sólo si ∃i ∈ {1, · · · , n} tal que ui escombinación lineal de u1, · · · , ui−1, ui+1, · · · , un.

Demostración �⇒� Si u1, · · · , un es un sistema ligado tendremos que∃(α1, · · · , αn) ∈ Kn − {(0, · · · , 0)} tal que

n∑j=1

αjuj = 0. Ahora bien, puesto

que (α1, · · · , αn) 6= (0, · · · , 0), existe i ∈ {1, · · · , n} tal que αi 6= 0, y puestoque αi ∈ K, necesariamente αi tiene inverso α−1

i ∈ K, con lo que

α−1i ·

(n∑

j=1

αjuj

)= α−1

i · 0 = 0.

Page 109: Libro Completo Algebra

Álgebra 109

Pero

α−1i ·

(n∑

j=1

αjuj

)=

n∑j=1

(α−1

i αj

)uj,

de donden∑

j=1

(α−1

i αj

)uj= 0, con lo que, teniendo en cuenta que α−1

i αi = 1,

resulta que

ui =n∑

j=1,j 6=i

(−α−1i αj

)uj,

es decir, ui es combinación lineal de u1, · · · , ui−1, ui+1, · · · , un.�⇐� Supongamos que

ui =n∑

j=1,j 6=i

αjuj.

En ese caso, pasando ui al segundo miembro y tomando αi = −1, resulta que

(α1, · · · , αn) 6= (0, · · · , 0)

yn∑

j=1

αjuj = 0, con lo que u1, · · · , un es un sistema ligado. 2

Ejemplo: Como consecuencia de la proposición anterior, dos vectores uy v son linealmente dependientes si y solamente si uno de ellos se obtienemultiplicando un escalar por el otro. Por consiguiente, en el caso particularde R2 y R3, dos vectores serán linealmente dependientes si y sólo si estánsobre la misma recta que pasa por 0.

Asimismo, si u, v y w son vectores de R3, u, v y w son linealmente depen-dientes (o lo que es lo mismo, el sistema {u, v, w} es ligado) si y sólo si almenos uno de los vectores es una combinación lineal de los restantes. Peroel subespacio vectorial generado por dos vectores cualesquiera de R3 es unarecta que pasa por el origen, un plano que pasa por el origen, o el propioorigen; en cualquier caso, si u, v y w son linealmente dependientes existe unplano que, pasando por 0, contiene a los tres vectores. De manera general:

Proposición 2.4.12 Si E es un K− e.v. y n, r,m ∈ N, se veri�ca que

1. (u ∈ E ∧ u 6= 0) ⇒ u es libre;

Page 110: Libro Completo Algebra

110 Álgebra

2. si u1, · · · , un es libre y r ≤ n, entonces u1, · · · , ur es libre;

3. si u1, · · · , un es tal que ∃i ∈ {1, · · · , n} de manera que ui = 0, entoncesel sistema u1, · · · , un es ligado;

4. si u1, · · · , un es ligado entonces ∀v1, · · · , vm ∈ E el sistema{u1, · · · , un, v1, · · · , vm} es ligado.

Demostración 1. Si u ∈ E− {0} y αu = 0, necesariamente α = 0, con loque u es libre.

2. Supongamos que u1, · · · , un ∈ En es libre, que r ≤ n y que (α1, · · · , αr) ∈Kr es tal que

r∑j=1

αjuj = 0. En ese caso, de�niendo ∀j ∈ {r + 1, · · · , n}

αj = 0, tendremos quen∑

j=1

αjuj = 0 y, puesto que u1, · · · , un es libre,

(α1, · · · , αn) = (0, · · · , 0) y en particular (α1, · · · , αr) = (0, · · · , 0).3. Si u1, · · · , un ∈ En es tal que ui = 0, considerando la n-tupla (α1, · · · , αn)

∈ Kn de�nida por la condición

αi = 1 ∧ ∀j ∈ {1, · · · , n}(j 6= i ⇒ αj = 0),

resulta que (α1, · · · , αn) 6= (0, · · · , 0) y

n∑j=1

αjuj = 0u1 + · · ·+ 0ui−1 + 1 · 0 + 0ui+1 + · · ·+ 0un = 0.

4. Si u1, · · · , un es ligado, ∃(α1, · · · , αn) 6= (0, · · · , 0) tal quen∑

j=1

αjuj = 0.

Dado entonces el sistema v1, · · · , vm de m vectores de E, de�niendo ∀j ∈{1, · · · ,m} βj = 0, tendremos que

n∑j=1

αjuj +m∑

j=1

βjvj = 0, y puesto que

(α1, · · · , αn) 6= (0, · · · , 0), resulta que

(α1, · · · , αn, β1, · · · , βm) 6= (0, · · · , 0),

Page 111: Libro Completo Algebra

Álgebra 111

con lo que u1, · · · , un, v1, · · · , vm es ligado. 2

Las propiedades 2 y 4 de la proposición anterior podrían enunciarse demanera poco rigurosa del siguiente modo: �todo subsistema de un sistemalibre es libre� y �todo supersistema de un sistema ligado es ligado�.

Proposición 2.4.13 Si u1, · · · , un es un sistema de vectores del K− e.v. Elibre y v ∈ E no es combinación lineal de u1, · · · , un, entonces el sistemau1, · · · , un, v es libre.

Demostración Supongamos quen∑

j=1

αjuj + βv = 0. En ese caso necesa-

riamente β = 0, puesto que si β 6= 0, tendríamos que

v =n∑

j=1

(−β−1 · αj

)uj

en contradicción con la hipótesis. Pero si β = 0, entoncesn∑

j=1

αjuj = 0,

y puesto que u1, · · · , un es libre, resulta que

(α1, · · · , αn) = (0, · · · , 0),

con lo que, en de�nitiva,

(α1, · · · , αn, β) = (0, · · · , 0, 0).

2

Corolario 2.4.14 Si u1, · · · , un es un sistema de vectores del K− e.v. E yv ∈ E son tales que u1, · · · , un es libre y u1, · · · , un, v es ligado, entonces ves combinación lineal de u1, · · · , un.

Page 112: Libro Completo Algebra

112 Álgebra

2.5 Bases y dimensión2.5.1 Sistemas generadores y basesSegún vimos, si un vector se expresa como combinación lineal de un siste-ma libre, la expresión del vector como combinación lineal de ese sistema esúnica. Además, si un sistema libre es a la vez generador de un cierto subes-pacio, entonces no hay un sistema generador de dicho subespacio que tengamenos vectores que el sistema libre considerado. Las razones anteriores sonsu�cientes para estudiar los sistemas de vectores que son a la vez sistemasgeneradores y libres. Una vez concluido el estudio de la sección, habremos re-suelto un problema adicional: sabremos cuál es el número máximo de vectoreslinealmente independientes que podemos encontrar en un espacio vectorialdado. (Según sabemos, el número máximo de vectores linealmente indepen-dientes que podemos encontrar en R2 es 2, y el número máximo de vectoreslinealmente independientes que podemos encontrar en R3 es 3. Veremos porejemplo, que el número máximo de vectores linealmente independientes quepodemos encontrar en Rn es n).

De�nición 2.5.1 Dados un K − e.v. E y H ≺ E, se dice que un sistemau1, · · · , un de vectores de H es una base de H si u1, · · · , un es libre y ∀v ∈ Hse veri�ca que v es combinación lineal de u1, · · · , un.

En otras palabras, una base de un K − e.v. E es un sistema de vectoresde E que es simultáneamente libre y generador.

En particular, como E ≺ E, una base de E es un sistema de vectores deE que es libre y tal que todo vector de E se expresa como combinación linealde dicho sistema.

Nota: Si u1, · · · , un es una base de un K − e.v. E, es usual escribirB = {u1, · · · , un} para denotarla. Todo vector v ∈ E se escribe en la formav =

∑ni=1 aiui, donde los coe�cientes (a1, · · · , an) ∈ Kn están unívocamente

determinados, por la proposición 2.4.10, pero dependen en el orden dado alos vectores u1, · · · , un. Un cambio en el orden de los vectores u1, · · · , un dapor resultado un cambio correspondiente en el orden de los coe�cientes delvector v. Esta situación justi�ca la de�nición de base ordenada: una baseordenada B = (u1, · · · , un) de un K− e.v. E es un sistema de vectores libre,generador y ordenado.

Page 113: Libro Completo Algebra

Álgebra 113

Ejemplos1. El sistema {(1, 0, · · · , 0), · · · , (0, · · · , 0, 1)} de vectores de Kn que he-

mos visto que es un sistema generador de Kn también es libre, puesto que si(α1, · · · , αn) ∈ Kn es tal que

α1(1, 0, · · · , 0) + · · ·+ αn(0, · · · , 0, 1) = (0, · · · , 0),

tendremos que (α1, · · · , αn) = (0, · · · , 0). Por consiguiente,

Bn = ((1, 0, · · · , 0), · · · , (0, · · · , 0, 1))

es una base ordenada de Kn. A esta base se la conoce con el nombre de basecanónica de Kn y se la denota como Bn. Como caso particular, resulta queB1 = (1) es una base del K− e.v. K.

2. Como un subcaso del ejemplo anterior, resulta que ((1, 0), (0, 1)) es unabase ordenada de R2 (es la base canónica de R2). Por otra parte el sistema{(2, 1), (−1, 1)} también es una base de R2, puesto que

a) {(2, 1), (−1, 1)} es libre, ya que si α(2, 1) + β(−1, 1) = (0, 0), resultaque (2α− β, α + β) = (0, 0), de donde, resolviendo el sistema

{2α− β = 0α + β = 0

obtenemos que α = β = 0, es decir, (α, β) = (0, 0).b) Todo vector de R2 se puede expresar como combinación lineal de

{(2, 1), (−1, 1)}, puesto que dado (x, y) ∈ R2, poniendo

(x, y) = α(2, 1) + β(−1, 1),

resulta que(x, y) = (2α− β, α + β),

es decir, {x = 2α− βy = α + β

,

de donde x + y = 3α, i.e., α = 13(x + y) y β = y − 1

3(x + y) , es decir,

β = 23y − 1

3x; en otras palabras, el sistema de ecuaciones

{x = 2α− βy = α + β

Page 114: Libro Completo Algebra

114 Álgebra

tiene solución ∀(x, y) ∈ R2 y podemos escribir

(x, y) =

(1

3x +

1

3y

)(2, 1) +

(2

3y − 1

3x

)(−1, 1),

y en consecuencia {(2, 1), (−1, 1)} es un sistema generador de R2.

3. Siendo Pn(C) el conjunto de polinomios con coe�cientes en C de grado≤ n, se veri�ca que 1, x, · · · , xn es una base de Pn(C) pues

a) {1, x, · · · , xn} es libre (compruébese) yb) si f ∈ Pn(C), ∃(a0, a1, · · · , an) ∈ Kn+1 tal que ∀x ∈ Cf = a0+a1x+· · ·+anxn, con lo que f es combinación lineal de {1, x, · · · , xn}.4. En el K − e.v. de las matrices columna de n �las, Mn×1(K), siendo

∀i ∈ {1, · · · , n}ei : {1, · · · , n} × {1} → Mn×1(K)

(j, 1) ;

{1 si j = i0 si j 6= i

,

es fácil comprobar que {e1, · · · , en} una base de Mn×1(K). A esta basetambién la denominaremos base canonica de Mn×1(K) y la denotaremos porBc. Es decir, utilizando la notación matricial usual,

Bc = {e1, · · · , en} = {

10...0

,

01...0

, · · · ,

00...1

}.

Ejercicio 2.5.1 En el espacio vectorial de la matrices Mm×n(K),∀i ∈ {1, · · · ,m} y ∀j ∈ {1, · · · , n}, sea Eij la matriz que tiene un únicocoe�ciente no nulo: Eij(i, j) = 1. Veri�car que las mn matrices Eij formanuna base de Mm×n(K).

De�nición 2.5.2 Si B = (u1, · · · , un) es una base ordenada del K− e.v. E

y v =n∑

i=1

αiui, a la matriz

α1...

αn

∈ Mn×1(K)

Page 115: Libro Completo Algebra

Álgebra 115

la denominaremos matriz de coordenadas del vector v respecto de la base B, osimplemente coordenadas del vector v respecto de B, y la denotaremospor (v)B.

Ejemplo 2.5.3 En el espacio vectorial R3, siendoB3 = ((1, 0, 0), (0, 1, 0), (0, 0, 1)),

resulta que

((3,−2, 1))B3=

3−21

puesto que(3,−2, 1) = 3(1, 0, 0) + (−2)(0, 1, 0) + 1(0, 0, 1).

Ejemplo 2.5.4 En el espacio vectorial P3(C) de los polinomios de grado≤ 3, siendo B = (1, x, x2, x3), resulta que

(2x3 + x− 5

)B

=

−5102

,

puesto que 2x3 + x− 5 = (−5) · 1 + x + 0 · x2 + 2x3.

Ejemplo 2.5.5 En el espacio vectorial R2, siendo B2 = ((1, 0), (0, 1)) y B =((2, 1), (−1, 1)), resulta que ∀(x, y) ∈ R2,

((x, y))B2=

(xy

)

mientras que

((x, y))B =

13x + 1

3y

23y − 1

3x

.

En particular,((1, 0))B2

=

(10

)

mientras que((1, 0))B =

(13

−13

).

Page 116: Libro Completo Algebra

116 Álgebra

De�nición 2.5.6 Se dice que un K − e.v. E es de dimensión �nita si∃n ∈ N, y ∃u1, · · · , un sistema de vectores de E tal que {u1, · · · , un} es unabase de E.

Ejemplo 2.5.7 ∀n ∈ N se veri�ca que Kn es un K− e.v. �nitamente gene-rado, puesto que ∀(x1, · · · , xn) ∈ Kn

(x1, · · · , xn) = x1(1, 0, · · · , 0) + · · ·+ xn(0, · · · , 0, 1),

con lo que el sistema de n elementos ((1, 0, · · · , 0), · · · , (0, · · · , 0, 1)) es unsistema generador de Kn y, puesto que es libre, es una base de Kn.

Ejemplo 2.5.8 El C − e.v. de los polinomios C[x] no es de dimensión �-nita, puesto que, razonando por reducción al absurdo, si suponemos que{p1, · · · , pn} es una base de C[x], siendo

r = max{gr(pi) |i ∈ {1, · · · , n}},es obvio que el polinomio xr+1 ∈ C[x] no se puede expresar como combinaciónlineal del sistema {p1, · · · , pn}.

2.5.2 Equipotencia de basesObservación 28 Si {u1, · · · , un} es un sistema de vectores de un K − e.v.E, y ∃i ∈ {1, · · · , n} tal que ui es combinación lineal del sistema

{u1, · · · , ui−1, ui+1, · · · , un},entonces cualquier vector que sea combinación lineal de {u1, · · · , un} es tam-bién combinación lineal de

{u1, · · · , ui−1, ui+1, · · · , un},

puesto que si ui =n∑

j=1,j 6=i

αjuj y v =n∑

j=1

βjuj, tendremos que

v = β1u1 + · · ·+ βi−1ui−1 + βi

(n∑

j=1,j 6=i

αjuj

)+ βi+1ui+1 + · · ·+ βnun =

=n∑

j=1,j 6=i

γjuj,

Page 117: Libro Completo Algebra

Álgebra 117

donde ∀j ∈ {1, · · · , n} − {i}

γj = (βj + βiαj) .

Proposición 2.5.9 Sean E un K − e.v., {u1, · · · , un} una base de E y{v1, · · · , vm} un sistema de vectores de E con m > n. En estas condicio-nes el sistema {v1, · · · , vm} es ligado.

Demostración Supondremos que ∀i ∈ {1, · · · , m} vi 6= 0, puesto que encaso contrario, automáticamente el sistema {v1, · · · , vm} es ligado. Veamosque aún siendo ∀i ∈ {1, · · · ,m} vi 6= 0, el sistema (v1, · · · , vm) es ligado.Puesto que {u1, · · · , un} es una base de E, ∀j ∈ {1, · · · ,m}

vj =n∑

i=1

aijui.

Por consiguiente, suponiendo quem∑

j=1

βjvj = 0.

tendremos quem∑

j=1

βj(n∑

i=1

aijui) = 0.

es decir,n∑

i=1

(m∑

j=1

aijβj )ui = 0.

(en este punto es importante que el alumno utilice una notación no contra idadel sumatorio para �entender� el paso anterior) con lo que, teniendo en cuentaque {u1, · · · , un} es una base de E, obtenemos que todos los coe�cientes de lacombinación lineal anterior deben ser iguales a cero, es decir, ∀i ∈ {1, · · · , n},

m∑j=1

aijβj = 0.

Page 118: Libro Completo Algebra

118 Álgebra

y, puesto que el sistema de ecuaciones homogéneo

a11β1 + · · ·+ a1nβm = 0...

an1β1 + · · ·+ anmβm = 0

tiene más incógnitas que ecuaciones (m > n), dicho sistema tiene solucionesdiferentes de la trivial, por lo que {v1, · · · , vm} es ligado. 2

Observación 29 Cualquier sistema de 4 o más vectores de R3 es ligado.

Corolario 2.5.10 (Equipotencia de bases en un K−e.v. de dimensión �nita)Si E es un K− e.v. �nitamente generado y

B = {u1, · · · , un} y B′ = {v1, · · · , vm} (2.10)

son bases de E, se veri�ca necesariamente que n = m.

Demostración Por la proposición anterior, como todo vector del sistema{v1, · · · , vm} es combinación lineal de {u1, · · · , un} (puesto que {u1, · · · , un}es base de E) concluímos que m ≤ n (ya que en caso contrario {v1, · · · , vm}sería ligado, en contradicción con que sea base).Por el mismo motivo, como {v1, · · · , vm} todo vector del sistema {u1, · · · , un}es combinación lineal de {v1, · · · , vm} concluímos que n ≤ m (ya que en casocontrario {u1, · · · , un} sería ligado, en contradicción con que sea base), y ende�nitiva obtenemos que n = m. 2

Una vez demostrado que si E es un K − e.v. de dimensión �nita todaslas bases de E tienen el mismo número de elementos, podemos establecer lasiguiente de�nición:

De�nición 2.5.11 Si E es un K− e.v. de dimensión �nita y

(u1, · · · , un) ∈ En

es una base de E, diremos que la dimensión de E es n y escribiremos

dim(E) = n.

Page 119: Libro Completo Algebra

Álgebra 119

Ejemplos:1. Cómo 1 ∈ K es una base del K− e.v. K, resulta que

dim(K) = 1.

2. Teniendo en cuenta que la base canónica de Kn tiene �n� elementos,resulta que

dim(Kn) = n.

3. Puesto que (1, x, · · · , xn) ∈ (Pn(C))n+1 es una base de Pn(C), tendre-mos que

dim(Pn(C)) = n + 1.

A esta base la denominaremos base usual de Pn(C).

Además del teorema de equipotencia de bases en un K − e.v. de dimen-sión �nita, de la proposición (2.5.9) también se pueden obtener de manerainmediata los siguientes resultados.Proposición 2.5.12 Si E es un K− e.v. y {u1, · · · , un} es una base de E,entonces se veri�ca que:

1. ({v1, · · · , vm} sistema de vectores de E ∧ (m > n)) ⇒ {v1, · · · , vm} li-gado;

2. {v1, · · · , vn} sistema libre de vectores de E ⇒ {v1, · · · , vn} base;

3. {v1, · · · , vn} sistema generador de E ⇒ {v1, · · · , vn} base.

Demostración 1. Evidente a partir de la proposición (2.5.9).2. Evidente a partir de la proposición (2.4.13) y 1.3. Si {v1, · · · , vn} es un sistema generador de E y {v1, · · · , vn} es li-

gado, entonces (aplicando la proposición (2.4.11) hasta reducir el sistema{v1, · · · , vn} a un sistema libre,) existirán r ∈ N, r ≤ n y una base B ={w1, · · · , wr} de E, tales que ∀i ∈ {1, · · · r} ∃j ∈ {1, · · · , n} de manera quewi = vj. Pero puesto que {w1, · · · , wr} es una base de E, r = n y pues-to que {w1, · · · , wn} es libre y la n − tupla {v1, · · · , vn} no es más que unareordenación de la n−tupla {w1, · · · , wn}, resulta que {v1, · · · , vn} es libre.2

Ejercicio 2.5.2 Veri�car que el sistema {1, 1+x, x2} es una base de P2(C).

Page 120: Libro Completo Algebra

120 Álgebra

2.6 Subespacios vectoriales y dimensiónObservación 30 Si E es un K−e.v. de dimensión �nita y H ≺ E, entoncesH también es de dimensión �nita y dim(H) ≤ dim(E), puesto que cualquiersistema libre de vectores de H también es un sistema libre de vectores de E.Nótese además que si H es un subespacio vectorial de E tal que dim(H) =dim(E), se veri�ca necesariamente que H = E, puesto que si (u1, · · · , un) ∈Hn es una base de H, entonces (u1, · · · , un) también es una base de E, puestoque es un sistema libre de n vectores de E, y en consecuencia al poder expresartodo vector de E como combinación lineal de (u1, · · · , un), todo vector de Eserá también un vector de H, con lo que H = E.

Proposición 2.6.1 (Teorema de extensión de una base) Si E es un K−e.v.�nitamente generado con dim(E) = n, H ≺ E y (u1, · · · , um) ∈ Hm es unabase de H con m < n entonces existe

(um+1, · · · , un) ∈ En−m

tal que (u1, · · · , um, um+1, · · · , un) es una base de E.

Demostración Razonamos por inducción sobre n−m :Base de inducción. Si n−m = 1, entonces m = n−1 y (u1, · · · , um) =

(u1, · · · , un−1). Ahora bien, como (u1, · · · , un−1) es una base de H,(u1, · · · , un−1) es un sistema libre, y por otra parte, teniendo en cuenta quedim(E) = n, resulta que (u1, · · · , un−1) no es una base de E, y por consi-guiente ∃v ∈ E tal que v no es combinación lineal de (u1, · · · , un−1); pero,en ese caso, tendremos que (u1, · · · , un−1, v) ∈ En es un sistema libre, con loque obtenemos que (u1, · · · , un−1, v) es una base de E.

Paso de inducción. Supongamos cierto el resultado para n −m = k,y sea E un K − e.v. tal que dim(E) = n, H ≺ E y (u1, · · · , um) ∈ Hm unabase de H tal que n − m = k + 1. En ese caso (u1, · · · , um) es un sistemalibre de E y, puesto que m < n, (u1, · · · , um) no es base de E, por lo que∃v ∈ E tal que v no es combinación lineal de (u1, · · · , um). Por consiguien-te (u1, · · · , um, v) es libre. Pero en ese caso, si consideramos el subespaciovectorial H ′ = L({ui |i ∈ {1, · · · ,m}} ∪ {v}), resulta que todo vector de H ′

se expresa como combinación lineal de (u1, · · · , um, v) y que además estesistema es libre, con lo que (u1, · · · , um, v) es una base de H ′. Ahora bien,dim(H ′) = m + 1, y por lo tanto, teniendo en cuenta que n − m = k + 1,

Page 121: Libro Completo Algebra

Álgebra 121

resulta que n− (m + 1) = k, con lo que aplicando la hipótesis de inducción,∃(um+2, · · · , un) ∈ En−(m+1) tal que (u1, · · · , um, v, um+2, · · · , un) es una ba-se de E; es decir, la demostración está completa. 2

Observación 31 Nótese que el resultado anterior tiene como consecuenciaque si (u1, · · · , um) es un sistema libre de vectores de E y

dim(E) = n > m,

entonces ∃(um+1, · · · , un) ∈ En−m tal que(u1, · · · , um, um+1, · · · , un)

es una base de E, puesto que si es libre, (u1, · · · , um) es un sistema generadordel subespacio vectorial

H = L({ui |i ∈ {1, · · · ,m}}).

Nota. Dados un K − e.v. E, y H ≺ E, si dim(H) = 1 se dice que Hes una recta de E, si dim(H) = 2, se dice que H es un plano de E, y sidim(E) = n y dim(H) = n− 1, se dice que H es un hiperplano de E.

Así por ejemplo, en el C− e.v. P4(C) = {f ∈ C[x] |gr(f) ≤ 4}, podemosa�rmar que

L((1)) = {f ∈ P4(C) |∃α ∈ C..∀z ∈ C f(z) = (α · 1) (z) = α}es una recta de P4(C), que L((x, x2)), es decir, el conjunto{f ∈ P4(C)

∣∣∃(α, β) ∈ C2..∀z ∈ C f(z) =(αx + βx2

)(z) = αz + βz2}

es un plano de P4(C) y que L((1, x, x2, x3)) es un hiperplano de P4(C).

Observación 32 Puesto que dim(R3) = 3, si H ≺ R3, H 6= R3, resultaque dim(H) = 0, 1 ó 2. Si dim(H) = 0, H = {(0, 0, 0)}. Si dim(H) = 1,y u = (x, y, z) ∈ H, u 6= (0, 0, 0), tendremos que H = L({u}) = {v ∈R3 |∃α ∈ R tal que v = αu}, y es fácil ver que la representación grá�ca deH es la recta que pasa por el punto (0, 0, 0) (puesto que 0 = (0, 0, 0) ∈ H alser H ≺ R3) y el punto (x, y, z). Finalmente, si dim(H) = 2, y (u, v) es unabase de H, resulta que H = {w ∈ R3 |∃(α, β) ∈ R2 tal que w = αu + βv} yes fácil ver que la representación grá�ca de H es el plano de R3 que pasa por(0, 0, 0) y por u y v.

Page 122: Libro Completo Algebra

122 Álgebra

2.7 Rango de un sistema de vectores y de unamatriz

De�nición 2.7.1 Sean E un K-e.v. y {u1, · · · , um} un sistema de vecto-res E. Se denomina rango del sistema {u1, · · · , um} a la dimensión delsubespacio vectorial L(u1, · · · , um). Para indicar que el rango del sistema{u1, · · · , um} es r escribiremos

rg(u1, · · · , um) = r.

Ejemplo 2.7.2 En el espacio vectorial R3, rg((1, 0, 0), (0, 1, 0), (0, 0, 1)) = 3.Por otra parte, rg((1, 0, 0), (0, 1, 0)) = 2, puesto que al ser {(1, 0, 0), (0, 1, 0)}un sistema libre, constituyen una base del subespacio vectorial que generan.

Ejemplo 2.7.3 En el espacio vectorial P2(C), rg(1, x2, 1 + x2) = 2.

A tenor de los resultados vistos hasta ahora, resulta evidente que

rg(u1, · · · , um, v) = rg(u1, · · · , um) ⇔ v ∈ L(u1, · · · , um).

De�nición 2.7.4 Sea A ∈ Mm×n(K). Si {A1, · · · , An} es el sistema de vec-tores de Mm×1(K) formado por las columnas de A, se denomina rango de Aal rango de dicho sistema de vectores, es decir,

rg(A) = rg(A1, · · · , An).

Ejemplo 2.7.5 Dada la matriz A =

1 1 11 1 01 0 0

∈ M3(R), se veri�ca que

rg(A) = rg(

111

110

100

).

Ahora bien, si

α

111

+ β

110

+ γ

100

=

000

,

Page 123: Libro Completo Algebra

Álgebra 123

tendremos que

α + β + γ = 0α + β = 0α = 0

de donde α = 0 = β = γ, es decir, el sistema es libre, de donde

rg(

111

110

100

) = 3

y, en consecuencia, rg(A) = 3.

De�nición 2.7.6 Si A ∈ Mm×n(K), al subespacio de Mm×1(K) generado porlas columnas de A, L(A1, · · · , An), se le denomina espacio columna de A.

Tras el estudio de la siguiente sección, veremos un método sistemático ysencillo para determinar el rango de un sistema de vectores, que obviamenteservirá también para determinar el rango de una matriz.

2.8 El teorema de Rouché-FröbeniusEs importante observar que dado un sistema de m ecuaciones lineales con nincógnitas y con coe�cientes en K de la forma

a11x1 + · · ·+ a1nxn = b1,...

am1x1 + · · ·+ amnxn = bm,

determinar el conjunto solución de dicho sistema (i.e., resolver dicho sistemacuando es compatible) signi�ca determinar si existen x1, · · · , xn de maneraque se satisfaga la siguiente expresión:

x1 ·

a11...

am1

+ · · ·+ xn ·

a1n...

amn

=

b1...

bm

,

que, de forma reducida, expresaremos:

x1A1 + · · ·+ xnA

n = b,

Page 124: Libro Completo Algebra

124 Álgebra

donde

∀j ∈ {1, · · · , n} Aj = ·

a1j...

amj

∧ b =

b1...

bm

.

(Nótese que la expresión anterior es una ecuación lineal de Mm×1(K)).

Es decir, el sistema será compatible si

b1...

bm

∈ Mm×1(K) se puede

expresar como combinación lineal de los vectores columna de Mm×1(K)

a11...

am1

, · · · ,

a1n...

amn

.

Los resultados vistos sobre dependencia e independencia lineal aplicadosa este caso concreto nos llevan al siguiente resultado:

Proposición 2.8.1 Dado el sistema de ecuaciones lineales

a11x1 + · · ·+ a1nxn = b1,...

am1x1 + · · ·+ amnxn = bm,

o, lo que es lo mismo,AX = b

con A ∈ Mm×n(K) y b ∈ Mm×1(K) y siendo S el conjunto formado por lassoluciones del mismo, las siguientes a�rmaciones son equivalentes:

1. El sistema de ecuaciones es compatible (es decir, S 6= ∅);2. b ∈ L(A1, · · · , An);

3. L(A1, · · · , An) = L(A1, · · · , An, b).

4. rg(A) = rg(A |b) , donde (A |b) es la matriz ampliada asociada al sis-tema de ecuaciones considerado.

Page 125: Libro Completo Algebra

Álgebra 125

Por otra parte, teniendo en cuenta que si un vector se escribe como com-binación lineal de un sistema libre, dicha expresión es única, resulta que:

Proposición 2.8.2 Si el sistema de ecuaciones lineales

AX = b

con A ∈ Mn(K) y b ∈ Mn×1(K) es compatible, son equivalentes las a�rma-ciones siguientes:

1. El sistema es compatible determinado.

2. (A1, · · · , An) es un sistema libre de Mn×1(K).

3. (A1, · · · , An) es una base de Mn×1(K).

4. rg(A1, · · · , An) = n.

5. rg(A) = rg(A |b) = n.

Al resultado sobre la existencia y unicidad de soluciones de un sistema deecuaciones lineales que aparece desglosado en las dos últimas proposicionesse le conoce con el nombre de Teorema de Rouché-Fröbenius.

Así por ejemplo, el sistema de ecuaciones con coe�cientes en R{

x + y = 2,2x + 2y = 4,

da lugar a la siguiente combinación lineal de M2×1(R)

x ·(

12

)+ y ·

(12

)=

(24

).

Así pues el sistema es compatible, puesto que(

24

)∈ L(

(12

),

(12

))

e indeterminado, ya que

(

(12

),

(12

)) ∈ (M2×1(R))2

Page 126: Libro Completo Algebra

126 Álgebra

es un sistema ligado.Nota importante. Obsérvese que si E es un K− e.v. de dimensión n y

B es una base ordenada de E, siendo v1, · · · , vm, u ∈ E, resulta que, al estarcaracterizado un vector por sus coordenadas respecto de una base ordenada,

m∑i=1

αivi = u ⇔m∑

i=1

αi(vi)B = (u)B.

La expresión situada a la derecha del símbolo �⇔� es una ecuación lineal deMn×1(K), de modo que puede ser considerada como un sistema de ecuacioneslineales. Así pues, determinar si un vector u ∈ E depende linealmente o no deun sistema de vectores dado v1, · · · , vm y hallar, en su caso, α1, · · · , αm ∈ Ktales que

m∑i=1

αivi = u,

consistirá en �jar una base B del espacio vectorial E para estudiar (y, en sucaso, resolver) la ecuación lineal de Mn×1(K)

m∑i=1

αi(vi)B = (u)B

o, si se pre�ere, el sistema de ecuaciones lineales equivalente.Ejemplos.1. En el espacio vectorial P2(C) de los polinomios de grado ≤ 2, para

determinar si el vector 3 − 2x + x2 pertenece o no al subespacio vectorialL(−x2 + x, x− 3), debemos estudiar si existen α, β ∈ C tales que

α(−x2 + x) + β(x− 3) = 3− 2x + x2;

siendo B = (1, x, x2), el problema anterior es equivalente a

α(−x2 + x)B + β(x− 3)B = (3− 2x + x2)B;

es decir,

α

01−1

+ β

−310

=

3−21

,

Page 127: Libro Completo Algebra

Álgebra 127

o, lo que es lo mismo, a resolver el sistema de ecuaciones:

−3β = 3,α + β = −2,−α = 1,

que tiene como solución α = β = −1.

2. Resolver el sistema de ecuaciones lineales{x− y = 2

3x + y = 0,

es equivalente a ver si es posible expresar el vector(

20

)como combinación

lineal de los vectores(

13

)y

( −11

)de la forma:

x

(13

)+ y

( −11

)=

(20

).

Este sistema de ecuaciones es compatible determinado, puesto que el sistema(

(13

),( −1

1

)) es un sistema libre de M2×1(R) y, puesto que la dimensión

de M2×1(R) es 2, constituye una base y cualquier vector (en particular(

20

))

se puede expresar como combinación lineal suya.

Teorema 2.8.3 Dado el sistema de ecuaciones lineales

a11x1 + · · ·+ a1nxn = b1,...

am1x1 + · · ·+ amnxn = bm,

o, lo que es lo mismo,AX = b

con A ∈ Mm×n(K) y b ∈ Mm×1(K) y siendo S el conjunto formado por lassoluciones del mismo, se veri�ca que:

1. El conjunto SH solución de la ecuación homogénea

x1A1 + · · ·+ xnA

n = (0),

es un subespacio vectorial de Kn.

Page 128: Libro Completo Algebra

128 Álgebra

2. Si la ecuación lineal (o, si se pre�ere, el sistema de ecuaciones lineales)

x1A1 + · · ·+ xnA

n = b,

es compatible, S es su conjunto solución, y (α1, · · · , αn) ∈ S, entonces∀(β1, · · · , βn) ∈ Kn

((β1, · · · , βn) ∈ S ⇔ ((β1, · · · , βn)− (α1, · · · , αn)) ∈ SH)

Demostración Ejercicio. 2

Observación 33 Como consecuencia del teorema anterior, el conjunto solu-ción de un sistema de ecuaciones lineales se obtiene sumando a una solucióncualquiera de dicho sistema todas las soluciones del sistema homogéneo aso-ciado. Es decir, si (α1, · · · , αn) es una solución cualquiera del sistema deecuaciones lineales,

x1A1 + · · ·+ xnA

n = b,

siendo S su conjunto solución y SH el conjunto solución del sistema homo-géneo asociado, se veri�ca que:

S =

{(γ1, · · · , γn) ∈ Kn

∣∣∣∣∃(β1, · · · , βn) ∈ SH ..

(γ1, · · · , γn) = (α1, · · · , αn) + (β1, · · · , βn)

}

Es usual recalcar esta circunstancia escribiendo

S = (α1, · · · , αn) + SH .

Por otra parte, si (α1, · · · , αn) es una solución cualquiera de la ecuaciónlineal

x1A1 + · · ·+ xnA

n = b,

y (β1, · · · , βn) es una solución de la ecuación lineal

x1A1 + · · ·+ xnA

n = c,

resulta que (α1 + β1, · · · , αn + βn) es solución de la ecuación lineal

x1A1 + · · ·+ xnAn = b + c.

Este hecho se conoce con el nombre de principio de superposición desoluciones.

Page 129: Libro Completo Algebra

Álgebra 129

De�nición 2.8.4 Dado el sistema de ecuaciones lineales,

x1A1 + · · ·+ xnA

n = b,

con A ∈ Mm×n(K) y b ∈ Mm×1(K), denominaremos sistema fundamentalde soluciones de dicho sistema a cualquier base del espacio vectorial SH desoluciones de su ecuación homogénea asociada.

Observación 34 Nótese que si (w1, · · · , wr) es un sistema fundamental desoluciones del sistema de ecuaciones lineales

x1A1 + · · ·+ xnA

n = b,

siendo S su conjunto solución y s ∈ S una solución particular de dichaecuación, se veri�ca que

u ∈ S ⇔ ∃λ1, · · · , λr ∈ K tal que u = s + λ1w1 + · · ·+ λrwr.

Ejemplo: Dado el sistema de ecuaciones lineales{

x + y + z = 2,2x + 2y + 2z = 4,

la ecuación lineal de M2×1(R) correspondiente es

x

(12

)+ y

(12

)+ z

(12

)=

(24

).

El sistema es compatible e indeterminado de hecho (

(12

),

(12

),

(12

))

es un sistema ligado y(

24

)∈ L(

(12

),

(12

),

(12

)) = L(

(12

)).

El conjunto solución se puede expresar mediante la suma de una soluciónparticular del sistema a todas las del homogéneo. Resolviendo el sistemahomogéneo asociado por el método de Gauss-Jordan tenemos que la soluciónes

x = −s− t,y = s,z = t,

Page 130: Libro Completo Algebra

130 Álgebra

es decir,

xyz

= s

−110

+ t

−101

o, si se pre�ere,(x, y, z) = s(−1, 1, 0) + t(−1, 0, 1).

Los vectores (1, 0,−1) y (1,−1, 0) constituyen una base de SH . Por consi-guiente

((1, 0,−1), (1,−1, 0))

es un sistema fundamental de soluciones del sistema dado. Como (0, 0, 2) esuna solución particular de dicha ecuación, resulta que:

S = {(x, y, z) ∈ R3

∣∣∣∣∃α, β ∈ R .. (x, y, z) =

= (0, 0, 2) + α(−1, 1, 0) + β(−1, 0, 1)}.

2.9 Método de Gauss y rangoEn esta sección vamos a ver un método sistemático que servirá para deter-minar el rango de una matriz y de un sistema de vectores.

2.9.1 Transformaciones elementales por columnas y ma-trices elementales

Al estudiar un método para hallar la inversa de una matriz, vimos en elcapítulo 1 que las transformaciones elementales por �las son invertibles, y quela inversa de una transformación elemental es una transformación elemental,según el cuadro

TRANSFORMACIÓN TRANSFORMACIÓN INVERSAFi = Fi + λFj Fi = Fi − λFj

Fi = λFi (λ 6= 0) Fi =1

λFi

Fi ↔ Fj Fi ↔ Fj

Page 131: Libro Completo Algebra

Álgebra 131

Por el mismo motivo, las correspondientes transformaciones elementales porcolumnas son invertibles, y la tabla correspondiente será la siguiente:

TRANSFORMACIÓN TRANSFORMACIÓN INVERSACi = Ci + λCj Ci = Ci − λCj

Ci = λCi (λ 6= 0) Ci =1

λCi

Ci ↔ Cj Ci ↔ Cj

Denotamos por Sij(λ) a la matriz elemental asociada a la transformaciónCi = Ci + λCj, por P i(λ) a la matriz elemental asociada a la transformaciónCi = λCi (λ 6= 0) y por Eij a la matriz elemental asociada a la transformaciónCi ↔ Cj.No es difícil veri�car (y lo comprobaremos también al realizar la práctica 2en el aula informática) que valen las siguientes identidades:

Sij(λ) = Sji(λ)

P i(λ) = Pi(λ)

Eij = Eij

Además vale el siguiente teorema:

Teorema 2.9.1 Si A ∈ Mm×n(K) y E es la matriz elemental de orden nque se obtiene al realizar la transformación elemental t sobre las columnasde In, según el esquema

In

t−→ E,

entonces si A′ es la matriz resultante de realizar la transformación t sobrelas columnas de A según el esquema

At−→ A′,

resulta queA′ = A · E

Page 132: Libro Completo Algebra

132 Álgebra

Es decir, en este caso hay que multiplicar por la matriz elemental corres-pondiente pero por la derecha en lugar de por la izquierda.

Ejercicio 2.9.1 Verifíquese el resultado anterior para t ≡ C2 = C2 + 3C1

sobre la matriz

A =

1 0 23 1 10 1 4

,

es decir, comprobar que si A′ es la matriz resultante de hacer actuar t sobreA, entonces

A′ = A · S21(3) = A · S12(3).

2.9.2 Método de Gauss para calcular el rango de unamatriz

Buscamos un método que nos permita determinar de un modo sencillo elrango de una matriz A ∈ Mm×n(K). Para ello, vamos a comprobar en pri-mer lugar que al realizar transformaciones elementales sobre las columnasde una matriz A no se altera su rango. El siguiente lema se aplicará en lademostración del teorema principal:

Lema 2.9.2 Si E es un K− e.v. y (u1, · · · , un) y (v1, · · · , vm) son sistemasde vectores de E, se veri�ca que

L(u1, · · · , un) = L(v1, · · · , vm) ⇔

u1, · · · , un ∈ L(v1, · · · , vm)∧

v1, · · · , vm ∈ L(u1, · · · , un)

Demostración Se deja como ejercicio. 2

Teorema 2.9.3 Si A ∈ Mm×n(K), y B ∈ Mm×n(K) es la matriz resultadode realizar una transformación elemental por columnas t sobre A, se veri�caque

rg(A) = rg(B)

Page 133: Libro Completo Algebra

Álgebra 133

Demostración Para demostrar el resultado, comprobaremos que si

At−→ B,

entonces L(A1, · · · , An) = L(B1, · · · , Bn), con lo que rg(A) = rg(B). Dis-tingamos tres posibilidades:

a) t ≡ Ci = Ci + λCj. En ese caso todos los vectores columna de A yB coinciden, salvo el i − esimo; pero Bi = Ai + λAj y Ai = Bi − λAj =Bi − λBj, con lo que, teniendo en cuenta el lema anterior, concluimos queL(A1, · · · , An) = L(B1, · · · , Bn).

b) t ≡ Ci = λCi (λ 6= 0). En ese caso todos los vectores columna de Ay B coinciden, salvo el i − esimo; pero Bi = λAi y Ai = (λ−1)Bi, con loque, teniendo en cuenta el lema anterior, concluimos que L(A1, · · · , An) =L(B1, · · · , Bn).

c) Finalmente si t ≡ Ci ↔ Cj, es obvio que L(A1, · · · , An) = L(B1, · · · , Bn).2

Es obvio, a partir de la proposición anterior, que si en lugar de realizar unatransformación elemental, realizamos un número �nito de ellas t1, · · · , tr elrango se conserva. Es decir, si

At1−→, · · ·

tr,−→ B,

necesariamente rg(A) = rg(B).Vamos a considerar ahora un tipo de matrices cuyo rango se calcula de

un modo sencillo:

De�nición 2.9.4 Se dice A ∈ Mm×n(K) es una matriz gaussiana si ∀j ∈{1, · · · , n} la columna Aj de A veri�ca una de las dos siguientes condiciones:

G.1 Aj = (0) ∈ Mm×1(K),

G.2 ∃i ∈ {1, · · · ,m} tal que

Aj(i, 1) = A(i, j) 6= 0 ∧ (∀k ∈ {j + 1, · · · , n} A(i, k) = 0) .

Page 134: Libro Completo Algebra

134 Álgebra

Ejemplo 2.9.5 Las siguientes matrices son gaussianas

3 0 11 0 12 0 10 0 11 0 0

,

0 11 00 10 10 0

,

(0 11 0

),

0 1 1 20 1 0 00 1 1 00 1 0 0

,

1 0 00 1 00 0 1

.

Sin embargo la matriz

2 0 11 0 12 0 10 0 10 0 0

no es gaussiana, pues el primer vector columna no satisface ni la condiciónG.1 ni la condición G.2.

Proposición 2.9.6 Si A ∈ Mm×n(K) es una matriz gaussiana, entonces elrango de A coincide con el número de vectores columna no nulos de A. Enparticular, los vectores columna no nulos de la matriz gaussiana A constitu-yen una base del espacio columna de dicha matriz,

L(A1, · · · ,An).

Demostración Sea

I = {i ∈ {1, · · · , n}∣∣Ai 6= (0)},

y supongamos que el número de elementos de I es k.Por el teorema 2.9.3 podemos aplicar transformaciones elementales por

columna y suponer que la columnas nulas de A sean las últimas. Entonces

I = {1, · · · , k} k ≤ n.

Consideremos el sistema

(A1, · · · ,Ak).

Si demostramos que el sistema (A1, · · · ,Ak) es libre, habremos concluidola demostración, pues

∀i ∈ {k + 1, · · · , n}, Ai = (0).

Page 135: Libro Completo Algebra

Álgebra 135

Razonamos por reducción al absurdo. Supongamos que

∃(α1, · · · , αk) ∈ Kk, (α1, · · · , αk) 6= (0, · · · , 0),

tal queα1A

1 + · · ·+ αkAk = (0).

En ese caso, siendot = min{i ∈ I |αi 6= 0},

resulta que At 6= (0) y, como A es una matriz gaussiana, existirá

h ∈ {1, · · · ,m} tal que A(h, t) = γ 6= 0

y tal que ∀s ∈ {t + 1, · · · , n}A(h, s) = 0,

o lo que es lo mismo,At(h, 1) = γ

y ∀s ∈ {t + 1, · · · , n},As(h, 1) = 0.

Pero en ese caso tendremos que

0 = (0)(h, 1) =(αtA

t + · · ·+ αkAk)(h, 1) =

= αtAt(h, 1) + · · ·+ αkA

k(h, 1) = αtγ,

de donde αt = 0, lo que contradice que t = min{i ∈ I |αi 6= 0}. 2

A partir de la proposición anterior, está claro en qué consiste el métodode Gauss para determinar el rango de una matriz: se trata de realizartransformaciones elementales por columna sobre dicha matriz hasta obteneruna matriz gaussiana, cuyo rango se determina de manera inmediata. Esto essiempre posible aplicando la siguiente estrategia sobre la matriz consideradaA de n columnas:

1. Consideramos la primera columna de A : j = 1.2. Si Aj = (0) ir al paso 4.3. Si Aj 6= (0) seleccionar un coe�ciente no nulo de dicha columna y

hacer ceros (utilizando transformaciones elementales por columnas) todoslos coe�cientes situados en su misma �la a su derecha.

Page 136: Libro Completo Algebra

136 Álgebra

4. Hacemos j = j + 1.5. Si j = n. FIN.6. Si j < n ir al paso 2.La nueva matriz obtenida tras el proceso anterior es una matriz gaussiana.

Ejercicio 2.9.2 Determinar el rango de las siguientes matrices:

1 2 11 1 12 0 10 1 1

,

( −1 32 5

),

1 1 1 20 1 0 11 −1 1 12 1 0 1

,

1 2 10 1 12 0 2

.

Observación 35 Si el problema que se intenta resolver consiste en deter-minar el rango de un sistema de vectores {v1, · · · , vm} de un K − e.v. E dedimensión �nita, �jada una base ordenada B de E, consideraremos la matrizC ∈ Mn×m(K) tal que ∀i ∈ {1, · · · , m}

C i = (vi)B

y realizaremos transformaciones elementales por columnas sobre C hasta ob-tener una matriz gaussiana.

Ejemplo 2.9.7 En el R − e.v. R3 con su estructura de espacio vectorialhabitual, para determinar el rango del sistema

{(2, 1, 1), (1, 1, 0), (1, 0, 0)},consideramos la matriz cuyas columnas son las coordenadas de los vectoresdel sistema anterior respecto de la base canónica B3 de R3

C =

2 1 11 1 01 0 0

y observamos que es una matriz gaussiana, por lo que rg(C) = 3, i.e.,

rg((2, 1, 1), (1, 1, 0), (1, 0, 0)) = rg((2, 1, 1)B3 , (1, 1, 0)B3 , (1, 0, 0)B3) =

= rg(C) = 3

es decir {(2, 1, 1), (1, 1, 0), (1, 0, 0)} es libre, y puesto que dim(R3) = 3, resultaque es una base de R3.

Page 137: Libro Completo Algebra

Álgebra 137

Ejemplo 2.9.8 Para hallar el rango del sistema de vectores{1 + x− 2x2, 2− 2x3, x− 2x2 + x3}

del C−e.v. P3(C) consideramos la base B = (1, x, x2, x3), y la matriz A cuyascolumnas son las coordenadas de los vectores del sistemas dado respecto deB, es decir,

A =

1 2 01 0 1−2 0 −20 −2 1

.

El rango del sistema de vectores es el rango de A.

1 2 01 0 1−2 0 −20 −2 1

c3 = c3− c1−→

1 2 −11 0 0−2 0 00 −2 1

c3 = c3− 12c2

−→

1 2 01 0 0−2 0 00 −2 0

con lo querg(1 + x− 2x2, 2− 2x3, x− 2x2 + x3) = rg(A) = 2.

Además hemos obtenido que

L(

11−20

200−2

01−21

) = L(

11−20

200−2

0000

) =

= L(

11−20

200−2

)

con lo que los vectores cuyas coordenadas corresponden a estas dos últimasmatrices columna son linealmente independientes y constituyen una base delsubespacio considerado, es decir, (1 + x− 2x2, 2− 2x3) es una base de

L(1 + x− 2x2, 2− 2x3, x− 2x2 + x3).

Page 138: Libro Completo Algebra

138 Álgebra

Una vez obtenido un método sistemático para determinar el rango deun sistema de vectores, podemos aplicar dicho método de forma análoga alejemplo anterior para:

• determinar si un vector u pertenece o no a la variedad lineal generadapor un sistema dado de vectores (v1, · · · , vm), estudiando si

rg(v1, · · · , vm, u) = rg(v1, · · · , vm),

• obtener una base de un subespacio vectorial a partir de un sistemagenerador del mismo.

2.9.3 Algoritmo de extensión de una baseSea H un subespacio de dimensión k de un espacio vectorial E de dimensión�nita n. Dada una base BH = {u1, · · · , uk} de H, queremos determinar unalgoritmo para extender la base BH hasta obtener una base BE delespacio vectorial E, en el que H está sumergido.

Sea B una base pre-�jada del espacio total E. Es su�ciente con considerarla matriz U cuyas columnas son las coordenadas de los vectores {u1, · · · , uk}(que constituyen la base BH del subespacio vectorial H) respecto de la baseB, añadir a esa matriz los vectores columna de la matriz identidad de ordenla dimensión del espacio total E (el rango de la nueva matriz (U |In) es n)y aplicar el método de Gauss por columnas sin intercambiar el orden delas columnas. Las n columnas no nulas de la matriz gaussiana G obtenidason las coordenadas, respecto de la base B, de los n vectores de una basedel espacio total E (rango(G) = rango(U |In)). Ahora, las columnas de lamatriz original (U |In) correspondientes a las columnas no nulas de G dan lascoordenadas, respecto de la base B, de n vectores que son una extensión dela base BH .Ejemplo 2.9.9 Sean E = R4 y B = B4 la base canónica de R4. Sea H =L(u1, u2), donde, respecto de la base canónica, u1 = (1,−1, 2, 0) y u2 =(1, 1, 1, 1).

El sistema libre BH = {u1, u2} es una base de H. Aplicando el método deGauss a la matriz (U |I4) se obtiene:

1 1 1 0 0 0−1 1 0 1 0 02 1 0 0 1 00 1 0 0 0 1

c2 = c2 − c1

c3 = c3 − c1

1 0 0 0 0 0−1 2 1 1 0 02 −1 −2 0 1 00 1 0 0 0 1

Page 139: Libro Completo Algebra

Álgebra 139

c6 = c6 − c2

1 0 0 0 0 0−1 2 1 1 0 −22 −1 −2 0 1 10 1 0 0 0 0

c4 = c4 − c3

c6 = c6 + 2c3

1 0 0 0 0 0−1 2 1 0 0 02 −1 −2 2 1 −30 1 0 0 0 0

c5 = c5 − 12c4

c6 = c6 + 32c4

1 0 0 0 0 0−1 2 1 0 0 02 −1 −2 2 0 00 1 0 0 0 0

.

Entonces los vectores de coordenadas canónicas{(1,−1, 2, 0), (1, 1, 1, 1), (1, 0, 0, 0), (0, 1, 0, 0)} forman una extensión de BH

a una base de R4.

2.9.4 Rango y espacio �la de una matrizDe�nición 2.9.10 Si A ∈ Mm×n(K) al subespacio de M1×n(K) generadopor las �las de A, L(A1, · · · , Am), se le denomina espacio �la de A.

Vamos a demostrar que la dimensión del espacio �la de una matriz coin-cide con la dimensión de su espacio columna:

Teorema 2.9.11 Si A ∈ Mm×n(K) entonces

rg(A) = dim(L(A1, · · · , Am)) = dim(L(A1, · · · , An)).

Demostración Dada A ∈ Mm×n(K), supongamos que (b1, · · · ,bk) es unabase de L(A1, · · · , Am), donde ∀i ∈ {1, · · · , k} bi = (bi1, · · · , bin). En esecaso

A1 = c11b1 + · · ·+ c1kbk...Am = cm1b1 + · · ·+ cmkbk.

Ahora bien, esta últimas son igualdades entre vectores de M1×n(K), por loque los coe�cientes correspondientes de las matrices �la situadas a amboslados de la igualdad deberán coincidir, es decir, ∀j ∈ {1, · · · , n}

a1j = c11b1j + · · ·+ c1kbkj...amj = cm1b1j + · · ·+ cmkbkj.

Page 140: Libro Completo Algebra

140 Álgebra

Las igualdades anteriores se pueden expresar matricialmente ∀j ∈ {1, · · · , n}del siguiente modo:

a1j...

amj

= b1j

c11...

cm1

+ · · ·+ bkj

c1k...

cmk

Pero de estas igualdades se sigue que

A1, · · · , An ∈ L(

c11...

cm1

, · · · ,

c1k...

cmk

)

con lo quedim(L(A1, · · · , An)) ≤ k.

Pero k = dim(L(A1, · · · , Am)), con lo que hemos probado quedim(L(A1, · · · , An)) ≤ dim(L(A1, · · · , Am)).

Por otra parte, teniendo en cuenta que la matriz considerada A era unamatriz arbitraria, podemos aplicar el razonamiento anterior a la matriz tAobteniendo:

dim(espacio columna de tA) ≤ dim(espacio �la de tA),

pero esta desigualdad es equivalente a la siguiente:dim(espacio �la de A) ≤ dim(espacio columna de A),

con lo que, en de�nitiva, obtenemos quedim(L(A1, · · · , Am)) = dim(L(A1, · · · , An)).

2

Observación 36 De forma análoga a como se ha visto con las columnas,se puede demostrar que las operaciones elementales por �las no cambian elrango de una matriz. Como consecuencia del teorema anterior, el rangode una matriz se puede obtener también operando por �las en lugar de porcolumnas. De hecho, no es difícil convencerse de que los vectores �la distintosde cero de una matriz en forma escalonada constituyen una base del espacio�la de A, por lo que el método de eliminación gaussiana por �las es un métodoalternativo al método de Gauss visto para determinar el rango de una matriz.

Page 141: Libro Completo Algebra

Álgebra 141

Como colofón, y para �nalizar esta parte del capítulo, vamos a recogeren un teorema varios resultados equivalentes como consecuencia de todo lovisto:

Teorema 2.9.12 Si A ∈ Mn(K) son equivalentes:1. A es invertible.2. El sistema de ecuaciones lineales AX = (0) sólo tiene la solución

trivial.3. A es equivalente por �las a In.

4. El sistema AX = b es compatible determinado para toda matriz co-lumnas b ∈ Mn×1(K).

5. rg(A) = n.

6. Los vectores �la de A son linealmente independientes.7. Los vectores columna de A son linealmente independiente.8. det(A) 6= 0. (Esta última condición quedará establecida más claramen-

te después de realizar la práctica 2 en el aula informática).

2.10 Ejercicios2.10.1 Ejercicios resueltos1. Encontrar un vector u diferente de cero cuyo punto inicial es P =(−1, 3,−5) tal que

a) u tiene la misma dirección que v = (6, 7,−3).

b) u tiene dirección opuesta a la de v = (6, 7,−3).

2. Sean u = (−3, 1, 2), v = (4, 0,−8),y w = (6,−1,−4). Encontrar losescalares c1, c2, c3 tales que c1u + c2v + c3w = (2, 0, 4).

3. Demostrar que no existen los escalares c1, c2, c3 tales que c1(−2, 9, 6)+c2(−3, 2, 1) + c3(1, 7, 5) = (0, 5, 4).

4. Sean P el punto (2, 3,−2) y Q el punto (7,−4, 1).

a) Encontrar el punto medio del segmento de recta que une a P y Q.

b) Encontrar el punto sobre el segmento de recta que une a P y Q y estáa 3

4de la distancia de P a Q.

Page 142: Libro Completo Algebra

142 Álgebra

5. Suponer que la traslación de un sistema de coordenadas xy se hace paraobtener un sistema de coordenadas x′y′ cuyo origen O′ tiene las coordenadas(2,−3).

a) Encontrar las coordenadas x′y′ del punto P cuyas coordenadas xy son(7, 5).

b) Encontrar las coordenadas xy del punto Q cuyas coordenadas x′y′ son(−3, 6).

c) Trazar los ejes de coordenadas xy y x′y′ y localizar los puntos P yQ.

6. Demostrar geométricamente que si u y v son vectores en el espaciobidimensional o en el espacio tridimensional, entonces

‖ u + v ‖≤‖ u ‖ + ‖ v ‖ .

7. a) Demostrar que v = (a, b) y w = (−b, a) son vectores ortogonales.b) Usar el resultado del inciso a) para encontrar dos vectores que sean

ortogonales a v = (2,−3).c) Encontrar dos vectores unitarios que sean ortogonales a (−3, 4).

8. Explicar por qué cada una de las siguientes expresiones carece desentido.

Si u, v, w son vectores en el plano o en el espacio tridimensional y k es unnúmero real,

a) u · (v · w).b) (u · v) + w.c) ‖ u · v ‖ .d) k · (u + v).

9. Sean vectores i, j y k unitarios a lo largo de los ejes positivos x, y y zde un sistema de coordenadas rectangulares en el espacio tridimensional. Siv = (a, b, c) es un vector diferente de cero, entonces los ángulos α, β,y γ entrev y los vectores i, j y k, respectivamente, se denominan ángulos directores dev, y los números cos(α), cos(β) y cos(γ) se denominan cosenos directores dev.

a) Demostrar que cos(α) = a‖v‖ .

b) Encontrar cos(β) y cos(γ).c) Demostrar que v

‖v‖ = (cos(α), cos(β),cos(γ)).

Page 143: Libro Completo Algebra

Álgebra 143

d) Demostrar que cos2(α) + cos2(β) + cos2(γ) = 1.

10. Demostrar que si v es ortogonal tanto a w1 como a w2, entonces v esortogonal a k1w1 + k2w2 para todos los escalares k1 y k2.

11. Encontrar las ecuaciones paramétricas de la recta que pasa por lospuntos dados.

a) P = (5,−2, 4) y Q = (7, 2,−4).b) P = (0, 0, 0) y Q = (2,−1,−3).

12. Demostrar que la recta r :

x = 0y = tz = t

∞ < t < ∞

a) pertenece al plano π1 : 6x + 4y − 4z = 0,b) es paralela al plano π2 : 5x− 3y + 3z = 1 y está por abajo de éste,

c) es paralela al plano π3 : 6x + 2y − 2z = 1 y está por arriba de éste.

13. Encontrar la ecuación del plano π1 que pasa por el punto P =(3,−6, 7) y es paralelo al plano π2 : 5x− 2y + z − 5 = 0.

14. Demostrar que las rectas

r1 :

x− 3 = 4ty − 4 = tz − 1 = 0

∞ < t < ∞ y r2 :

x + 1 = 12sy − 7 = 6sz − 5 = 3s

, ∞ < s < ∞

se cortan y encontrar el punto de intersección.

15. Hallar la ecuación del plano π que contiene las rectas del ejercicio15.

16. Demostrar que si v es un vector diferente de cero en Rn, entonces v‖v‖

tiene la norma euclídea 1.

17. ¾Para qué valores de k se cumple que u y v son ortogonales?

a) u = (2, 1, 3), v = (1, 7, k).b) u = (k, k, 1), v = (k, 5, 6).

Page 144: Libro Completo Algebra

144 Álgebra

18. Demostrar la identidad ‖u + v‖2 + ‖u − v‖2 = 2‖u‖2 + 2‖v‖2 paravectores en Rn. Interpretar geométricamente este resultado en R2.

19. Demostrar que si u y v son vectores ortogonales en Rn tales que‖u‖ = 1 y ‖v‖ = 1, entonces d(u, v) =

√2. Interpretar geométricamente este

resultado en R2.

20. Sea (F(R,R), +, ◦) el espacio vectorial de las funciones de R en R.Determinar si los siguientes conjuntos son o no subespacios vectoriales deF(R,R) :

a) {f ∈ F(R,R) |∀x ∈ R f(x) = f(−x)} .b) {f ∈ F(R,R) | f(1) = 0} .c) {f ∈ F(R,R) | f(2) = f(3)} .

21. Demostrar que el subconjunto H formado por todas las n − tuplasde números reales tales que los elementos de cada n − tupla forman unaprogresión aritmética, es un subespacio vectorial de Rn.

22. Se dice que A ∈ Mn(K) es simétrica si tA = A. Si denotamos porSn(K) al conjunto de las matrices simétricas de orden n, demostrar que Sn(K)es un subespacio vectorial de Mn(K).

Recordemos que una matriz A ∈ Mn(K) es antisimétrica si tA = −A.¾Constituyen las matrices antisimétricas un subespacio vectorial de Mn(K)?

Justifíquese la respuesta.

23. En R4 se considera el subespacio vectorial H = L(A) generado por elconjunto A de vectores A = {(1,−1, 0, 0), (0, 1, 1, 0), (2,−1, 1, 0), (3,−3, 0, 0).

¾Pertenece el vector (1, 1, 1, 0) al subespacio vectorial H?

24. En el R − e.v. R3 con su estructura de espacio vectorial habitualdeterminar si los sistemas de vectores

(1, 1, 1), (1, 1, 0), (1, 0, 0) y (1, 2, 3), (2, 0, 1), (−1, 2, 2)

son libres o ligados.

25. Consideramos el Z2−espacio vectorial de los �bytes� (Z82, +, ·) con la

suma y producto por escalares ya de�nidos. Se pide determinar si el sistemade vectores

(1, 0, 0, 0, 1, 1, 1, 0), (0, 1, 1, 1, 1, 1, 1, 0)

Page 145: Libro Completo Algebra

Álgebra 145

es libre o ligado y hallar el subespacio vectorial generado por el conjunto deesos dos vectores.

26. En el espacio vectorial P4(C) de los polinomios de grado menor oigual que 4 con coe�cientes en C se considera el polinomio p(x) = x4−x2 +2.Demostrar que el sistema p(x), p′(x), p′′(x), p′′′(x) formado por el polinomiop(x) y sus sucesivas derivadas (hasta la tercera) es un sistema libre.

27. En el espacio vectorial F(N,R) de las sucesiones de números reales,con la suma y producto habituales, consideramos el conjunto

H = {(xn) ∈ F(N,R) |∀n ∈ N xn+2 = xn+1 + xn}

a) Demostrar que H es un subespacio vectorial de F(N,R).b) Comprobar que dim(H) = 2.

28. Hallar el rango de las siguientes matrices:

A =

1 3 22 1 10 2 0

, B =

1 3 0 2−1 1 2 12 2 3 01 6 2 25 1 1 0

, C =

1 0 1 7 1 12 1 2 1 3 41 2 1 1 3 1

.

29. Encontrar una base y hallar la dimensión del espacio de matricestriangulares superiormente T n(K).

T n(K) = { A= (aij)∈ Mn(K) | aij = 0 si j < i }.

30. En el espacio vectorial Z52, hallar una base del subespacio vectorial

H = L({( 0 1 0 1 1),(

0 1 0 0 1),

(0 0 0 1 0

),(

0 1 1 1 1)}).

31. En el espacio vectorial R3, hallar una base del subespacio vectorial

H = L({(3, 2,−1), (1, 1, 1), (4, 3, 0)}).

Page 146: Libro Completo Algebra

146 Álgebra

2.10.2 Ejercicios propuestos1. Sea S2 = (O, (e1, e2)) el sistema de coordenadas ortogonales canónico

de R2 :O = (0, 0), e1 = (1, 0), e2 = (0, 1).

a) Dado el vector v = (2, 3), hallar las coordenadas de los vectores

v + e1, v − e1,1

2v.

b) Comprobar geométricamente los resultados obtenidos en el apartadoa).

2. Sea S2 = (O, (e1, e2)) el sistema de coordenadas ortogonales canónicode R2 y sean OP = (1, 2) y OQ = (2, 1) dos vectores de R2.

a) Determinar las coordenadas del vector PQ en S2.

b) Determinar las coordenadas del vector PQ en el sistema ortogonalS ′2 obtenidos por traslación de O al punto O′ = (−2, 1).

c) Calcular las normas del vector PQ utilizando sus coordenadas en S2

y S ′2. ¾Son iguales las distancias entre OP y OQ y entre O′P y O′Q?

3. En R3, con el sistema de coordenadas ortogonales canónico S3 =(O, (e1, e2, e3)) :

O = (0, 0, 0), e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1),

sean v = (−1, 0, 1), w = (1,−1, 2) y θ el ángulo entre v y w (0 ≤ θ ≤π).

a) Calcular cos(θ) utilizando la ley de los cosenos:

‖w − v‖2 = ‖v‖2 + ‖w‖2 − 2‖v‖‖w‖cos(θ).

b) Usando las coordenadas de v y w, hallar el producto escalar v · w yveri�car la identidad

v · w = ‖v‖‖w‖cos(θ).

c) ¾Qué tipo de ángulo forman v y w?

Page 147: Libro Completo Algebra

Álgebra 147

4. Demostrar que en R2 el vector n = (a, b) 6= (0, 0) es ortogonal a todaslas rectas de ecuación

ax + by + c = 0, (c ∈ R).

5. Sean v = (−1, 0, 1) y w = (1,−1, 2) los vectores del problema anterior.a) Calcular la proyección ortogonal de w sobre v, pv(w), y la compo-nente vectorial de w ortogonal a v.

b) Hallar ‖pv(w)‖ y ‖p2v(w)‖.6. En este problemas trabajamos en R3 con el sistema de coordenadas S3.

a) Hallar los vectores

e1 × e2, e2 × e3, e3 × e1.

b) Demostrar la identidad de Lagrange:‖u× v‖2 = ‖u‖2‖v‖2 − (u · v)2

y, usando la identidad

u · v = ‖u‖‖v‖cos(θ) ∀u, v ∈ R3,

deducir que‖u× v‖ = ‖u‖‖v‖sen(θ).

c) Sean u = (1,−1, 2) y v = (0, 3, 1). Calcular el área del paralelogramodeterminado por los vectores u y v.

d) Veri�car que para todo par de vectores u y v en R3\{(0, 0, 0)}, u×ves ortogonal a u y a v.

7. En este problemas seguimos trabajando en R3 con el sistema de coor-denadas S3.

a) Sean u, v y w tres vectores en R3. Veri�car que el número real|u · (v × w)| es el volumen del paralelepípedo P de�nido por u, v y w.(Se utilize el hecho de que la altura h del paralelepípedo P se puedeescribir como h = ‖p(v×w)(u)‖.)b) Calcular el volumen del paralelepípedo determinado por los vectores

u = (1, 0, 2), v = (0, 1, 2), w = (1, 1, 1).

Page 148: Libro Completo Algebra

148 Álgebra

8. Sean P0 = (1, 2) y P1 = (−1, 1) dos puntos en R2.

Hallar las ecuaciones vectorial, general implícita, paramétricas y pendiente-ordenada en el origen de la recta l que pasa por P0 y P1.

9. Sean P0 = (x0, y0) ∈ R2 y r la recta de ecuación ax + by + c = 0.

a) Demostrar que la distancia entre P0 y r es

d(P0, r) =|ax0 + by0 + c|√

a2 + b2.

b) Calcular la distancia entre P0 = (0, 1) y r : 2x− y + 3 = 0.

10. En R3, encontrar la ecuación del plano π que pasa por el punto P0 =(1, 0,−1) y es ortogonal al vector n = (2,−1, 5).

11. En R3, usando la fórmula de la distancia entre un punto P0 = (x0, y0, z0)y un plano π : ax + by + cz + d = 0 :

d(P0, π) =|ax0 + by0 + cz0 + d|√

a2 + b2 + c2,

a) calcular la distancia entre el punto P0 de intersección de las rectasde ecuaciones

r :

x = −3 + 2k

y = 3k

z =2

3− k

y s :

x = −1 + t

y = 2− 3t

z = t

(k, t ∈ R)

y el plano π : 2x− y + z = 0.

b) Calcular el coseno del ángulo que forman las rectas r y s.

12. Determinar si existen valores de los parámetros reales s y t tales quela recta l en R3 de ecuaciones implícitas

{sx + 3y + z = 0

−x + ty + 2z + 1 = 0,

Page 149: Libro Completo Algebra

Álgebra 149

tenga ecuaciones paramétricas

x = 2k

y = −1

2+ k

z =3

2− 3k

(k ∈ R).

13. Describir todos los subespacios vectoriales de R3 que contienen al puntoP = (1, 1, 1).

14. Sea Mm,n(R) el R−espacio vectorial respecto de las operaciones de su-ma de matrices y multiplicación de una matriz por un escalar usuales.Sea C[x] el C−espacio vectorial de los polinomios con coe�cientes nú-meros complejos y con las operaciones de suma de funciones y multi-plicación por un escalar usuales.Escribir explícitamente las operaciones que hacen del producto carte-siano Mm,n(R)× C[x] un R−espacio vectorial.

15. Sea M el subconjunto de Mm,n(Z2) de�nido por

M = {(

0 x yz 0 u

): x, y, z, u ∈ Z2}.

a) Escribir M como un conjunto de funciones de N2 ×N3 en Z2 que seanulan sobre un subconjunto S de N2 × N3.

b) Veri�car que M es un Z2−espacio vectorial respecto de las opera-ciones usuales de suma de matrices y producto de una matriz por unescalar.

16. Determinar los valores reales del parámetro λ tales que los siguientesvectores sean un sistema libre en R3 :

v1 = (λ,−1

2,−1

2), v2 = (−1

2, λ,−1

2), v3 = (−1

2,−1

2, λ).

Interpretar geométricamente los resultados obtenidos.

Page 150: Libro Completo Algebra

150 Álgebra

17. Veri�car si los siguientes subconjuntos del espacio de todas las funcionesreales, F(R,R), son linealmente independientes:

S = {1, sen(x), sen(2x)},

T = {(3− x)2, x2 − 6x, 5}.

18. Sean u = (1, 1, 1), v = (1, 1, x) y w = (x, 1, 1) tres vectores en R3,siendo x un parámetro real.Sea H = L(u, v, w) el subespacio de R3 generado por u, v y w.

Determinar para qué valores de x el subespacio H es una recta, unplano o todo R3.

19. a) Veri�car que para todo n ∈ N, el sistema Bn = (1, x, x2, · · · , xn) esuna base del espacio vectorial de los polinomios de grado menor o igualque n, Pn(R).

(Utilizar inducción sobre n y la continuidad de los polinomios)b) Determinar si el sistema B = (1, x−1, (x−1)2, (x−1)3) es una basede P3(R).

c) Escribir las coordenadas del vector p(x) = 3x3 − 3 en términos delas bases B3 y B.

20. SeaH = {

(a bc −(a + b + c)

): a, b, c ∈ R}.

a) Veri�car que H es un subespacio vectorial de M2(R).

b) Hallar una base B de H.

c) Completar B a una base de M2(R).

21. En el R−espacio vectorial F(N,R) de las sucesiones reales sea

H = {(xn)n∈N : ∀n ≥ 2, xn+1 = 2xn − 3xn−1}.

a) Demostrar que H es un subespacio vectorial de F(N,R).

b) Comprobar que la dimensión de H es 2.

Page 151: Libro Completo Algebra

Álgebra 151

22. Aplicar el teorema de Rouché-Fröbeniusa) para veri�car si el vector p(x) = x3− 2x + 1 pertenece al subespacioL(x3 − 1, x + 2) de P3(R),

b) para determinar si el sistema (x3− 1, x+2, x2, x− 1) es una base deP3(R).

23. Calcular el rango de las matrices

A =

1 1 1 02 1 2 01 0 0 1

∈ M3,4(Z3) B =

2 −1 50 4 16 1 16

∈ M3(R).

24. Utilizar el método de Gauss para hallar una base del C−subespacio deC3 :

L((1, 0, i), (i, 0, 0), (0,−i, 4), (1, 1, 1)).

Page 152: Libro Completo Algebra

152 Álgebra

Page 153: Libro Completo Algebra

Capítulo 3

Funciones lineales

Otra de las características esenciales estrechamente relacionada con el con-cepto de espacio vectorial tiene que ver con las propiedades de �proporcio-nalidad� y �aditividad�, propiedades éstas que siempre se satisfacen en losproblemas matemáticos denominados problemas lineales. La propiedadde aditividad consiste en que si los vectores u y v son soluciones del pro-blema, entonces el vector u + v también es solución de dicho problema y laproporcionalidad en que si el vector u es una solución del problema, entoncesel vector α · u también lo es, siendo normalmente α un número real o unnúmero complejo.

Hay que decir que en cualquier caso los problemas lineales son mássencillos de resolver que los no lineales y en muchas ocasiones resolver unproblema no lineal consiste, al menos en una primera aproximación, en plan-tear y resolver un problema lineal �que aproxime�, valga la redundancia, elproblema no lineal planteado.

En este capítulo se de�nen y estudian las funciones lineales entre espaciosvectoriales. Las funciones lineales son las más naturales en el contexto delálgebra lineal ya que, por su de�nición, respectan la estructura de espaciovectorial.

Veremos que una función lineal se puede representar por medio de unamatriz determinada por la elección de bases en su dominio y codominio.Este hecho nos permite trabajar desde dos puntos de vista distintos peroestrechamente relacionados: un primer más analítico, que se basa en el usode las propiedades generales de las funciones y un segundo más algebraico,donde tiene mayor importancia la teoría matricial.

153

Page 154: Libro Completo Algebra

154 Álgebra

3.1 Funciones linealesComo vimos, una estructura de espacio vectorial sobre un cuerpo está carac-terizada por la existencia de las operaciones de suma de vectores y productode un vector por un escalar, con los axiomas de la de�nición 2.2.1.

Entonces, si tenemos dos espacios vectoriales sobre el mismo cuerpo, esnatural preguntarse si existen funciones entre estos dos espacios tales querelaciones entre vectores en el primero (el dominio de la función) se puedancomparar y transformar en relaciones entre vectores del segundo (el codomi-nio de la función).

La siguiente de�nición responde a la pregunta anterior: la función buscadatiene que ser tal que a la suma de dos vectores en su dominio se le correspondael vector suma de las imágenes de estos dos vectores en el codominio y queal producto de un vector por un escalar en el dominio se le corresponda elproducto por el mismo escalar de la imagen del vector en el codominio.

De�nición 3.1.1 Sean (E, +, ·) y (E′,⊕, ∗) dos espacios vectoriales sobreel mismo cuerpo K. Diremos que la función f : E → E′ es lineal (otambién, que es un homomor�smo de K− e.v.), si f satisface las siguientespropiedades:

1. ∀u, v ∈ E, f(u + v) = f(u)⊕ f(v);

2. ∀u ∈ E, ∀α ∈ K, f(α · u) = α ∗ f(u).

Observación 37 Es usual denotar con los mismos símbolos + y · la sumay el producto por escalares de�nidos sobre los espacios E y E′, puesto que encasi todos los casos, la naturaleza de la operación viene determinada de formaunívoca por la naturaleza de los operandos: obviamente, si u ∈ E, entoncesf(u) ∈ E′. Con este convenio de notación, siendo E y E′ dos K − e.v., unafunción f : E → E′ es lineal si satisface las propiedades:

1. ∀u, v ∈ E, f(u + v) = f(u) + f(v)

2. ∀u ∈ E, ∀α ∈ K, f(αu) = αf(u)

Proposición 3.1.2 Siendo E y E′ K − e.v., se veri�ca que la función f :E → E′ es lineal si y sólo si ∀u, v ∈ E, ∀α, β ∈ K, se veri�ca que

f(αu + βv) = αf(u) + βf(v).

Page 155: Libro Completo Algebra

Álgebra 155

Demostración � ⇒ ” Supongamos que f : E → E′ es lineal, o lo que eslo mismo, que f satisface las condiciones 1 y 2 de la de�nición 3.1.1. Dadosu, v ∈ E y α, β ∈ K, por la condición 1 resulta que

f(αu + βv) = f(αu) + f(βv) =

= (por la condición 2) =

= αf(u) + βf(v).

� ⇐ � Recíprocamente, supongamos que ∀u, v ∈ E ∀α, β ∈ K se veri�caque

f(αu + βv) = αf(u) + βf(v).

Hay que demostrar que f satisface las condiciones 1 y 2 de la de�nición 3.1.1.Dados u, v ∈ E, tomando α = β = 1, resulta que

f(u + v) = f(1 · u + 1 · v) =

= 1 · f(u) + 1 · f(v) =

= f(u) + f(v),

con lo que se satisface la condición 1. Por otra parte, dados u ∈ E y α ∈ K,resulta que

f(αu) = f(αu + 0u) = αf(u) + 0f(u) = αf(u),

con lo que se satisface la condición 2. 2

El siguiente ejercicio nos muestra cómo se transforman las combinacioneslineales al aplicarles una función lineal.

Ejercicio 3.1.1 Demostrar que, siendo E y E′ K − e.v., y f : E → E′ unafunción lineal, siendo u1, ...., un cualquier sistema de vectores de E se veri�caque ∀(α1, ...., αn) ∈ Kn, f

(n∑

i=1

αiui

)=

n∑i=1

αif(ui).

Indicación: Razonar por inducción sobre “n”.

Nota: Nótese que un enunciado equivalente al del ejercicio anterior sería:si f : E → E′ es lineal se veri�ca que

∀n ∈ N,∀u1, ...., un ∈ E y∀α1, ...., αn ∈ K,

f

(n∑

i=1

αiui

)=

n∑i=1

αif(ui).

Page 156: Libro Completo Algebra

156 Álgebra

Ejemplo 3.1.3 Siendo E un K− e.v., la función identidad, IdE : E → E,es lineal puesto que

i) dados u, v ∈ E, se tiene

IdE(u + v) = u + v = IdE(u) + IdE(v);

ii) si u ∈ E y α ∈ K, IdE(αu) = αu = αIdE(u).

Ejemplo 3.1.4 Siendo E y E′ dos K− e.v., la función f : E → E′ de�nidapor f(u) = 0 ∀u ∈ E, es lineal y se llamará transformación cero.

Ejemplo 3.1.5 Si (E1, +1, ·1),...,(En, +n, ·n) son n K − e.v., entonces ∀i ∈{1, ..., n} la función proyección i-ésima

pi : E1 × ...× En −→ Ei

(u1, ..., un) ; ui

es lineal, puesto que, siendo i ∈ {1, ..., n} se tiene quea) dados (u1, ..., un), (v1, ..., vn) ∈ E1 × ...× En,

pi((u1, ..., un) + (v1, ..., vn)) = pi((u1 + v1, ..., un + vn)) =

= ui + vi =

= pi((u1, ..., un)) + pi((v1, ..., vn));

b) dados (u1, ..., un) ∈ E1 × ...× En y α ∈ K,

pi(α(u1, ..., un)) = pi((αu1, ..., αun)) =

= αui = αpi((u1, ..., un)).

Ejemplo 3.1.6 Dada A ∈ Mm×n(K), la función multiplicación por A

LA : Mn×1(K) −→ Mm×1(K)X ; A ·X ,

donde �·� es el producto usual de matrices, es lineal.

Ejercicio 3.1.2 Sea E un K−e.v. de dimensión �nita n y B = (v1, v2, · · · , vn)una base ordenada de E. Si u = k1v1 +k2v2 + · · ·+knvn ∈ E, sea f : E → Kn

la función que asocia al vector u sus coordenadas respecto de la base B,de�nida por f(u) = (k1, k2, · · · , kn). Veri�car que f es lineal.

Page 157: Libro Completo Algebra

Álgebra 157

Ejemplo 3.1.7 Dados a, b ∈ R, se considera el conjunto C([a, b],R), de lasfunciones reales continuas de�nidas sobre el intervalo cerrado [a, b] = {x ∈R |a ≤ x ≤ b}. Teniendo en cuenta que ∀f, g ∈ C([a, b],R) y ∀α ∈ R severi�ca que

b∫

a

(f + g) =

b∫

a

f +

b∫

a

g

y queb∫

a

(αf) = α

b∫

a

f,

resulta que la siguiente función integración sobre [a, b] es lineal

I : C([a, b],R) −→ R

f ;b∫

a

f.

Ejemplo 3.1.8 Siendo (a, b) cualquier intervalo abierto de la recta real am-pliada (i.e., se contempla la posibilidad de que a = −∞ ó b = ∞, o ambascosas simultáneamente, en cuyo caso se tendría que (a, b) = (−∞,∞) = R),se considera el conjunto

C1((a, b),R)

de las funciones reales de�nidas en (a, b), derivables en todo punto de (a, b)y tales que la función derivada es continua en (a, b). Teniendo en cuenta quela suma de funciones derivables es derivable y que la función resultante demultiplicar un número real por una función derivable es una función derivable(y que lo mismo sucede con las funciones continuas), resulta que

C1((a, b),R) ≺ F((a, b),R),

o, lo que es lo mismo, que C1((a, b),R) es un R− e.v..Dada ahora f ∈ C1((a, b),R), sea D(f) la función derivada de f :

D(f) : (a, b) −→ Rx ; D(f)(x) = f ′(x)

.

Ya que ∀f, g ∈ C1((a, b),R) y ∀α ∈ R se veri�ca que

D(f + g) = D(f) + D(g)

Page 158: Libro Completo Algebra

158 Álgebra

y queD(αf) = αD(f),

resulta que la siguiente función derivación es lineal:

D : C1((a, b),R) −→ C((a, b),R)f ; D(f)

.

Ejemplo 3.1.9 Sea n > 1. La función determinante det : Mn(K) → K no eslineal ya que det(A+B) 6= det(A)+det(B) y det(kA) = kndet(A) 6= kdet(A).

3.2 Propiedades de funciones linealesProposición 3.2.1 Si E y E′ son K− e.v. y f : E → E′ es lineal, entoncesse veri�ca que

1. f(0) = 0;

2. ∀u ∈ E , f(−u) = −f(u).

Demostración 1. ∀u ∈ E , f(0) = f(0 · u) = 0 · f(u) = 0.2. Dado u ∈ E, se tiene

f(u) + f(−u) = f(u + (−u)) = f(0) = 0,

por lo que podemos concluir que f(−u) es el opuesto de f(u) o, lo que es lomismo, que f(−u) = −f(u), puesto que (E′, +) es un grupo. 2

Ejemplo 3.2.2 Si E es un K− e.v. y u0 un vector �jo diferente de cero enE, la transformación ∀u ∈ E f(u) = u + u0 (la traslación por el vector u0)no es lineal, ya que f(0) = u0 6= 0.

El siguiente resultado nos permite asegurar que la función suma de dosfunciones lineales es una función lineal y que, si multiplicamos una funciónlineal por un escalar, la función así obtenida es también una función lineal.

Page 159: Libro Completo Algebra

Álgebra 159

Proposición 3.2.3 Siendo E y E′ K−e.v., si denotamos por F(E,E′) al es-pacio de todas las funciones de�nidas entre E y E′, y por L(E,E′) al conjuntode las funciones lineales de�nidas entre E y E′, es decir,

L(E,E′) = {f ∈ F(E,E′) |f es lineal},

se veri�ca queL(E,E′) ≺ F(E,E′),

o lo que es lo mismo, que L(E,E′) tiene estructura de espacio vectorial respec-to de la suma de funciones y producto de una función por un escalar de�nidosen F(E,E′).

Demostración i) Evidentemente L(E,E′) 6= ∅, puesto que 0 ∈ L(E,E′),ya que ∀u, v ∈ E ∀α, β ∈ K se tiene

0(αu + βv) = 0 = 0 + 0 =α0(u) + β0(v).

(Nótese que hemos denotado por el mismo símbolo a 0 ∈L(E,E′) y a 0 ∈ E′).ii) Veamos que ∀f, g ∈ L(E,E′) se veri�ca que f+g ∈ L(E,E′). Si u, v ∈ E

y α, β ∈ K, se veri�ca que

(f + g)(αu + βv) = f(αu + βv) + g(αu + βv) =

= (αf(u) + βf(v)) + (αg(u) + βg(v) =

= (por ser “ + ”asociativa y conmutativa en (E′, +))

= (αf(u) + αg(u)) + (βf(v) + βg(v)) =

= α(f + g)(u) + β(f + g)(v).

iii) Veamos que ∀f ∈ L(E,E′),∀λ ∈ K se veri�ca que λf ∈ L(E,E′).Si u, v ∈ E y α, β ∈ K, se veri�ca que

(λf) (αu + βv) = λ · f(αu + βv) = λ (αf(u) + βf(v)) =

= λαf(u) + λβf(v) =

= (por ser “ · ”conmutativo en K) =

= αλf(u) + βλf(v) = α (λf) (u) + β (λf) (v).

2

Page 160: Libro Completo Algebra

160 Álgebra

Ejemplo 3.2.4 Como consecuencia de la proposición anterior, teniendo encuenta que para cualquier K−e.v. E la función IdE : E → E es lineal, IdE ∈L(E,E), tendremos también que ∀α ∈ K, la función (αIdE) ∈ L(E,E), esdecir, la función

αIdE : E → Eu ; αu

es lineal.

Ejemplo 3.2.5 Teniendo en cuenta que si E es un K− e.v. entonces ∀n ∈N y ∀i ∈ {1, ..., n} la función proyección i-ésima es lineal, resulta que lasiguiente función es lineal: ∀(α1, ..., αn) ∈ Kn,

α1p1 + ... + αnpn : En −→ E(u1, ..., un) ; α1u1 + ... + αnun

.

En particular, dados por ejemplo α, β, γ ∈ R, es lineal la funciónαp1 + βp2 + γp3 : R3 → R

(x1, x2, x3) ; αx1 + βx2 + γx3.

Ejemplo 3.2.6 Si f ∈ C1((a, b),R), en particular f ∈ C((a, b),R) y, siendoi la función inclusión, se veri�ca que la función

3D − 5i : C1((a, b),R) −→ C((a, b),R)f ; 3D(f)− 5f

es lineal.

Proposición 3.2.7 Si E, E′ y E′′ son K− e.v. y f : E → E′ y g : E′→ E′′

son funciones lineales, entonces la función composición de g con f, g ◦ f :E → E′′, también es una función lineal.

Demostración Sean u, v ∈ E y α, β ∈ K. En ese caso

(g ◦ f)(αu + βv) = g(f(αu + βv)) =

= (por ser f lineal) =

= g(αf(u) + βf(v)) =

= (por ser g lineal) =

= αg(f(u)) + βg(f(v)) =

= α(g ◦ f)(u) + β(g ◦ f)(v).

Page 161: Libro Completo Algebra

Álgebra 161

2

Ejemplo 3.2.8 ∀f ∈ L(E,E), f◦IdE = IdE◦f. Entonces IdE es el elementoneutro de ◦ en L(E,E).

Observación 38 Si E, E′ y E′′ son R − e.v. y f : E → E′, g : E′→ E′′ yh : E′′→ E′′′ son funciones lineales, entonces la función composición h◦g◦f :E → E′′′ también es una función lineal. En general, la composición de uncualquier número (�nito) de funciones lineales, cuando esté de�nida, seráuna función lineal.

3.3 Núcleo e imagenLa siguiente proposición a�rma que las funciones lineales preservan los sub-espacios vectoriales:

Proposición 3.3.1 Si E y E′ son K−e.v. y f : E → E′ es lineal, se veri�caque

1. ∀H ⊂ E, (H ≺ E ⇒ f(H) ≺ E′) y

2. ∀H ′ ⊂ E′, (H ′ ≺ E′ ⇒ f−1(H ′) ≺ E) ;

en otras palabras: la imagen directa y recíproca de un subespaciovectorial por una función lineal es un subespacio vectorial.

Demostración 1. Supongamos que H ≺ E. En ese caso 0 ∈ H y, puestoque

f(0) = 0,

tendremos que 0 ∈ f(H). Por otra parte, si u′, v′ ∈ f(H) y α, β ∈ K,tendremos, por de�nición de f(H), que existen u, v ∈ H tales que

f(u) = u′ y f(v) = v′.

Por consiguiente

αu′ + βv′ = αf(u) + βf(v) =

= (puesto que f es lineal) =

= f(αu + βv)

Page 162: Libro Completo Algebra

162 Álgebra

y, puesto que H ≺ E, αu + βv ∈ H, con lo que

αu′ + βv′ ∈ f(H)

y en de�nitiva f(H) ≺ E′.2. Supongamos que H ′ ≺ E′. En ese caso 0 ∈ H ′ y, puesto que

f(0) = 0,

tendremos que0 ∈ f−1(H ′).

Por otra parte, si u, v ∈ f−1(H ′) y α, β ∈ K, resultará que

f(u), f(v) ∈ H ′

y, puesto que H ′ ≺ E′, tendremos que

αf(u) + βf(v) ∈ H ′

pero, al ser f lineal,

αf(u) + βf(v) = f(αu + βv),

es decir, f(αu + βv) ∈ H ′, con lo que

αu + βv ∈ f−1(H ′).

2

De�nición 3.3.2 Sean E y E′ K − e.v. y f : E → E′ una función lineal.Llamaremos núcleo de f al conjunto

Ker(f) = f−1({0}) = {u ∈ E |f(u) = 0},

e imagen de f, al conjunto

Im(f) = {v ∈ E′ |∃u ∈ E tal que f(u) = v}.

o sea, al conjunto f(E).

Page 163: Libro Completo Algebra

Álgebra 163

Obsérvese que como consecuencia de la proposición (3.3.1), para cualquierfunción lineal f : E → E′ se veri�ca que

Ker(f) ≺ E

y queIm(f) ≺ E′.

De�nición 3.3.3 Sean E y E′ K − e.v. y f : E → E′ una función lineal.Entonces a la dimensión del imagen de f se denomina rango de f y a ladimensión del núcleo de f se denomina nulidad de f.

Ejemplo 3.3.4 Sean E y E′ K − e.v.. Entonces, el núcleo de la funciónidentidad IdE : E → E es el subespacio {0} y su imagen es el espacio E;el núcleo de la función cero f : E → E′ es el espacio E y su imagen es elsubespacio {0}.

Ejercicio 3.3.1 Sea f : R3 → R3 la proyección ortogonal sobre el planoz = 0. Determinar núcleo e imagen de f.

Ejercicio 3.3.2 Sea E = C1(R,R), y sea E′ = F(R,R). Determinar el nú-cleo de la función derivación

D : C1(R,R) → F(R,R).

Ejemplo 3.3.5 Una manera diferente de la usual de veri�car que, dadosα, β, γ ∈ R, el conjunto

H ={

(x1, x2, x3) ∈ R3∣∣ αx1 + βx2 + γx3 = 0

}

es un subespacio vectorial de R3, consiste en tener en cuenta que la función

αp1 + βp2 + γp3 : R3 → R(x1, x2, x3) ; αx1 + βx2 + γx3

es lineal y queH = Ker(αp1 + βp2 + γp3).

Page 164: Libro Completo Algebra

164 Álgebra

Antes de enunciar el siguiente teorema, recordemos las siguientes de�ni-ciones:

De�nición 3.3.6 Una función f entre dos conjuntos A y B es inyectiva si∀a1, a2 ∈ A, f(a1) = f(a2) ⇒ a1 = a2.

De�nición 3.3.7 Una función f entre dos conjuntos A y B es sobreyectivasi ∀b ∈ B existe a ∈ A tal que b = f(a).

De�nición 3.3.8 Finalmente, una función f entre dos conjuntos A y B esbiyectiva si f es a la vez inyectiva y sobreyectiva.

Teorema 3.3.9 Sean E y E′ K − e.v. y f : E → E′ una función lineal. Severi�ca que

1. f es inyectiva ⇔ Ker(f) = {0};2. f es sobreyectiva ⇔ Im(f) = E′.

Demostración 1. �⇒� Puesto que f es lineal, f(0) = 0 y en consecuencia

0 ∈ Ker(f)

o, lo que es lo mismo, {0} ⊂ Ker(f). Por otra parte si u ∈ E es tal queu ∈ Ker(f), resulta que

f(u) = 0 y f(0) = 0,

y, puesto que por hipótesis f es inyectiva, concluímos que u = 0, con lo queKer(f) ⊂ {0}. En de�nitiva, Ker(f) = {0}.

�⇐� Supongamos que Ker(f) = {0} y que u, v ∈ E son tales que f(u) =f(v). En ese caso f(u) + (−f(v)) = 0 y, puesto que f es lineal,

f(u) + (−f(v)) = f(u) + f(−v) = f(u + (−v)).

En consecuencia f(u + (−v)) = 0, o lo que es lo mismo,

u + (−v) ∈ Ker(f) = {0},es decir, u + (−v) = 0, de donde u = v.

2. Por de�nición, f es sobreyectiva si y sólo si Im(f) = E′. 2

Page 165: Libro Completo Algebra

Álgebra 165

Ejemplo 3.3.10 La función derivación D : C1(R,R) → F(R,R) no es in-yectiva, ya que Ker(D) es el conjunto de las funciones constantes sobre R.

Ejemplo 3.3.11 La proyección ortogonal sobre el plano z = 0 en R3 no esinyectiva, siendo su núcleo igual al eje z.

3.4 Espacios vectoriales isomorfosSi f : E → E′ es una función lineal y biyectiva, para todo vector u en Eexiste un único vector v en E ′ tal que f(u) = v. Además f es invertible yf−1(v) = u. Por tanto f establece una particular correspondencia entre losvectores de E y los vectores de E ′ que, además, reproduce en E ′ las relacionesde dependencia entre vectores de E. En este caso se podrían identi�car los dosespacios E y E ′, pero es a menudo necesario distinguir entre distintos tiposde correspondencias, es decir, nos interesa saber exactamente qué funciónlineal biyectiva estamos considerando entre los dos espacios. Por ejemplo, lafunción identidad en R2 es lineal y biyectiva, pero también lo es la función�rotación de un ángulo de π

4�. La primera función identi�ca trivialmente las

dos copias del espacio R2 mientras que la segunda nos dice que, como espaciosvectoriales, son equivalentes.

Estas consideraciones justi�can la siguiente de�nición de espacios isomor-fos.

De�nición 3.4.1 Siendo E y E′ dos K − e.v., se dice que E y E′ son iso-morfos si existe una función f : E → E′ tal que f es lineal y biyectiva.Si f : E → E′ es lineal y biyectiva, se dice que f es un isomor�smo (nosingular).

Proposición 3.4.2 Si f : E → E′ es un isomor�smo, f−1 : E′ → E estambién un isomor�smo.

Demostración Si f : E → E′ es biyectiva entonces f−1 : E′ → E estambién biyectiva. Veamos que en las condiciones del enunciado f−1 : E′ →E es lineal.

1. Sean u′, v′ ∈ E′. Por ser f : E → E′ biyectiva ∃! u, v ∈ E tales que

f(u) = u′ y f(v) = v′

Page 166: Libro Completo Algebra

166 Álgebra

o, lo que es lo mismo, tales que f−1(u′) = u y f−1(v′) = v. Luego

f−1(u′ + v′) = f−1(f(u) + f(v)) =

(por ser f lineal)= f−1(f(u + v)) = u + v = f−1(u′) + f−1(v′).

2. Sean u′ ∈ E′ y α ∈ K. Razonando de igual modo que en el apartadoanterior, si f−1(u′) = u o, lo que es lo mismo, f(u) = u′, resulta que

f−1(αu′) = f−1(αf(u)) =

= f−1(f(αu)) = αu = αf−1(u′).

2

Observación 39 Si dos K− e.v. E y E′ son isomorfos, desde un punto devista algebraico son �iguales� o �indistinguibles�, en el sentido de que todapropiedad relacionada con la estructura de espacio vectorial que posea E setrans�ere automáticamente al espacio E′ a través del isomor�smo y recípro-camente.

Ejercicio 3.4.1 Comprobar que si f : E → E′ es un isomor�smo, entonces{v1, ...., vm} ⊆ E es libre si y solo si {f(v1), ..., f(vm)} es libre.

Ejemplo 3.4.3 Las funciones

IC : Kn → Mn×1(K)

(x1, ..., xn) ;

x1...

xn

yIF : Kn → M1×n(K)

(x1...xn) ;(

x1 · · · xn

)

son isomor�smos. A IC le denominaremos isomor�smo columna y a IFisomor�smo �la.

Page 167: Libro Completo Algebra

Álgebra 167

3.5 Funciones lineales en espacios vectorialesde dimensión �nita

3.5.1 Determinación de funciones lineales en espaciosvectoriales de dimensión �nita

El siguiente teorema fundamental establece un procedimiento para de�nirfunciones lineales entre espacios vectoriales de dimensión �nita, en el sentidode que, conocidas las imágenes de los elementos de una base del espaciodominio, la función lineal queda completamente determinada.

Teorema 3.5.1 Sean E y E′ dos K − e.v., {u1, ...., un} una base de E y{v1, ...., vn} un sistema cualquiera de n vectores de E′. En estas condicionesexiste una única función lineal f : E → E′ tal que

∀i ∈ {1, ..., n} f(ui) = vi.

Además se veri�ca que

a) f es inyectiva ⇔ {v1, ...., vn} es libre;

b) f es sobreyectiva ⇔ L({v1, ...., vn}) = E′;

c) f es un isomor�smo ⇔ {v1, ...., vn} es una base de E′.

Demostración i) Existencia. Sea u ∈ E; puesto que {u1, ...., un} es unabase de E, tendremos que ∃!(α1, ...., αn) ∈ Kn tal que u =

n∑i=1

αiui. De�nimos

entonces f(u) =n∑

i=1

αivi. Veamos que la función f así de�nida para cadau ∈ E satisface las dos condiciones requeridas.

1. f es lineal : dados u, v ∈ E y λ, µ ∈ K, si u =n∑

i=1

αiui y v =n∑

i=1

βiui,

Page 168: Libro Completo Algebra

168 Álgebra

resulta que

f(λu + µv) = f(λ ·(

n∑i=1

αiui

)+ µ ·

(n∑

i=1

βiui

)) =

= f(

(n∑

i=1

(λαi + µβi)ui

)) =

n∑i=1

(λαi + µβi)vi =

= λ

(n∑

i=1

αivi

)+ µ

(n∑

i=1

βiui

)= λf(u) + µf(v).

2. ∀i ∈ {1, ..., n} f(ui) = vi. Dado i ∈ {1, ..., n}, se tiene

ui = 0 · u1 + ... + 1 · ui + ... + 0 · un

y, por consiguiente,

f(ui) = 0 · v1 + ... + 1 · vi + ... + 0 · vn = vi.

ii) Unicidad. Si g : E → E′ es una función lineal tal que

∀i ∈ {1, ..., n} g(ui) = vi,

resulta que, siendo w un vector cualquiera de E, al ser {u1, ...., un} una basede E, ∃(α1, ...., αn) ∈ Kn tal que

w =n∑

i=1

αiui.

Ahora bien,

g(w) = g(n∑

i=1

αiui) =

= (por ser g lineal) =

=n∑

i=1

αig(ui) =n∑

i=1

αivi =

=n∑

i=1

αif(ui) = (por ser f lineal) =

= f(n∑

i=1

αiui) = f(w),

Page 169: Libro Completo Algebra

Álgebra 169

es decir, ∀w ∈ E g(w) = f(w), con lo que concluímos que f = g.Finalmente, comprobemos que se veri�can a), b) y c).a) �⇒� Sea

n∑i=1

αivi = 0. Entonces

0 =n∑

i=1

αivi =n∑

i=1

αif(ui) = f(n∑

i=1

αiui).

Ya que f es inyectiva,n∑

i=1

αiui = 0 y, puesto que {u1, · · · , un} es libre,(α1, · · · , αn) = (0, · · · , 0).

�⇐� Si w ∈ Ker(f), siendo w =n∑

i=1

αiui resulta que

f(w) = 0 = f(n∑

i=1

αiui) =n∑

i=1

αif(ui) =n∑

i=1

αivi,

y puesto que {v1, ...., vn} es libre, concluímos que

(α1, ...., αn) = (0, ..., 0),

con lo que w = 0.b) Si veri�camos que Im(f) = L(v1, · · · , vn), entonces f es sobreyectiva

⇔ L(v1, · · · , vn) = E′. Ya que L(v1, · · · , vn) ≺ Im(f), hace falta solo com-probar que Im(f) ⊆ L(v1, · · · , vn) : si v ∈ Im(f), existe u =

n∑i=1

αiui ∈ E talque

v = f(u) =n∑

i=1

αif(ui) =n∑

i=1

αivi ∈ L(v1, · · · , vn).

Así que Im(f) = L(v1, · · · , vn) = E′.c) Es consecuencia inmediata de los dos apartados anteriores. 2

A la vista del teorema anterior, se veri�ca que:

si E y E′ son K− e.v. y {u1, ...., un} ∈ En es una base de E, cualquierfunción lineal f : E → E′ queda completamente determinada por elsistema {f(u1), ..., f(un)}.

Page 170: Libro Completo Algebra

170 Álgebra

Ejercicio 3.5.1 Dada la función lineal f : R2 → R3 determinada por lascondiciones

f(1, 0) = (3, 4, 1), f(0, 1) = (−1, 0, 1),

determinar f(3, 1) y f(2,−1).

Corolario 3.5.2 Si E y E′ son dos K − e.v. �nitamente generados (de di-mensión �nita), entonces

E y E′ son isomorfos ⇔ dim(E) = dim(E′)

Demostración �⇒� Si E y E′ son isomorfos, f : E → E′ es un isomor�smo,y {u1, ...., un} es una base de E, por el apartado c) del teorema anterior,{f(u1), ...., f(un)} es una base de E′ y, en consecuencia, dim(E) = dim(E′) =n.

�⇐� Si dim(E) = dim(E′) = n, {u1, ...., un} es una base de E y {v1, ...., vn}es una base de E′, considerando la función lineal f : E → E′ tal que ∀i ∈{1, ..., n} f(ui) = vi, resulta, por la proposición anterior, que f es un isomor-�smo, y en consecuencia E y E′ son isomorfos. 2

Como vimos en el capítulo 2, al introducir una base ordenada en unespacio vectorial podemos asociar a cada vector del espacio sus coordenadasrespecto de esta base. También vimos que las coordenadas de un vector sonúnicas.

El siguiente corolario a�rma que la correspondencia entre un vector y suscoordenadas respecto de una base �jada es un isomor�smo.

Corolario 3.5.3 Si E es un K−e.v. y B = (u1, ...., un) es una base ordenadade E, la función que asocia a todo vector la matriz de sus coordenadas respectode la base B,

(·)B : E → Mn×1(K)v ; (v)B

,

donde

v =n∑

i=1

αiui ⇒ (v)B =

α1...

αn

,

es un isomor�smo.

Page 171: Libro Completo Algebra

Álgebra 171

Demostración Siendo ∀i ∈ {1, ..., n}

ei : {1, ..., n} × {1} → Mn×1(K)

(j, 1) ;

{1 si j = i0 si j 6= i

,

o, lo que es lo mismo, siendo (e1, ..., en) la base canónica de Mn×1(K), queempleando la notación habitual de matrices se escribiría

(e1, ..., en) =

10...0

,

01...0

, · · · ,

00...1

,

observando que (·)B es la única función lineal tal que

∀i ∈ {1, ..., n} (ui)B = ei

y teniendo en cuenta queBc = (e1, ..., en)

es una base de Mn×1(K), es inmediato comprobar que (·)B es un isomor�smo.2

Observación 40 Teniendo en cuenta que si dos K − e.v. E y E′ son iso-morfos, toda propiedad relacionada con la estructura de espacio vectorial queposea E se trans�ere automáticamente al espacio E′ a través del isomor�smoy recíprocamente, si un K − e.v. E tiene dimensión �n� y B es una basede E, considerando el isomor�smo (·)B : E →Mn×1(K) podemos estudiar laspropiedades de los vectores de E estudiando las que poseen sus coordena-das respecto de B, es decir, sus imágenes mediante el isomor�smo (·)B. Enparticular, si {v1, ...., vm} es un sistema de vectores de E, resulta que

{v1, ...., vm} es ligado⇔ el sistema {(v1)B , ...., (vm)B} de Mn×1(K) es ligado;

{v1, ...., vm} es libre⇔ el sistema {(v1)B , ...., (vm)B} de Mn×1(K) es libre;{v1, ...., vn} es una base de E ⇔ {(v1)B , ...., (vn)B} es una base de Mn×1(K).

Page 172: Libro Completo Algebra

172 Álgebra

Ejemplos.1. En el R − e.v. R3 con su estructura de espacio vectorial habitual el

sistema {(−1, 1, 1), (1, 1, 1), (1,−1, 0)} es libre (respectivamente ligado) si ysólo si el sistema de M3×1(R) formado por sus coordenadas respecto de labase canónica Bc de R3,

{−111

,

111

,

1−10

}

es libre (respectivamente ligado).2. En el C− e.v. P4(C) = {f ∈ C[x] | gr(f) ≤ 4}, el sistema

{x + 3x2, 2 + x,−3 + x3, 1 + x4}es libre (respectivamente ligado) si y sólo si el sistema de M4×1(C) formadopor sus coordenadas respecto de la base usual de P4(C), {1, x, x2, x3, x4},

{

01300

,

21000

,

−30010

,

10001

}

es libre (respectivamente ligado).

3.5.2 Dimensiones del núcleo y de la imagenSi, por ejemplo, en el espacio tridimensional R3 consideramos la función pro-yección ortogonal sobre el plano xy (isomorfo a R2), obtenemos una funciónlineal sobreyectiva y tal que su núcleo es todo el eje de las z. Por tanto, elrango de esta proyección es 2, su nulidad es 1 y la suma de estos dos númeroscoincide con la dimensión del dominio de la función.

El siguiente teorema generaliza este ejemplo a toda función lineal entreespacios de dimensión �nita.Teorema 3.5.4 (Teorema de la dimensión para funciones lineales)Si f : E → E′ es una función lineal tal que los subespacios Ker(f) e Im(f)son de dimensión �nita, entonces E es también de dimensión �nita y

dim(E) = dim(Ker(f)) + dim(Im(f)) = nulidad(f) + rango(f).

Page 173: Libro Completo Algebra

Álgebra 173

Demostración Sean {u1, ...., ur} una base de Ker(f) y {v1, ...., vp} unabase de Im(f). Sean, por otra parte, {w1, ..., wp} tales que

∀i ∈ {1, ..., p}, f(wi) = vi.

El teorema estará demostrado si comprobamos que {u1, ...., ur, w1, ..., wp} esuna base de E.

a) {u1, ...., ur, w1, ..., wp} es libre. Supongamos que

(α1, ...., αr, β1, ..., βp) ∈ Kr+p

es tal quer∑

i=1

αiui +

p∑j=1

βjwj = 0. (3.1)

En ese caso

f

(r∑

i=1

αiui +

p∑j=1

βjwj

)= f (0) = 0.

Pero, teniendo en cuenta que f es lineal, resulta quer∑

i=1

αif(ui) +

p∑j=1

βjf(wj) = 0,

y puesto que los vectores u1, ...., ur están en Ker(f), tendremos quep∑

j=1

βjvj =

0, con lo que, al ser {v1, ...., vp} libre, obtenemos que (β1, ..., βp) = (0, ..., 0);

pero entonces la relación (3.1) quedar∑

i=1

αiui = 0, y puesto que {u1, ...., ur}es libre, obtenemos que (α1, ...., αr) = (0, ..., 0). En de�nitiva,(α1, ...., αr, β1, ..., βp) = (0, ..., 0).

b) {u1, ...., ur, w1, ..., wp} es un sistema generador de E. Sea u ∈ E.Ahora bien, f(u) ∈ Im(f), y puesto que {v1, ...., vp} es una base de Im(f),

∃(β1, ..., βp) ∈ Kp tal que f(u) =p∑

i=1

βivi. Pero en ese caso,

f(u) =

p∑i=1

βivi =

p∑i=1

βif(wi) = f(

p∑i=1

βiwi),

Page 174: Libro Completo Algebra

174 Álgebra

o sea,

0 = f(u)− f(

p∑i=1

βiwi) =

= (por ser f lineal) =

= f(u−p∑

i=1

βiwi),

con lo que (u−

p∑i=1

βiwi

)∈ Ker(f),

y como Ker(f) = L({u1, ...., ur}),

∃(α1, ...., αr) ∈ Kr..

(u−

p∑i=1

βiwi

)=

r∑j=1

αjuj,

y resulta que , u =

(p∑

i=1

βiwi

)+

(r∑

j=1

αjuj

). 2

3.5.3 Matriz asociada a una función linealSi E y E′ son dos K− e.v. �nitamente generados, f : E → E′ es una funciónlineal y B = {u1, ...., un} es una base de E, según hemos visto, la función fqueda completamente determinada por el sistema {f(u1), ...., f(un)}.

Así, siendo B′ = {v1, ..., vm} una base de E′ y, conocido el sistema devectores de Mm×1(K)

{(f(u1))B′ , ...., (f(un))B′},vamos a obtener una expresión que nos permita calcular, para todo vectorw ∈ E, las coordenadas de f(w) respecto de B′ sin más que conocer lascoordenadas de w respecto de B.

Así pues, supongamos que

∀j ∈ {1, ..., n} (f(uj))B′ =

α1j...

αmj

∈ Mm×1(K),

Page 175: Libro Completo Algebra

Álgebra 175

o lo que es lo mismo, que

∀j ∈ {1, ..., n} (f(uj))B′ =m∑

i=1

αij(vi)B′ .

Sea w ∈ E, y supongamos también que w =n∑

j=1

xjuj, es decir, que

(w)B =

x1...

xn

.

En ese caso, f(w) = f(n∑

j=1

xjuj) =n∑

j=1

xjf(uj), con lo que , teniendo encuenta que

(·)B′ : E′ → Mm×1(K)

v ; (v)B′

es un isomor�smo,

(f(w))B′ =

(n∑

j=1

xjf(uj)

)

B′

=n∑

j=1

xj · (f(uj))B′ =

=n∑

j=1

xj

(m∑

i=1

αij(vi)B′

)=

n∑j=1

m∑i=1

xj(αij(vi)B′) =

=

(m∑

i=1

(n∑

j=1

xjαij

)(vi)B′

).

Es decir,

(f(w))B′ =

(n∑

j=1

xjα1j

)

...(n∑

j=1

xjαnj

)

,

Page 176: Libro Completo Algebra

176 Álgebra

con lo que, teniendo en cuenta como está de�nido el producto de matrices,resulta que

(f(w))B′ =

α11 · · · α1n... ...

αm1 · · · αmn

·

x1...

xn

.

En de�nitiva, si A =

α11 · · · α1n... ...

αm1 · · · αmn

, tendremos que

(f(w))B′ = A · (w)B.

A la matriz A la denominaremos matriz asociada a la función lineal frespecto de las bases B y B′ y la denotaremos por MB

B′ (f).

Nótase que MBB′ (f) ∈ Mm×n(K), donde m = dim(E′) y n = dim(E).

En resumen:

∀w ∈ E, (f(w))B′ = MBB′ (f) · (w)B

Observación 41 Nótese que la matriz MBB′ (f) está caracterizada por el he-

cho de que ∀j ∈ {1, ..., n} su columna j − esima es la matriz

(f(uj))B′ =

α1j...

αmj

∈ Mm×1(K).

Observación 42 Nótese la disposición de las bases B del espacio dominioE y B′ de E′ en la expresión:

(f(w))B′ = MBB′ (f) · (w)B.

EJEMPLOS:

1. Si consideramos en R3 y R2 sus estructuras habituales de R− e.v. y lafunción lineal f : R3 → R2 determinada por

f(1, 0, 0) = (1, 2), f(0, 1, 0) = (0, 1) y f(0, 0, 1) = (3,√

2),

Page 177: Libro Completo Algebra

Álgebra 177

resulta que, siendoB3 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, B2 = {(1, 0), (0, 1)},

MB3B2

(f) =

(1 0 3

2 1√

2

).

Por otra parte, si consideramos la base de R3

B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}(verifíquese que efectivamente es una base), tendremos que, puesto quef es lineal,

f(1, 1, 1) = f((1, 0, 0) + (0, 1, 0) + (0, 0, 1)) =

= f(1, 0, 0) + f(0, 1, 0) + f(0, 0, 1)) =

= (1, 2) + (0, 1) + (3,√

2) = (4, 3 +√

2),

y de forma análogaf(0, 1, 1) = (3, 1 +

√2),

con lo queMB

B2(f) =

(4 3 3

3 +√

2 1 +√

2√

2

).

2. Es evidente que siendo Bn la base canónica de Kn ,MBn

Bn(IdKn) = In ∈ Mn(K).

En general, si B = {u1, ...., un} es una base cualquiera de unK− e.v. E,

MBB (IdE) = In ∈ Mn(K).

Sin embargo, siendo B 6= B′,

MB′B (IdE) 6= In.

Así por ejemplo, siendoB′ = {(1, 1, 1), (0, 1, 1), (0, 0, 1)},

resulta

MB′Bn

(IdKn) =

1 0 01 1 01 1 1

.

Page 178: Libro Completo Algebra

178 Álgebra

3. Si consideramos la función proyección i− esima,

pi : Kn −→ K(x1, ..., xn) ; xi

,

siendo Bn y B1 las bases canónicas de, respectivamente, Kn y K, severi�ca que

MBnB1

(pi) = ( 0 · · · 0 1(i) 0 · · · 0 ).

4. Si en el C− e.v.

P3(C) = {f ∈ C[x] | gr(f) ≤ 3},

consideramos la base usual

B = {1, x, x2, x3}

y la función lineal f : P3(C) → P3(C) tal que

f(1) = x + 3x2,

f(x) = 2 + x,

f(x2) = −3 + x3

f(x3) = 1 + x3,

resulta que

MBB (f) =

0 2 −3 11 1 0 03 0 0 00 0 1 1

.

3.5.4 Algoritmo para hallar una base del núcleo y de laimagen

Dada una función lineal f : E → E′ entre dos K-espacios vectoriales dedimensiones �nitas n y m, queremos hallar una base del núcleo y unabase de la imagen de f .

Fijadas dos bases B = {u1, · · · , un} y B′ de E y E′, respectivamente, seaMB

B′(f) la relativa matriz asociada a f. Nuestro método consiste en el aplicar

Page 179: Libro Completo Algebra

Álgebra 179

el método de Gauss a la matriz(

MBB′ (f)

In

)hasta obtener una matriz de la forma(

AP

), donde A es la forma gaussiana de la matriz MB

B′(f). Las columnas dela matriz MB

B′(f) son las coordenadas de los vectores {f(u1), · · · , f(un)}respecto de la base B′ y las columnas de la matriz In son las coordenadasde los vectores {u1, · · · , un} respecto de la base B. Ya que f es lineal, siv =

∑ki=1 αiui, entonces f(v) = f(

∑ki=1 αiui) =

∑ki=1 αif(ui). Se sigue que,

al aplicar el método de Gauss sin intercambiar el orden de las columnas ala matriz

(MB

B′ (f)

In

), las nuevas columnas obtenidas son todavía de la forma(

(f(v))B′(v)B

)(las transformaciones elementales usadas son lineales). Así que las

columnas de P que aparezcan bajo las columnas nulas de A constituyen unabase del núcleo de f y las columna no nulas de A constituyen una base de laimagen de f .

Ejemplo 3.5.5 Sea f : R3 → R2 de�nida por f(x, y, z) = (x + 2y − 3z, x−2y + z). Sean B y B′ las bases canónicas de R3 y R3. Entonces

(MB

B′(f)

In

)=

1 2 −31 −2 1

1 0 00 1 00 0 1

c2 = c2 − 2c1

c3 = c3 + 3c1

1 0 01 −4 4

1 −2 30 1 00 0 1

c3 = c3 + c2

1 0 01 −4 0

1 −2 10 1 10 0 1

y {(1, 1), (0,−4)} es una base de Im(f) y {(1, 1, 1)} es una base de Ker(f).

3.5.5 Matriz asociada a la composición de funciones li-neales

En esta sección vamos a determinar la matriz asociada a una función h = g◦fque es la compuesta de dos funciones lineales f y g a partir de las matricesasociadas a f y a g.

Page 180: Libro Completo Algebra

180 Álgebra

Utilizaremos los siguientes resultados para determinar fácilmente la nuevamatriz que queda asociada a una función lineal si cambiamos las bases de sudominio y codominio.

Lema 3.5.6 Sean A,B ∈ Mm×n(K). En estas condiciones

1. (A = (0) ∈ Mm×n(K)) ⇔ (∀X ∈ Mn×1(K), A ·X = (0) ∈ Mm×1(K)) ;

2. A = B ⇔ (∀X ∈ Mn×1(K), A ·X = B ·X) .

Demostración 1. �⇒� Es evidente.1. �⇐� Siendo Bc = {e1, ..., en} la base canónica de Mn×1(K), que em-

pleando la notación habitual de matrices se escribiría

{e1, ..., en} = {

10...0

,

01...0

, ...,

00...1

},

resulta que, por hipótesis, ∀i ∈ {1, ..., n}, A · ei = (0) ∈ Mm×1(K), pero porotra parte, ∀j ∈ {1, ..., m}

(A · ei)(j, 1) =n∑

k=1

(A(j, k) · ei(k, 1)) = A(j, i),

es decir, A · ei = Ai (i.e., la columna i− esima de la matriz A), y puesto que

∀i ∈ {1, ..., n} A · ei = (0) = Ai,

resulta que A = (0).2. A = B ⇔ A − B = (0) ⇔ ∀X ∈ Mn×1(K) (A − B) · X = (0) ⇔

∀X ∈ Mn×1(K) A ·X = B ·X. 2

Proposición 3.5.7 Si E, E′ y E′′ son K − e.v. de dimensión �nita, B, B′

y B′′ son bases de E, E′ y E′′ respectivamente, y f : E → E′ y g : E′→ E′′

son funciones lineales, entonces se veri�ca que

MBB′′(g ◦ f) = MB

B′′ (g) ·MB

B′ (f),

donde �·� es el producto usual de matrices.

Page 181: Libro Completo Algebra

Álgebra 181

Las hipótesis de la proposición se pueden representar por medio de lasiguiente tabla, donde se supone que

dim(E) = n, dim(E ′) = m, dim(E ′′) = p.

g◦f−→↗ ↘

EBf−→ E ′

B′g−→ E ′′

B′′

(·)B l (·)B′ l (·)B′′ l

Mn×1(K) −→MB

B′ (f)Mm×1(K) −→

MB′B′′(g)

Mp×1(K)

↘ ↗MB

B′′ (g◦f)−→La conclusión es que

MBB′′(g ◦ f) = MB

B′′ (g) ·MBB′ (f).

Demostración Supongamos que dim(E) = n. Puesto que la función (·)B :E → Mn×1(K) es un isomor�smo, ∀X ∈ Mn×1(K) ∃u ∈ E tal que X = (u)B.Por otra parte, ∀u ∈ E,

(MB

B′′ (g) ·MBB′ (f)

)· (u)B = MB

B′′ (g) · (MBB′ (f) · (u)B

)=

= MB′

B′′ (g) · (f(u))B′ = (g(f(u)))B′′ =

= ((g ◦ f)(u))B′′ .

AdemásMB

B′′(g ◦ f) · (u)B = ((g ◦ f)(u))B′′ ,

es decir, ∀u ∈ E,(MB

B′′ (g) ·MB

B′ (f)

)· (u)B = MB

B′′(g ◦ f) · (u)B,

o lo que es lo mismo, ∀X ∈ Mn×1(K),(MB

B′′ (g) ·MBB′ (f)

)·X = MB

B′′(g ◦ f) ·X,

Page 182: Libro Completo Algebra

182 Álgebra

con lo que, por el lema anterior,(MB

B′′ (g) ·MBB′ (f)

)= MB

B′′(g ◦ f).

2

Ejemplo 3.5.8 Si consideramos en R3 y R2 sus estructuras habituales deR− e.v. y las funciones lineales f : R3 → R2 y g : R2 → R2 tales que

MB3B2

(f) =

(0 1 22 1 1

)

yMB2

B2(g) =

( −1 00 −1

),

resulta que

MB3B2

(g ◦ f) = MB2B2

(g) ·MB3B2

(f) =

( −1 00 −1

)·(

0 1 22 1 1

)=

=

(0 −1 −2−2 −1 −1

).

Observación 43 Es importante observar, tanto en la proposición como enel ejemplo anterior, el orden en el que se multiplican las matrices y la coin-cidencia de la bases que aparecen en la expresión

MB2B2

(g) ·MB3B2

(f)

según la dirección Noroeste-Sureste.

Observación 44 La representación de una función lineal entre espacios vec-toriales de dimensión �nita mediante un producto de matrices así como laproposición (3.5.7), justi�can la de�nición dada en el capítulo 1 del productode matrices.

Page 183: Libro Completo Algebra

Álgebra 183

3.5.6 Matrices semejantes y cambios de baseDado un K − e.v. E de dimensión �n�, teniendo en cuenta que la funciónIdE : E → E es lineal, resulta que, siendo B y B′ bases de E, tendremos que∀u ∈ E,

(u)B′ = MBB′ (IdE) · (u)B,

es decir, podemos obtener mediante un producto de matrices las coorde-nadas de cualquier vector respecto de la base B′, sin más que conocer suscoordenadas respecto de la base B y la matriz de transición de B a B′

MBB′ (IdE).Es más, teniendo en cuenta que

MBB (IdE) = In = MB

B′ (IdE),

y que, como consecuencia de la proposición (3.5.7),

In = MBB (IdE) = MB

B (IdE ◦ IdE) = MB′

B (IdE) ·MBB′ (IdE)

In = MB′

B′ (IdE) = MB′

B′ (IdE ◦ IdE) = MBB′ (IdE) ·MB

B (IdE),

obtenemos en de�nitiva que la matriz MB′

B (IdE) es invertible y que además(MB

B (IdE))−1

= MBB′ (IdE).

En consecuencia,si E es un K− e.v. de dimensión �n� y A ∈ Mn(K) es tal que

A = MBB′ (IdE),

entonces la matriz A es invertible, y además

A−1 = MB′

B (IdE).

Otra de las aplicaciones de la proposición (3.5.7) consiste en que nosaporta un método para obtener la matriz MB

B′(f) de una función lineal f :

E → E′ respecto de otras bases (tanto de E como de E′). Así, por ejemplo,

Page 184: Libro Completo Algebra

184 Álgebra

si B1 es otra base de E, considerando la función lineal IdE : E → E, resultaque

MB1

B′(f) = MB1

B′(f ◦ IdE) = MB

B′ (f) ·MB1B (IdE), (3.2)

y si B′′ es otra base de E′, considerando la función lineal IdE′ : E′→ E′,resultará que

MBB′′(f) = MB

B′′(IdE′ ◦ f) = MB

B′′(IdE′ ) ·MB

B′ (f). (3.3)

En particular, sean B y B′ dos bases del mismo K − e.v. E de dimensión

�nita n y f : E → E una función lineal. Sean MBB (f) y MB′

B′ (f) las matricesasociadas a f respecto de las bases B y B′.Utilizando las ecuaciones (3.2), (3.3) y la proposición (3.5.7), se obtiene que

MB′B′ (f) = MB′

B′ (f ◦ IdE) = MBB′(f)MB′

B (IdE) =

= MBB′(IdE ◦ f)MB′

B (IdE) = MBB′(IdE)MB

B (f)MB′B (IdE).

Entonces,MB′

B′ (f) = (MB′B (IdE))−1MB

B (f)MB′B (IdE). (3.4)

Esta última ecuación justi�ca la siguiente de�nición:

De�nición 3.5.9 Sean A,B ∈ Mn(K). Se dice que A y B son semejantessi existe una matriz invertible P ∈ Mn(K) tal que B = P−1AP.

Observación 45 La relación de semejanza sobre Mn(K) es una relación deequivalencia.

Ejercicio 3.5.2 Si consideramos en R3 y R2 sus estructuras habituales deR− e.v. y la función lineal f : R3 → R2 tal que

MB3B2

(f) =

(0 1 22 1 1

),

siendo

B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}, y B′ = {(1, 1), (0, 1)},

obtener las matrices MBB2

(f), MB3

B′ (f) y MB

B′ (f).

Page 185: Libro Completo Algebra

Álgebra 185

Ejemplo 3.5.10 Si consideramos en R2 su estructura habitual de R − e.v.y las bases B2 (la base canónica) y B = {(0, 2), (1, 1)}, resulta que

MBB2

(IdR2) =

(0 12 1

);

por otra parte, para hallar MB2B (IdR2) , podemos, o bien calcular por cual-

quier método que se conozca la matriz inversa de MBB2

(IdR2), o bien, teneren cuenta que los vectores columna de MB2

B (IdR2) son las coordenadas delos vectores de la base canónica respecto de B. Si resolvemos el sistema deecuaciones en α, β, γ y δ que se obtiene al escribir

(1, 0) = α(0, 2) + β(1, 1) y (0, 1) = γ(0, 2) + δ(1, 1),

llegamos a que(

α γβ δ

)=

( −12

12

1 0

)= MB2

B (IdR2).

3.5.7 Ecuaciones paramétricas e implícitas de un sub-espacio vectorial

En esta sección se de�nen y se muestra como hallar las ecuaciones paramé-tricas e implícitas de un subespacio cualquiera de un espacio vectorial dedimensión �nita.

En el capítulo 5 veremos como estas ecuaciones se utilizan en el contextode los códigos lineales.

En el capítulo 2 vimos que una recta r y un plano π por (0, 0, 0) sonsubespacios de R3.

Sus ecuaciones paramétricas son:

r :

x = λa

y = λb

z = λc

λ ∈ R,

donde el vector u = (a, b, c), paralelo a r, es una base de r.Notar que R = Rdim(r) y que la función

g : R −→ R3,

Page 186: Libro Completo Algebra

186 Álgebra

de�nida porg(λ) = (λa, λb, λc),

es lineal, inyectiva yr = Im(g).

Se sigue que g : R −→ r es un isomor�smo.Para el plano π las ecuaciones paramétricas son

π :

x = λu1 + µv1

y = λu2 + µv2

z = λu3 + µv3

λ, µ ∈ R,

donde los vectores u = (u1, u2, u3) y v = (v1, v2, v3), linealmente indepen-dientes, forman una base de π.

Notar que, en este caso, R2 = Rdim(π) y que la función

g : R2 −→ R3,

de�nida porg(λ, µ) = λu + µv,

es lineal, inyectiva yπ = Im(g).

Se sigue que g : R2 −→ π es un isomor�smo.

En general, sean E un K− e.v. tal que dim(E) = n y H ≺ E, H 6= {0},de manera que dim(H) = r > 0. Según hemos visto, los espacios Kr y H sonisomorfos. Si g : Kr → H es un isomor�smo y u ∈ E, tendremos que

u ∈ H ⇔ u ∈ Im(g) ⇔ ∃(α1, ..., αr) ∈ Kr tal que u = f(α1, ..., αr).

Siendo B una base cualquiera de E y Br la base canónica deKr, tendremosque

u = g(α1, ..., αr) ⇔ (u)B = (g(α1, ..., αr))B = MBrB (g) ·

α1...

αr

es decir,

Page 187: Libro Completo Algebra

Álgebra 187

u ∈ H ⇔ ∃(α1, ..., αr) ∈ Kr..(u)B = MBrB (f) ·

α1...

αr

.

A la expresión

(u)B = MBrB (f) ·

α1...

αr

la denominaremos ecuaciones paramétricas de H respecto de la base B.

Ejemplo 3.5.11 Consideramos el espacio R3 con su base canónica B3 ysea H el subespacio generado por el sistema {(1, 1, 0), (1, 2, 1)}. Teniendo encuenta que este sistema es libre, resulta que dicho sistema es una base deH y que H es un plano por (0, 0, 0). Dado entonces (x, y, z) ∈ R3, resultaque (x, y, z) ∈ H si y solo si ∃(α, β) ∈ R2 tal que (x, y, z) = α(1, 1, 0) +β(1, 2, 1), es decir, (x, y, z) = (α + β, α + 2β, β). Si g : R2 → H es el

isomor�smo de�nido por g(1, 0) =

110

y g(0, 1) =

121

, entonces

MB2B3

(g) =

1 11 20 1

.

Teniendo en cuenta que ((1, 1, 0))B3 =

110

, ((1, 2, 1))B3 =

121

,

las ecuaciones paramétricas de H respecto de la base B3 se escribirían:

(u)B3 =

1 11 20 1

·

(αβ

)

o, en forma de sistema de ecuaciones, siendo

xyz

las coordenadas respecto

de B3 de un vector genérico de H,

Page 188: Libro Completo Algebra

188 Álgebra

x = α + βy = α + 2β

z = β.

Volviendo al caso de una recta r y un plano π por (0, 0, 0) en R3, vimosque sus ecuaciones implícitas son

r :

{h1(x, y, z) = a1x + b1y + c1z + d1 = 0

h2(x, y, z) = a2x + b2y + c2z + d2 = 0

yπ : h(x, y, z) = ax + by + cz + d = 0.

En el caso de la recta r, si de�nimos la función h : R3 −→ R2 comoh(x, y, z) = (h1(x, y, z), h2(x, y, z)), resulta que

r = {(x, y, z) : h(x, y, z) = 0} = Ker(h).

Notar que el codominio de h es R2 = R3−dim(r).Para el plano π, se puede de�nir la función h : R3 −→ R como h(x, y, z) =

ax + by + cz + d y resulta que

π = {(x, y, z) : h(x, y, z) = 0} = Ker(h).

Notar que el codominio de h es, en este caso, R = R3−dim(π).El caso general es el contenido de la siguiente proposición.

Proposición 3.5.12 Sean E un K − e.v. tal que dim(E) = n y H ≺ E,H 6= {0}, H 6= E, de manera que 0 < dim(H) = r < n. En estas condicionesexiste una función lineal h : E −→ Kn−r tal que H = ker(h).

Demostración Sea {u1, ..., ur} ⊆ H una base de H. Por el teorema deextensión de una base, ∃{ur+1, ..., un} ⊆ E tal que {u1, ..., un} es una basede E. Siendo {e1, ..., en−r} la base canónica de Kn−r consideramos la funciónlineal h : E →Kn−r determinada por las condiciones:

∀i ∈ {1, ..., n}, h(ui) =

{0 si i ≤ r

ei−r si i > r. Evidentemente H ⊆ Ker(h), y

puesto que el conjunto {e1, ..., en−r} ⊆ Im(h), resulta que dim(Im(h)) = n−r, con lo que, teniendo en cuenta que dim(E) = n, resulta que dim(Ker(h)) =

Page 189: Libro Completo Algebra

Álgebra 189

r = dim(H), es decir, H = Ker(h). 2

Vista la proposición anterior, si B = {u1, ..., un} es una base de E yh : E →Kn−r es una función lineal tal que Ker(h) = H, siendo Bn−r la basecanónica de Kn−r resulta que

u ∈ H ⇔ h(u) = 0 ⇔ MBBn−r

(h) · (u)B = (0)

en de�nitiva,

u ∈ H ⇔ MBBn−r

(h) · (u)B = (0)

A la expresiónMB

Bn−r(h) · (u)B = (0)

(o a su versión equivalente como sistema homogéneo de ecuaciones) la deno-minaremos ecuaciones implícitas de H respecto de B.

Ejemplo 3.5.13 Sea H el subespacio de R3 del ejemplo anterior, i.e., elsubespacio generado por el sistema {(1, 1, 0), (1, 2, 1)}. Teniendo en cuentaque este sistema es libre, resulta que dicho sistema es una base de H y queH es un plano. Extendiendo este sistema con el vector (0, 1, 0), resulta que

B = {(1, 1, 0), (1, 2, 1), (0, 1, 0)}

es un sistema libre (verifíquese) y en consecuencia es una base de R3. Si ahoraconsideramos la función lineal h : R3→R, determinada por las condicionesh(1, 1, 0) = 0, h(1, 2, 1) = 0 y h(0, 1, 0) = 1, resulta que H = Ker(h), yen consecuencia, siendo B1 la base canónica de R, u ∈ H ⇔ h(u) = 0 ⇔MB

B1(h) · (u)B = (0), es decir, las ecuaciones implícitas de H respecto de

B son(

0 0 1) · (u)B = (0), o lo que es lo mismo, siendo

xyz

las

coordenadas de un vector genérico de H,(

0 0 1) ·

xyz

= (0), que

escritas en forma de sistema de ecuaciones se reducen a z = 0.

Page 190: Libro Completo Algebra

190 Álgebra

Si ahora quisiéramos obtener las ecuaciones implícitas de H respecto deotra base, por ejemplo la base canónica de R3, B3, es su�ciente con cambiarla matriz considerada, es decir, las ecuaciones implícitas de H respecto de B3

son MB3B1

(h) · (u)B = (0) y, puesto que MB3B1

(h) = MBB1

(h) ·MB3B (Id), teniendo

en cuenta que MB3B (Id) =

(MB

B3(Id)

)−1=

1 1 01 2 10 1 0

−1

=

1 0 −10 0 1−1 1 −1

,

resulta que las ecuaciones implícitas de H respecto de B3 son

(0 0 1

) ·

1 0 −10 0 1−1 1 −1

·

xyz

= (0),

es decir, −x + y − z = 0.

3.6 Ejercicios3.6.1 Ejercicios resueltos1. Razonar si las siguientes funciones son o no lineales (en cada uno delos conjuntos considerados se considera su estructura habitual de espaciovectorial):

a) f : R3 → R(x, y, z) Ã x + 2y − 3z

b) f : R3 → R(x, y, z) Ã xyz

c) f : R2 → R(x, y) Ã x2 + y

2. Dada la función lineal f : R2 → R3 determinada por las condiciones

f(1, 0) = (3, 4, 1), f(0, 1) = (−1, 0, 1),

determinar f(3, 1) y f(2,−1).

3. Determinar si la función T : M2(R) → R, donde

Page 191: Libro Completo Algebra

Álgebra 191

a) T

(a bc d

)= 3a− 4b + c− d

b) T

(a bc d

)= a2 + b2

es una transformación lineal.

4. Sea T : R2 → R2 el operador lineal de�nido por la expresión T (x, y) =(2x− y,−8x + 4y). ¾Cuáles de los siguientes vectores están en R(T )?

a) (1,-4) b) (5,0) c) (-3,12)

T (x, y) = (2x− y,−4(2x− 4)).

5. Sea T : P2 → P3 la transformación lineal de�nida por T (p(x)) = xp(x).¾Cuáles de los siguientes vectores están en Ker(T )?a) x3 b) 0 c)1 + x

6. En cada inciso, usando la información proporcionada obtener la nu-lidad de T.

a) T : R5 → R7 tiene rango 3.b) T : P4 → P3 tiene rango 1.c) T (R6) = R3.d) T : M2(R) → M2(R) tiene rango 3.

7. Sea T : R2 → R2 la proyección ortogonal sobre la recta y=x.a) Encontrar el núcleo de T.b) ¾Es T uno a uno? Justi�car la conclusión.

8. En cada inciso, usando la información dada determinar si (la funciónlineal) T es uno a uno.

a) T : Rn → Rm ; nulidad(T) =0.b) T : Rn → Rn ; rango(T) = n-1.c) T : Rm → Rn ; n<m.d) T : Rn → Rn ; R(T) = Rn.

9. Sea T : P2 → P1 la transformación lineal de�nida porT (a0 + a1x + a2x

2) = (a0 + a1)− (2a1 + 3a2)x.a) Encontrar la matriz para T con respecto a las bases B2 = {1,x,x2} y

B1 = {1,x} para P2 y P1.b) Comprobar que la matriz (T)B2,B1 = MB1

B2(T ) obtenida en el inciso a)

satisface la fórmula : A(p(x))B2 = (T(p(x)))B2.

Page 192: Libro Completo Algebra

192 Álgebra

10. Sea T1 : P1 → P2 la transformación lineal de�nida por

T1(c0 + c1x) = 2c0 − 3c1x

y sea T2 : P2 → P3 la transformación lineal de�nida porT2(c0 + c1x + c2x

2) = 3x(c0 + c1x + c2x2).

Sean B1 = {1,x}, B2 = {1,x,x2} y B3 = {1,x,x2,x3}.a) Encontrar MB1

B3(T2 ◦ T1), M

B2B3

(T2), MB1B2

(T1).b) Escribir una fórmula que relacione las matrices del inciso a).c) Comprobar que las matrices del inciso a) satisfacen la fórmula plan-

teada en el inciso b).

11. Sean A y B matrices semejantes. Demostrar lo siguiente:a) At y Bt son semejantes.b) Si A y B son invertibles, entonces A−1 y B−1 son semejantes.

12.(Teorema alternativo de Fredholm) Sea T : V → V un operadorlineal sobre un espacio vectorial n dimensional. Demostrar que se cumpleexactamente una de las siguientes proposiciones:

i) La ecuación T(x) =b tiene una solución para todo los vectores b enV.

ii) Nulidad de T > 0.

13. Sea la función lineal f : R4 → R3 determinada por las condiciones

f(1, 1, 1, 1) = (0, 0, 1), f(1, 0, 1, 0) = (1, 1,−1),

f(1, 1, 1, 0) = (0, 0,−1), f(−1,−2, 0, 0) = (1, 1, 1).

a) Hallar la matriz asociada a f respecto de las bases canónicas de R4 yR3.

b) La dimensión y las ecuaciones de Ker(f) e Im(f) respecto de las basescanónicas de R4 y R3.

14. Sea E un espacio vectorial de dimensión 3 y B = {e1, e2, e3} una basede E. Consideramos la función lineal f : E → E tal que su matriz asociadasea

MBB (f) =

15 −11 520 −15 88 −7 6

.

Page 193: Libro Completo Algebra

Álgebra 193

Hallar la matriz asociada a f respecto de la base B′ = {u1, u2, u3}, dondeu1 = 2e1 + 3e2 + e3,

u2 = 3e1 + 4e2 + e3,

u3 = e1 + 2e2 + 2e3.

15. Hallar una base del núcleo y una base de la imagen de la siguientefunción lineal:

f : R4 → R3 determinada por las condiciones:f(1, 0, 0, 0) = (1, 0, 1), f(0, 1, 0, 0) = (2, 1,−1),

f(0, 0, 1, 0) = (3, 0,−1), f(0, 0, 0, 1) = (1, 1, 1).

16. En R2 se considera la base B′ = {u1, u2}, dondeu1 = 2e1 + 3e2,

u2 = 3e1 + 4e2,

y B2 = {e1, e2} = {(1, 0), (0, 1)}. Siendo la función lineal f : R2 → R2 talque su matriz asociada respecto de B′ es

MB′B′ (f) =

(3 152 10

),

hallar una base de Ker(f) y una base de Im(f).

3.6.2 Ejercicios propuestos1. Razona si las siguientes funciones son o no lineales (en cada uno de los

conjuntos considerados se considera su estructura habitual de espaciovectorial):

f : R3 −→ R(x, y, z) 7→ 2x + 1

g : R3 −→ R2

(x, y, z) 7→ (x− y, y2)

h : R4 −→ R2

(x, y, z, t) 7→ (2x− 3y + t, z − t)

Page 194: Libro Completo Algebra

194 Álgebra

2. Prueba que para toda aplicación R-lineal f : R −→ R existe un númeroreal a tal que f(x) = ax, ∀x ∈ R.

3. Prueba que dado un K�espacio vectorial E, una aplicación lineal

f : E −→ K

no nula es sobreyectiva.

4. Sea D((a, b),R) el conjunto de funciones derivables reales de variablereal de�nidas en el intervalo (a, b) ⊂ R.

(a) Demuestra queD((a, b),R) es un subespacio vectorial de F((a, b),R).(b) Prueba que la aplicación derivada

D : D((a, b),R) −→ F((a, b),R)f 7→ D(f) = f ′

es una aplicación lineal.(c) ¾Cuál es el núcleo de dicha aplicación?

5. Sea C([a, b],R) el espacio vectorial de funciones reales continuas de�ni-das en el intervalo [a, b] ⊂ R. Prueba que la aplicación integral de�nida

I : C([a, b],R) −→ Rf 7→ I(f) =

∫ b

af(x)dx

es una aplicación lineal.

6. Considera el espacio vectorial P3(R) de polinomios de grado menor oigual que 3 y las bases:

B3 = {1, x, x2, x3} y B = {1, (x− 1), (x− 1)2, (x− 1)3}.

Calcula las matrices de cambio de base: MB3B (IdP3(R)) y MB

B3(IdP3(R)).

Halla las coordenadas respecto de B de los polinomios:

2x + 4x2 + x3, 1 + x3, 2 + 2x, 2 + x2 − x3.

Page 195: Libro Completo Algebra

Álgebra 195

7. Sea B3 = {e1, e2, e3} la base canónica de R3. Sea f la única aplicaciónlineal de R3 en R4 veri�cando:

f(e1) = (2, 0,−1, 0)f(e2) = (1, 3,−2, 3)f(e3) = (1, 1,−1, 1)

(i) Halla f(x, y, z) para (x, y, z) ∈ R3.(ii) Calcula una base de Ker(f).(iii) Calcula una base de Im(f).

8. Considera la aplicación lineal de�nida por:

f : R3 −→ R3, f(x, y, z) = (x + 2y − 2z,3

2x + 4y − 3z, x + 3y − 2z)

Calcula las ecuaciones implícitas de Im(f). ¾Qué dimensión tieneKer(f)?

9. Estudia la inyectividad, sobreyectividad y biyectividad de las aplica-ciones lineales:

f : R3 −→ R3

(x, y, z) 7→ (2x + y − z, 3x + 2y − 4z, x + 2y − z)

g : R4 −→ R3

(x, y, z, t) 7→ (2y − 3z − 3t,−x + 2z + 4t,−2x + y + z)

h : R2 −→ R4 de�nida pore1 7→ h(e1) = (2,−1, 0, 3)e2 7→ h(e2) = (1, 0,−1,−7)

10. Siendo f , g y h las aplicaciones lineales del ejercicio anterior, respondea las siguientes preguntas:

• ¾Pertenecen (3,−1, 0) y (2, 0,−1) a Im(f)?• ¾Pertenecen (2,−7, 11, 3) y (14, 15, 13,−3) a Ker(g)?• ¾Pertenecen (1,−1, 1, 10) y (1, 2,−5,−3) a Im(h)?

Page 196: Libro Completo Algebra

196 Álgebra

11. Sea f la aplicación lineal de R3 a R3 cuya matriz respecto de la basecanónica B3 = {e1, e2, e3} es:

MB3B3

(f) =

−3 5 02 4 25 −2 5

Sea B = {v1 = (2, 2,−2), v2 = (0, 1, 2), v3 = (1, 2, 2)}.- Comprueba que B es una base de R3.- Calcula las matrices MB3

B (IdR3), MBB3

(IdR3) y MBB (f)

12. Para cada n ∈ N, sea Pn(R) el espacio vectorial de polinomios en unavariable de grado menor o igual que n con coe�cientes en R. Sea Bn ={1, x, . . . , xn} la base canónica de dicho espacio. Sea Dn la restricciónde la aplicación derivada D a Pn(R):

Dn : Pn(R) −→ Pn−1(R)p 7→ D(p) = p′

Para n = 3, calcula la matriz de la aplicación D3 respecto a las basesB3 y B2. ¾Cuál será la forma general de la matriz de Dn respecto a lasbases Bn y Bn−1?

Page 197: Libro Completo Algebra

Capítulo 4

Espacios vectoriales euclídeos

En el capítulo 2 hemos recordado la de�nición de producto escalar de vectoresen R2 y R3 y hemos de�nido el producto escalar de vectores de Rn. Lalongitud de un vector y la distancia entre dos vectores quedaban de�nidaspor las expresiones ‖u‖ =

√u · u y d(u, v) = ‖u− v‖ =

√(u− v) · (u− v).

Hay situaciones en las que es necesario utilizar otras distancias entre ob-jetos, por ejemplo, cuando se pretende obtener la mejor aproximación deuna función por medio de funciones que pertenecen a un subespacio vec-torial determinado. Esto puede conseguirse de�niendo un producto escalaradecuado.

A lo largo del capítulo consideraremos sólo espacios vectoriales sobre R.La teoría para espacios vectoriales euclídeos complejos es una generalizaciónde la aquí presentada para espacios reales.

4.1 Producto escalarDe�nición 4.1.1 Si E es un R− e.v. se dice que una función

<,>: E × E −→ R(u, v) Ã < u, v >

es un producto escalar real (o producto interior real) si:(p.e. 1) ∀u, v, w ∈ E < u + v, w >=< u, w > + < v, w > .(p.e. 2) ∀u, v ∈ E ∀α ∈ R < αu, v >= α < u, v > .(p.e. 3) ∀u, v ∈ E < u, v >=< v, u > .(p.e. 4) ∀u ∈ E < u, u >≥ 0 y < u, u >= 0 ⇔ u = 0.

197

Page 198: Libro Completo Algebra

198 Álgebra

Si <, >: E × E −→ R es un producto escalar, al par (E, <, >) ledenominaremos espacio vectorial euclídeo (e.v.e.).

Ejemplo 4.1.2 En R2 la función

<,>: R2 × R2 −→ R

de�nida para cada par de vectores (x, y),(x′, y′) ∈ R2 mediante la expresión

〈(x1, x2), (y1, y2)〉 = x1y1 + x2y2

es un producto escalar. Como vimos, este producto escalar es el productoescalar usual de R2.

Ejemplo 4.1.3 En general en el R− e.v. Rn la función

<,>: Rn × Rn −→ R

de�nida para cada par de vectores

(x1, ..., xn), (y1, ..., yn) ∈ Rn

mediante la expresión

〈(x1, ..., xn), (y1, ..., yn)〉 = x1y1 + ... + xnyn =n∑

i=1

xiyi

es un producto escalar (verifíquese). Este producto escalar es el productoescalar usual de Rn.

Ejemplo 4.1.4 En el R− e.v. de los polinomios con coe�cientes reales R[x]consideraremos los productos escalares siguientes (verifíquese):

<,>1: R[x]× R[x] −→ R

(p(x), q(x)) Ã1∫−1

p(x) · q(x)dx,

<,>0: R[x]× R[x] −→ R

(p(x), q(x)) Ãmin{n,m}∑

i=0

aibi,

donde p(x) = anxn + ... + a1x + a0 y q(x) = bmxm + ... + b1x + b0.

Page 199: Libro Completo Algebra

Álgebra 199

Es importante señalar que en el ejemplo anterior, los espacios vectorialeseuclídeos (R[x], <, >0) y (R[x], <, >1), aún teniendo el mismo conjunto base,son distintos. Por ejemplo,

< 3, x2 >1=

1∫

−1

3x2dx = 2 y < 3, x2 >0= 3 · 0 = 0.

Observación 46 Nótese que si (E, <, >) es un e.v.e., a partir de las pro-piedades del producto escalar se veri�ca que

∀u, v, w ∈ E < u, w + v >=< w + v, u >==< w, u > + < w, v >=< u, w > + < v,w >

y∀u, v ∈ E ∀α ∈ R < u, αv >=< αv, u >= α < v, u >= α < u, v > .

Además, si α1, ..., αn ∈ R y u1, ..., un, v ∈ E,

〈α1u1 + ... + αnun, v〉 = α1 < u1, v > +... + αn < un, v >=n∑

i=1

αi < ui, v > .

Ejercicio 4.1.1 Demostrar que si (E,<, >) es un e.v.e., α1, ..., αn, β1, ..., βm ∈R y u1, ..., un, v1, ..., vm ∈ E, entonces

〈α1u1 + ... + αnun, β1v1 + ... + βmvm〉 =

= α1β1 < u1, v1 > +... + α1βm < u1, vm > +

+α2β1 < u2, v1 > +... + αnβm < un, vm >=

=n∑

i=1

m∑j=1

αiβj < ui, vj > .

Se sigue que un producto escalar es lineal en la primera y segunda va-riables, es decir, es una función bilineal. Además, por valer las propiedades(p.e. 3) y (p.e. 4), se dice que <,> es una función bilineal, simétrica yde�nida positiva.

Ejercicio 4.1.2 Sea E un R − e.v.e. con producto escalar (·, ·) y sea v0

cualquier vector �jo de E. Sea f : E → R la función de�nida por f(u) =(u, v0) ∀u ∈ E. Veri�car que f es lineal.

Page 200: Libro Completo Algebra

200 Álgebra

4.2 Longitud o norma euclídea de un vectorSiguiendo la línea directriz marcada en la introducción, tomando el conceptode producto escalar como un concepto primario, vamos a de�nir a partir deél las nociones de norma, distancia y ángulo en espacios euclídeos.

De�nición 4.2.1 Si (E, <, >) es un e.v. y u ∈ E, una norma (o módulo)es número real, ‖u‖, tal que

(n. 1) ∀u ∈ E ‖u‖ ≥ 0 y ‖u‖ = 0 ⇔ u = 0,(n. 2) ∀u ∈ E ∀k ∈ R ‖ku‖ = |k|‖u‖,(n. 3) ∀u, v ∈ E ‖u + v‖ ≤ ‖u‖+ ‖v‖ (desigualdad triangular).

De�nición 4.2.2 Si (E, <,>) es un e.v.e. y u ∈ E, llamaremos normaeuclídea (o módulo) de u al número real

‖u‖ =√

< u, u >.

Antes de poder veri�car que una norma euclídea veri�ca la de�nicióngeneral de norma, necesitamos estudiar algunas de sus propiedades.

4.2.1 Propiedades de la norma euclídeaA partir de las propiedades que debe satisfacer la función <,> por ser unproducto escalar, es fácil obtener las propiedades:

(n. 1)∀u ∈ E ‖u‖ ≥ 0 y ‖u‖ = 0 ⇔< u, u >= 0 ⇔ u = 0.(n. 2)∀u ∈ E ∀k ∈ R

‖ku‖ =√

< ku, ku > =√

k2 < u, u > = |k| · ‖u‖ .

Otras propiedades de la norma euclídea que se pueden obtener fácilmentea partir de las propiedades del producto escalar son las que aparecen enun-ciadas en el ejercicio siguiente.

Ejercicio 4.2.1 Sea (E, <,>) un e.v.e.. Demostrar que ∀u, v ∈ E, se veri-�ca que:

1. ‖u + v‖2 + ‖u− v‖2 = 2(‖u‖2 + ‖v‖2) (ley del paralelogramo)

2. < u, v >= 12

(‖u + v‖2 − ‖u‖2 − ‖v‖2)3. < u, v >= 1

4

(‖u + v‖2 − ‖u− v‖2)

A las propiedades 2 y 3 se las conoce como identidades de polarización.

Page 201: Libro Completo Algebra

Álgebra 201

Además de las propiedades anteriores, vamos a obtener otras propiedadesde la norma que derivan básicamente del siguiente resultado conocido comodesigualdad de Cauchy-Schwarz.

Teorema 4.2.3 Si (E, <,>) es un e.v.e., ∀u, v ∈ E se veri�ca que

|< u, v >| ≤ ‖u‖ · ‖v‖ .

Además|< u, v >| = ‖u‖ · ‖v‖ ⇔ {u, v} es ligado.

Demostración ∀λ ∈ R consideramos el vector u+λv. Por las propiedadesdel producto escalar,

∀λ ∈ R < u + λv, u + λv >≥ 0

pero

< u + λv, u + λv >=< u, u > +2λ < u, v > +λ2 < v, v > .

Si de�nimos a =< v, v >, b =< u, v > y c =< u, u > y consideramos lafunción

f : R → Rλ Ã f(λ) = aλ2 + 2bλ + c

según es sabido, el grafo de f es una parábola de R2 y, puesto que si {u, v}es libre, u + λv 6= 0, ∀λ ∈ R y

∀λ ∈ R < u + λv, u + λv >= aλ2 + 2bλ + c > 0,

tendremos que eso sólo es posible si ∀λ ∈ R la ecuación de segundo gradoanterior no tiene raíces reales, es decir, si su discriminante es negativo:

∆ = 4b2 − 4ac < 0

o, lo que es lo mismo,b2 − ac < 0,

con lo que (< u, v >2 − < u, u >< v, v >

)< 0,

Page 202: Libro Completo Algebra

202 Álgebra

es decir,|< u, v >| < √

< u, u > · √< v, v > = ‖u‖ · ‖v‖ .

Además

|< u, v >| = ‖u‖ · ‖v‖ ⇔ b2 − ac = 0 ⇔⇔ ∃λ ∈ R tal que < u, u > +2λ < u, v > +λ2 < v, v >= 0

⇔ ∃λ ∈ R tal que < u + λv, u + λv >= 0

⇔ ∃λ ∈ R tal que ‖u + λv‖ = 0

⇔ ∃λ ∈ R tal que u + λv = 0

⇔ {u, v} es ligado.

2

A partir del resultado anterior se obtiene la propiedad (n. 3), la desigual-dad triangular o desigualdad del triángulo, para norma euclídeas. Por tanto,una norma euclídea es una norma.

Proposición 4.2.4 Si (E, <,>) es un e.v.e., ∀u, v ∈ E se veri�ca que

‖u + v‖ ≤ ‖u‖+ ‖v‖ .

Demostración

‖u + v‖2 = < u + v, u + v >=< u, u > +2 < u, v > + < v, v >=

= ‖u‖2 + ‖v‖2 + 2 < u, v >≤ ‖u‖2 + ‖v‖2 + 2 |< u, v >| ≤≤ ‖u‖2 + ‖v‖2 + 2 ‖u‖ · ‖v‖ = (‖u‖+ ‖v‖)2 ,

de donde, extrayendo raíces cuadradas

‖u + v‖ ≤ ‖u‖+ ‖v‖ .

2

Ejercicio 4.2.2 Determinar las normas euclídeas asociadas a los productosescalares de�nidos en los ejemplos anteriores.

Page 203: Libro Completo Algebra

Álgebra 203

Ángulo entre dos vectores

A partir del producto escalar, también podemos recuperar el concepto deángulo. Si (E,<, >) es un e.v.e. y u, v ∈ E, u 6= 0, v 6= 0, como consecuenciade la desigualdad de Cauchy-Schwarz y de las propiedades que satisface elvalor absoluto resulta que

−1 ≤ < u, v >

‖u‖ · ‖v‖ ≤ 1.

De�nición 4.2.5 Si (E, <, >) es un e.v.e. y u, v ∈ E, u 6= 0, v 6= 0, sedenomina ángulo entre los vectores u y v al número real uv ∈ [0, π] tal que

cos(uv) =< u, v >

‖u‖ · ‖v‖ .

De�nición 4.2.6 Si (E,<, >) es un e.v.e., y u, v ∈ E, se dice que u y v sonortogonales (o perpendiculares) si

< u, v >= 0.

Ejercicio 4.2.3 Compruébese que si u, v ∈ (E, <,>), u 6= 0, v 6= 0, entonces

uv =π

2⇔ u y v son ortogonales.

y{u, v} es ligado⇔ uv = 0 ó uv = π.

Para probar esta última parte, téngase en cuenta que, si por ejemplo uv = 0,entonces |< u, v >| = ‖u‖ · ‖v‖ y que, en tal caso, valen las conclusiones delteorema (4.2.3).

Ejercicio 4.2.4 En el e.v.e. (R3, <, >), donde <,> es el producto escalarusual, determinar el ángulo formado por los vectores (1, 0, 1) y (0, 0, 1).

Ejercicio 4.2.5 Determinar el ángulo que forman los vectores 1 + x, x2 ∈R[x] en los e.v.e. (R[x], <, >1) y (R[x], <, >0).

Page 204: Libro Completo Algebra

204 Álgebra

Distancia euclídeaFinalmente, a partir del producto escalar, también podemos de�nir la dis-tancia entre vectores.De�nición 4.2.7 Si (E, <,>) es un e.v.e. y u, v ∈ E se denomina distan-cia euclídea de u a v y se denota por d(u, v) al número real

d(u, v) = ‖u− v‖ =√

< u− v, u− v >.

A partir de las propiedades vistas de la norma euclídea, es fácil ver quese satisfacen las propiedades que debe veri�car cualquier función distancia,a saber:

1. ∀x, y ∈ E d(x, y) ≥ 0.

2. ∀x, y ∈ E d(x, y) = 0 ⇔ x = y

3. ∀x, y, z ∈ E d(x, z) ≤ d(x, y) + d(y, z).

Ejercicio 4.2.6 En el e.v.e (R3, <, >), donde <,> es el producto escalarusual, determinar la distancia entre los vectores (1, 0, 1) y (0, 1, 1).

Ejercicio 4.2.7 En el e.v.e (R[x], <, >1) determinar d(1 + x, x2).

Ejercicio 4.2.8 En el e.v.e (R[x], <, >0) determinar d(1+x, x2). Compáreseel resultado obtenido con el del ejercicio anterior.

4.3 Método de ortogonalización de Gram-SchmidtDe�nición 4.3.1 Sean (E,<, >) un e.v.e. y {u1, ..., ur} un sistema de vec-tores de E. Se dice que el sistema {u1, ..., ur} es ortogonal si se veri�ca:

1. ∀i ∈ {1, ..., r} ui 6= 02. ∀i, j ∈ {1, ..., r} (i 6= j ⇒< ui, uj >= 0)

Si además de ser un sistema ortogonal, el sistema {u1, ..., ur} satisface3. ∀i ∈ {1, ..., r} ‖ui‖ = 1

se dice que el sistema {u1, ..., ur} es ortonormal.Proposición 4.3.2 Sean (E, <, >) un e.v.e. y {u1, ..., ur} un sistema devectores de E \ {0}. Se veri�ca que

{u1, ..., ur} ortogonal ⇒ {u1, ..., ur} libre.

Page 205: Libro Completo Algebra

Álgebra 205

Demostración Supongamos que

α1u1 + ... + αrur = 0.

En ese caso

∀i ∈ {1, ..., r} 〈α1u1 + ... + αrur, ui〉 =< 0, ui >= 0.

Pero por otra parte, ∀i ∈ {1, ..., r},〈α1u1 + ... + αrur, ui〉 =

= α1 < u1, ui > +... + αi < ui, ui > +... + αr < ur, ui >=

= αi‖ui‖2,

puesto que si j 6= i < uj, ui >= 0. En de�nitiva,

∀i ∈ {1, ..., r} αi = 0

y en consecuencia {u1, ..., ur} es libre. 2

Observación 47 Es importante notar que existen sistemas libres que no sonortogonales, por ejemplo dos vectores que no son ni paralelos, ni perpendicu-lares.

De�nición 4.3.3 Sean (E, <, >) un e.v.e y B = {u1, ..., un} una base de E.Se dice que B es una base ortogonal si el sistema {u1, ..., un} es ortogonal y,obviamente, se dice que B es una base ortonormal si el sistema {u1, ..., un}es ortonormal.

Obviamente si (E, <, >) un e.v.e. tal que dim(E) = n y {u1, ..., un} es unsistema ortogonal, necesariamente {u1, ..., un} es una base ortogonal, siendolibre como consecuencia de la proposición anterior.

En el siguiente teorema expondremos un método, conocido como métodode ortogonalización de Gram-Schmidt, que nos va a permitir construir un sis-tema ortogonal a partir de un sistema dado (en particular una base ortogonala partir de una base dada).

La idea consiste en, partiendo del primer vector del sistema dado, quecoincidirá con el primer vector del sistema ortogonal obtenido, ir construyen-do el sistema de manera que cada vector que añadimos sea ortogonal a losvectores ya construidos.

Page 206: Libro Completo Algebra

206 Álgebra

Teorema 4.3.4 Sean (E, <,>) un e.v.e. y {u1, ..., ur} un sistema libre deE. En estas condiciones existe un sistema ortogonal {v1, ..., vr} tal que

∀i ∈ {1, ..., r} L({v1, ..., vi}) = L({u1, ..., ui}).

Demostración Razonamos por inducción sobre r : .Base de inducción: Si r = 1 no hay nada que probar, puesto que si {u1}

es libre, u1 6= 0 y obviamente (según la de�nición) {u1} es ortogonal.Paso de inducción: Supongamos cierto el resultado para todo sistema

libre de r vectores. Sea {u1, ..., ur+1} un sistema libre. En ese caso, puestoque {u1, ..., ur} es un sistema de r vectores, podemos aplicar la hipótesis deinducción, es decir, existe un sistema ortogonal {v1, ..., vr} tal que

∀i ∈ {1, ..., r} L({v1, ..., vi}) = L({u1, ..., ui}).

Veamos cómo construir vr+1 de manera que satisfaga las condiciones reque-ridas. Puesto que

L({v1, ..., vr}) = L({u1, ..., ur}),buscamos vr+1 ∈ E de manera que

L({v1, ..., vr, vr+1}) = L({u1, ..., ur, ur+1}).

Resulta que debe suceder que

vr+1 ∈ L({v1, ..., vr, vr+1}) = L({u1, ..., ur, ur+1}) = L({v1, ..., vr, ur+1}).

Pongamosvr+1 = ur+1 + λ1v1 + ... + λrvr

y veamos cómo deben ser los coe�cientes λ1, ..., λr ∈ R para que se satisfagala condición de ortogonalidad, es decir, que

∀i ∈ {1, ..., r} < vr+1, vi >= 0.

Dado i ∈ {1, ..., r},

< vr+1, vi >=< ur+1 + λ1v1 + ... + λrvr, vi >=

= < ur+1, vi > +λ1 < v1, vi > +... + λr < vr, vi >=

= < ur+1, vi > +λi < vi, vi >

Page 207: Libro Completo Algebra

Álgebra 207

puesto que el resto de los términos son nulos, al ser ortogonal el sistema{v1, ..., vr} .

Imponiendo entonces la condición

< vr+1, vi >= 0 =< ur+1, vi > +λi < vi, vi >

resulta queλi = −< ur+1, vi >

< vi, vi >.

qed

Método de ortogonalización de Gram-SchmidtDe la demostración anterior se deduce que, en de�nitiva, dado el sistemalibre {u1, ..., ur} , el método de ortogonalización de Gram-Schmidt consisteen de�nir el sistema de vectores

v1 = u1

v2 = u2 − < u2, v1 >

< v1, v1 >· v1

v3 = u3 − < u3, v1 >

< v1, v1 >· v1 − < u3, v2 >

< v2, v2 >· v2

...vr = ur − < ur, v1 >

< v1, v1 >· v1 − ...− < ur, vr−1 >

< vr−1, vr−1 >· vr−1,

que es un sistema ortogonal y además satisface la condición

∀i ∈ {1, ...r − 1} L({v1, ..., vi}) = L({u1, ..., ui}).

Observación 48 Nótese que si {v1, ..., vr} es ortogonal, de�niendo

∀i ∈ {1, ..., r} wi =vi

‖vi‖

el sistema {v1, ..., vr} es ortonormal, puesto que

∀i ∈ {1, ..., r} ‖wi‖ =

∥∥∥∥vi

‖vi‖

∥∥∥∥ =1

|‖vi‖| · ‖vi‖ = 1.

Page 208: Libro Completo Algebra

208 Álgebra

Observación 49 Nótese que como consecuencia del teorema y de la ob-servación anterior, si (E, <,>) es un e.v.e., con E de dimensión �nita, y{u1, ..., un} es una base de E, utilizando el método de Gram-Schmidt podemosobtener, a partir de ella, una base ortogonal y, posteriormente, dividiendo ca-da vector por su norma, obtendremos una base ortonormal de (E, <, >). Enconsecuencia, podemos a�rmar que todo e.v.e. de dimensión �nita tiene unabase ortonormal.

Ejercicio 4.3.1 A partir de la base

{(1, 1, 1), (1, 1, 0), (1, 0, 0)},obtener por el método de Gram-Schmidt una base ortonormal de (R3, <,>),donde <,> es el producto escalar habitual.

Coordenadas ortonormalesLa pregunta que es natural hacerse es ¾porqué nos interesa trabajar con basesortonormales? Aunque más adelante veremos otras propiedades que tienenque ver con la mejor aproximación o aproximación óptima de un vector porvectores de un subespacio, la primera ventaja, que resulta evidente, es lasiguiente.

Si B = {w1, ..., wn} es una base ortonormal de (E, <,>), las coordena-das de cualquier vector u ∈ E respecto de dicha base se pueden obtener enfunción del producto escalar de u por los vectores de B, pues si

u = α1w1 + ... + αnwn

resulta que ∀i ∈ {1, ..., n}< u, wi > = < α1w1 + ... + αnwn, wi >=

= α1 < w1, wi > +... + αn < wn, wi >=

= αi < wi, wi >= αi ‖wi‖2 = αi,

con lo que

u =< u,w1 > w1 + ...+ < u,wn > wn =n∑

i=1

< u, wi > wi.

El resultado de la siguiente proposición se conoce como identidad deParseval y es una generalización del teorema de Pitágoras.

Page 209: Libro Completo Algebra

Álgebra 209

Proposición 4.3.5 Si B = {w1, ..., wn} es una base ortonormal del e.v.e.(E, <, >), entonces ∀u ∈ E se veri�ca que

‖u‖2 =n∑

i=1

< u, wi >2 .

Demostración Sea B = {w1, ..., wn} una base ortonormal de (E, <, >).En ese caso

u =n∑

i=1

< u, wi > wi,

con lo que

‖u‖2 = < u, u >=<

n∑i=1

< u, wi > wi,

n∑j=1

< u, wj > wj >=

=n∑

i=1

< u,wi >< wi,

n∑j=1

< u, wj > wj >=

=n∑

i=1

< u,wi >

(n∑

j=1

< u, wj >< wi, wj >

)=

(teniendo en cuenta que la base es ortonormal)

=n∑

i=1

< u,wi > (< u, wi >< wi, wi >) =

=n∑

i=1

< u,wi >2 ‖wi‖2 =n∑

i=1

< u, wi >2 .

2

4.3.1 Descomposición QR de una matrizSi A ∈ Mm×n(R) tiene vectores columna (A1, A2, · · · , An) = (u1, u2, · · · , un)linealmente independientes, es decir, si rango(A) = n, el método de ortogona-lización de Gram-Schmidt nos proporciona una manera de determinar, a par-tir del sistema libre (u1, u2, · · · , un), un sistema ortonormal (q1, q2, · · · , qn).

Si ahora denotamos con Q ∈ Mm×n(R) a la matriz cuyos vectores columnason los vectores obtenidos (q1, q2, · · · , qn), ¾cuál es la relación entre A y Q?

Page 210: Libro Completo Algebra

210 Álgebra

Siendo (q1, q2, · · · , qn) una base ortonormal del espacio columna de A,L(u1, u2, · · · , un), se sigue que

∀j ∈ {1, · · · , n} uj =n∑

i=1

< uj, qi > qi.

Sea R = (< qi, uj >) ∈ Mn(R) la matriz cuyas columnas son las coor-denadas de los vectores (u1, u2, · · · , un) respecto de la base (q1, q2, · · · , qn).Entonces

R =

< u1, q1 > < u2, q1 > · · · < un, q1 >< u1, q2 > < u2, q2 > · · · < un, q2 >

... ... ... ...< u1, qn > < u2, qn > · · · < un, qn >

,

∀j ∈ {1, · · · , n} Aj = (QR)j y A=QR .

Además, siendo qi ortogonal a u1, u2, · · · , ui−1 para todo i ≥ 2, la matrizR es triangular superiormente:

R =

< u1, q1 > < u2, q1 > · · · < un, q1 >0 < u2, q2 > · · · < un, q2 >... ... ... ...0 0 · · · < un, qn >

e invertible, ya que < ui, qi >6= 0, para todo i ∈ {1, · · · , n}.Hemos así obtenido la descomposición QR de la matriz A en el pro-

ducto de una matriz Q con vectores columna ortogonales por una matriz Rinvertible y triangular superiormente.

La descomposición QR se utiliza en varios algoritmos numéricos y, enparticular, en el cálculo numérico de autovalores de matrices grandes.

Ejemplo 4.3.6 Sea A ∈ M3×2(R) de�nida por

A =

1 10 11 1

.

Entonces u1 =

101

y u2 =

111

.

Page 211: Libro Completo Algebra

Álgebra 211

Aplicando el método de Gram-Schmidt se obtiene la base ortogonal

v1 = u1, v2 = u2 − < u2, v1 >

< v1, v1 >· v1 =

111

− 2

2

101

=

010

.

Una base ortonormal del espacio columna de A es

q1 =v1

‖v1‖ =

1√2

01√2

, q2 =

v2

‖v2‖ =

010

.

Por tanto,

Q =

1√2

0

0 11√2

0

, R =

(< u1, q1 > < u2, q1 >

0 < u2, q2 >

)=

(√2√

20 1

)

y A = QR.

4.4 Proyecciones ortogonalesDe�nición 4.4.1 Sean (E, <, >) un e.v.e. y A ⊆ E. Diremos que v ∈ E esun vector ortogonal a A si ∀u ∈ A, < v, u >= 0.

Ejemplo 4.4.2 En (R3, <, >), donde <,> es el producto escalar usual deR3, cualquier vector de la recta L((0, 0, 1)) es ortogonal al conjunto A ={(1, 1, 0), (0, 1, 0)}.Observación 50 Nótese que el vector 0 ∈ E es ortogonal a cualquier sub-conjunto A ⊆ E. Pues, siendo A cualquier subconjunto de E, ∀u ∈ A severi�ca que

< u,0 >=< u, u− u >=< u, u > − < u, u >= 0

o, si se pre�ere,< u,0 >=< u, 0 · 0 >= 0· < u,0 >= 0.

Proposición 4.4.3 Sean (E, <, >) un e.v.e. y A ⊆ E. Se veri�ca que elconjunto

A⊥ = {v ∈ E |∀u ∈ A < v, u >= 0}es un subespacio vectorial de E. A este subespacio se le denomina subespacioortogonal de A.

Page 212: Libro Completo Algebra

212 Álgebra

Demostración Ejercicio.

Observación 51 En el caso particular de que (E, <, >) sea un e.v.e. dedimensión �nita y H ≺ E, al subespacio ortogonal de H se le denominacomplemento ortogonal de H.

Proposición 4.4.4 Sean (E, <, >) un e.v.e. con dim(E) = n y H ≺ E. Enestas condiciones se veri�ca que

dim(H⊥) = n− dim(H).

Demostración Si H = {0} el resultado es evidente. Supongamos, pues,que dim(H) = r > 0. En ese caso, siendo {u1, ..., ur} una base de H, porel teorema de extensión de una base, existen ur+1, ..., un tales que el sistema{u1, ..., ur, ur+1, ..., un} es una base de E. Utilizando el método de Gram-Schmidt y posteriormente dividiendo cada vector por su norma, obtenemosuna base ortonormal {w1, ..., wr, wr+1, ..., wn} de (E, <,>) tal que

L(w1, ..., wr) = L(u1, ..., ur) = H.

La proposición estará demostrada si comprobamos que

{wr+1, ..., wn}

es una base de H⊥.Evidentemente {wr+1, ..., wn} es un sistema libre, puesto que es un sub-

sistema de un sistema libre. Veamos que es también un sistema generadorde H⊥ :

si v ∈ H⊥, como H⊥ ⊂ E y {w1, ..., wr, wr+1, ..., wn} es una base de E,existirán α1, ..., αr, αr+1, ..., αn ∈ R tales que

v = α1w1 + ... + αrwr + αr+1wr+1 + ... + αnwn.

Ahora bien, como ∀u ∈ H < v, u >= 0, en particular

∀i ∈ {1, ..., r} < v, wi >= 0,

y puesto que {w1, ..., wr, wr+1, ..., wn} es ortonormal, resulta que

∀i ∈ {1, ..., n} < v, wi >= αi,

Page 213: Libro Completo Algebra

Álgebra 213

con lo que obtenemos que α1 = α2 = · · · = αr = 0 y

v = αr+1wr+1 + ... + αnwn ∈ L({wr+1, ..., wn}).

2

Observación 52 Si {w1, ..., wr} es una base ortonormal de un subespaciovectorial H y {w1, ..., wr, wr+1, ..., wn} es una base ortonormal del espacio E,por la proposición anterior {wr+1, ..., wn} es una base de H⊥, con lo que

∀u ∈ E ∃!(α1, ..., αr, αr+1, ..., αn) ∈ Rn tales queu = α1w1 + ... + αrwr + αr+1wr+1 + ... + αnwn.

Si denotamos porh = α1w1 + ... + αrwr ∈ H

y porh⊥ = αr+1wr+1 + ... + αnwn ∈ H⊥

resulta que

∀u ∈ E ∃!h ∈ H y ∃!h⊥ ∈ H⊥ tales que u = h + h⊥.

De�nición 4.4.5 Siendo (E, <, >) un e.v.e. de dimensión �nita, H ≺ E yu ∈ E, si

u = h + h⊥

con h ∈ H y h⊥ ∈ H⊥, al vector h se le denomina proyección ortogonalde u sobre el subespacio H y se le denota por p⊥H(u).

Ejercicio 4.4.1 Sea E un R − e.v.e. con producto escalar < ·, · > y H unsubespacio de dimensión �nita r de E. Si B = (w1, w2, · · · , wr) es una baseortonormal de H, sea p⊥H : E → H la función proyección ortogonal de Esobre H, de�nida por

p⊥H(u) =< u, w1 > w1+ < u, w2 > w2 + · · ·+ < u, wr > wr ∀u ∈ E.

Veri�car que p⊥H es lineal.

Page 214: Libro Completo Algebra

214 Álgebra

4.4.1 Método para hallar una proyección ortogonalPara calcular la proyección ortogonal de un vector u sobre un subespacio Hprocederemos como sigue: a partir de una base del subespacio H obtenemos(por el método de Gram-Schmidt) una base ortonormal {w1, ..., wr} de H.La proyección de u sobre H será entonces el vector

p⊥H(u) = h = α1w1 + ... + αrwr =< u,w1 > w1 + ...+ < u, wr > wr.

En el caso particular de que H = L({v}), puesto que

{ v

‖v‖}

es una base ortonormal de H, la proyección ortogonal de u sobre H será elvector

h =< u,v

‖v‖ > · v

‖v‖ =< u, v >

‖v‖2 · v.

Ejemplo 4.4.6 En (R[x], <, >1) donde<, >1: R[x]× R[x] −→ R

(p, q) Ã < p, q >1=1∫−1

p(x) · q(x)dx,

obtener la proyección ortogonal del vector x2 sobre el subespacio H = L({x, 1+x}). Siendo {x, 1+x} un sistema libre, es también una base de H. Aplicandoel método de Gram-Schmidt, se obtiene la base ortogonal

u1 = x, u2 = 1 + x− < 1 + x, x >1

< x, x >1

x = 1 + x−2323

x = 1.

Una base ortonormal es

w1 =u1

‖u1‖1

=x√

23

=

√3

2x, w2 =

u2

‖u2‖1

=1√2.

Entonces

p⊥H(x2) =< x2, w1 >1 w1+ < x2, w2 >1 w2 =1

31 =

√2

3w2.

Ejercicio 4.4.2 En (R3, <, >) donde <,> es el producto escalar usual deR3, obtener la proyección ortogonal del vector (1, 2, 1) sobre los subespaciosH = L((1, 0, 1)) y H ′ = L((1, 0, 1), (1, 0, 0)).

Page 215: Libro Completo Algebra

Álgebra 215

4.4.2 Aproximación óptima de un vector.Siendo (E, <, >) un e.v.e. (de dimensión �nita o no), u ∈ E y H ≺ E,H = L({u1, ..., um}), buscamos el vector de H que �mejor aproxima� al vectoru o, lo que es lo mismo, buscamos el vector de H que está a la �menor distanciaposible� de u. Como veremos, dicho vector es la proyección ortogonal de usobre H y, según hemos visto, la forma de obtener dicha proyección ortogonales a través de una base ortonormal de H.

Antes de obtener el resultado central de esta sección, veamos un lemaprevio.Lema 4.4.7 Si {w1, ..., wr} es un sistema ortonormal del e.v.e. (E,<, >) yu ∈ E, se veri�ca que ∀i ∈ {1, ..., r} el vector

u−(

r∑j=1

< u, wj > wj

)

es ortogonal al vector wi.

Demostración Sea i ∈ {1, ..., r}. En ese caso

< u−(

r∑j=1

< u, wj > wj

), wi >=

= < u, wi > −(

r∑j=1

< u, wj >< wj, wi >

)=

(puesto que el sistema es ortonormal)= < u, wi > − < u, wi >< wi, wi >=

= < u, wi > − < u, wi >= 0.

2

Teorema 4.4.8 Sean {w1, ..., wr} un sistema ortonormal del (E, <, >) yH = L(w1, ..., wr). Entonces, para todo u ∈ E, se veri�ca que

d(u, p⊥H(u)) ≤ d(u,w) ∀w ∈ H.

En otras palabras, p⊥H(u) =r∑

i=1

< u, wi > wi es el vector de H = L({w1, ..., wr})que está a menor distancia de u (i.e., el que mejor lo aproxima).

Page 216: Libro Completo Algebra

216 Álgebra

Demostración Por de�nición

d(u, p⊥H(u)) = d(u,

r∑i=1

< u, wi > wi) =

∥∥∥∥∥u−(

r∑i=1

< u, wi > wi

)∥∥∥∥∥ .

Según hemos visto en el lema anterior, el vector

u−(

r∑i=1

< u, wi > wi

)

es ortogonal a cada uno de los vectores w1, ..., wr y, en consecuencia, tambiénserá ortogonal a cualquier combinación lineal de dichos vectores. Por otraparte, si w =

r∑i=1

αiwi es un vector de H,

d(u,w)2 =

∥∥∥∥∥u−(

r∑i=1

αiwi

)∥∥∥∥∥

2

=

=

∥∥∥∥∥u−(

r∑i=1

αiwi

)− p⊥H(u) + p⊥H(u)

∥∥∥∥∥

2

=

=

∥∥∥∥∥(u− p⊥H(u)) +

(r∑

i=1

(< u, wi > −αi)wi

)∥∥∥∥∥

2

=

por la identidad de Parseval,

ya que u− p⊥H(u) ∈ H⊥ yr∑

i=1

(< u,wi > −αi)wi ∈ H,

=∥∥u− p⊥H(u)

∥∥2+

∥∥∥∥∥

(r∑

i=1

(< u, wi > −αi)wi

)∥∥∥∥∥

2

con lo que ∥∥u− p⊥H(u)∥∥2 ≤ d(u,w)2.

2

Ejercicio 4.4.3 En (R3, <, >), donde <,> es el producto escalar usual deR3, hallar la mejor aproximación del vector (1, 0, 1) por vectores del subespa-cio H = L((1, 2, 1), (1, 0, 0)).

Page 217: Libro Completo Algebra

Álgebra 217

Ejercicio 4.4.4 En (R[x], <,>1) donde

<, >1: R[x]× R[x] −→ R

(p, q) Ã < p, q >1=1∫−1

p(x) · q(x)dx,

Hallar la mejor aproximación del vector x por vectores del subespacio H =L({1 + x}).

A lo largo de la práctica 4 veremos como la propiedad de aproximaciónde la proyección ortogonal de un vector sobre un subespacio se puede utilizarpara determinar, por mínimos cuadrados, soluciones aproximadas óptimas deproblemas que utilizan datos experimentales y, por tanto, datos que contienenun error (ruido).

4.5 Ejercicios4.5.1 Ejercicios resueltos1. En el espacio vectorial euclídeo R3 con el producto escalar usual se consi-dera el sistema de vectores

{(1, 2,−1), (0, 1, 1)}.Se pide obtener, mediante el método de Gram-Schmidt, una base ortonormaldel subespacio

L({(1, 2,−1), (0, 1, 1)})y la proyección ortogonal del vector (1, 1, 1) sobre dicho subespacio.

4.5.2 Ejercicios propuestos1. Calcula, mediante el metodo de Gram-Schmidt, una base ortonormal

del subespacio de R3

V = L({(1, 2,−2), (0,−4, 3)})Completa dicha base a una base ortonormal B de R3 y calcula la pro-yección ortogonal del vector (2, 1, 3) sobre V . Calcula también las coor-denadas de los vectores de la base canónica de R3 respecto de B.

Page 218: Libro Completo Algebra

218 Álgebra

2. Considera la función proyección ortogonal p⊥V de R3 sobre el subespacioV del ejercicio anterior como aplicación de R3 a R3. Calcula:

MBB (p⊥V ) y MB3

B3(p⊥V )

siendo B3 la base canónica de R3.

3. Calcula la descomposición QR de la matriz−1 0 32 −1 02 −2 1

4. Calcula las ecuaciones implícitas y paramétricas del complemento or-togonal de los siguientes subespacios:

V = L({(1,−1, 1, 0), (0, 1, 0, 3)}) ≺ R4, W = L({1, 2,−3)}) ≺ R3

5. Considera el espacio vectorial P2(R) de polinomios de grado menor oigual que dos como espacio vectorial euclídeo con el producto escalarde�nido por:

〈p(x), q(x)〉1 =

∫ 1

−1

p(x) · q(x)dx

• Obtén, mediante el método de Gram-Schmidt, una base ortonor-mal de (P2(R), 〈, 〉1) a partir de la base B3 = {1, x, x2}.

• Calcula las normas de los vectores de B3 y los ángulos que formandos a dos.

Page 219: Libro Completo Algebra

Capítulo 5

Códigos lineales

5.1 IntroducciónEn nuestros días, la generalización en el uso de instrumentos electrónicosconlleva la necesidad de transmitir una gran cantidad de datos de formarápida y segura. Ejemplos de lo anterior son la transmisión de imágenes detelevisión a y desde satélites y la comunicación telefónica. Otros ejemplos, enlos que hay menos distancia entre el emisor y el receptor de la información,son la transmisión de datos entre ordenadores conectados a una red o entredistintas unidades de un mismo ordenador.

La teoría de códigos tiene su origen en el artículo de Claude Shanon�The Mathematical Theory of Communication�, publicado en la revista BellSystem Technical Journal 27, 1948 y en los trabajos de Marcel Golay (1949)y Richard Hamming (1950).

Deseamos transmitir información a través de un canal con ruido según elesquema:

Transmisor RUIDO>>>>>>>>> Receptor

↑Codi�cador

↓Decodi�cador

↑Mensaje original

↓Mensaje decodi�cado

Se quieren detectar y, si es posible, corregir los errores de transmisión.El esquema general es el siguiente:

219

Page 220: Libro Completo Algebra

220 Álgebra

• Se utiliza el alfabeto binario Z2 = {0, 1}.• Se codi�ca el mensaje original utilizando palabras (cadenas) binarias

(un error es una confusión entre un 0 y un 1).

• Se transmite el mensaje, que se corrompe.

• Se corrige el mensaje (si es posible).

• El codi�cador traduce el mensaje.Es conveniente utilizar palabras de la misma longitud. Hay 2n palabras

binarias de longitud n ∈ N.

Ejemplo 5.1.1 Si n = 3,

Z32 = {000, 100, 010, 001, 110, 101, 011, 111}

es el conjunto de las palabras binarias de longitud 3.Cada uno de los símbolos de una palabra es un bit (binary digit).Un código binario C de longitud n es un cualquier subconjunto de

Zn2 .

Ejemplo 5.1.2 Supongamos que queremos enviar los siguientes mensajes:ARRIBA, ABAJO, IZQUIERDA, DERECHA.

Vamos a utilizar varios códigos, de�nidos en la siguiente tabla:Código Longitud ARRIBA ABAJO IZQUIERDA DERECHA

C1 2 00 10 01 11C2 3 000 110 011 101C3 6 000000 111000 001110 110011

Entonces:C1 no tiene capacidad de detectar errores (alterando un bit se obtiene una

palabra del código).C2 es capaz de detectar un error individual (alterando un bit se obtiene

una palabra que no puede ser del código) y no puede corregir errores. Porejemplo, 111 puede ser el resultado de un único error en las tres palabras delcódigo 110, 011 o 101.

C3 es capaz de detectar un error individual y corregirlo (dos palabrasdistintas del código no pueden transformarse en la misma palabra si hay unúnico error).

Page 221: Libro Completo Algebra

Álgebra 221

Simpli�caremos el modelo suponiendo que:

• El canal es binario (los mensajes que se transmiten son cadenas deceros y unos).

• El canal es simétrico (la probabilidad p de cambiar un 0 por un 1en la transmisión es la misma que la de cambiar un 1 por un 0).

• El canal no tiene memoria (la probabilidad p de cambiar un 0por un 1 en la transmisión no depende de los símbolos previamenteenviados). La probabilidad p es conocida como probabilidad de errordel canal binario simétrico.

• No hay errores de sincronización (el número de símbolos recibidoses igual al número de símbolos enviados).

• Enviamos información redundante: para poder detectar y corregirlos errores de transmisión se utiliza un código de tipo (n, k), n > k,donde un mensaje formado por k símbolos se transforma en una palabrade n > k símbolos, por tanto hay n− k símbolos redundantes

mensaje ∈Zk2︷︸︸︷

10...1

→ codi�cador →

palabra ∈Zk+(n−k)2︷︸︸︷

10...1...

transmision=⇒

transmision=⇒

∈Zk+(n−k)2︷︸︸︷??...?...

→ decodi�cador →

mensaje ∈Zk2︷︸︸︷

10...1

.

Así, para enviar un mensaje formado por k símbolos 0 ó 1 (es decir unelemento de Zk

2), en primer lugar construimos una palabra (o secuencia

Page 222: Libro Completo Algebra

222 Álgebra

de ceros y unos) del código compuesto por cadenas de longitud k +(n − k) = n (código de tipo (n, k), es decir, con n − k símbolos deinformación redundante). A continuación transmitimos dicha palabray, dependiendo de la información recibida, el decodi�cador detecta sise ha producido error en la transmisión. En el caso de que sea posible,reconstruye el mensaje.

Observación 53 Un código de tipo (n, k) es, pues, un subconjunto de Zn2 .

5.2 Distancia de Hamming, detección y correc-ción de errores

De�nición 5.2.1 La distancia de Hamming d(a, b) entre dos palabras ay b de un código C es el número de bits (símbolos) en que di�eren a y b.

Ejemplo 5.2.2

d(1101, 1000) = 2, d(1010101, 1100100) = 3.

Ejercicio 5.2.1 Veri�car que la distancia de Hamming d(a, b) ≥ 0 es unadistancia, es decir que, ∀ a, b, c ∈ C:

i) d(a, b) = 0 ⇔ a = bii) d(a, b) = d(b, a)iii) d(a, b) ≤ d(a, c) + d(c, b).

De�nición 5.2.3 Dado un código C con distancia de Hamming d(a, b), ladistancia mínima dmin entre pares de palabras distintas de C es el núme-ro:

dmin = min{d(a, b) : a, b ∈ C, a 6= b}.

Observación 54 Si la distancia mínima de un código C es dmin y no seproducen más que dmin − 1 errores en la transmisión de una palabra, elreceptor será capaz de reconocer que la palabra recibida no es del código. Lajusti�cación de esta a�rmación es la siguiente: introduciendo un número deerrores menor o igual que dmin − 1 en una palabra del código no se obtieneotra palabra del código.

Page 223: Libro Completo Algebra

Álgebra 223

El principio del vecino más próximo (o criterio de �la mayoríagana�) nos dice que si recibimos una palabra errónea, deberíamos suponerque la palabra del código enviada es la más cercana a la recibida (en el sentidode la distancia de Hamming). Es decir, si r < s es más probable que se hayanproducido r errores que s errores.

Teorema 5.2.4 Aplicando el principio del vecino más cercano, un código Cpuede corregir e errores si la distancia mínima cumple la condición

dmin ≥ 2e + 1.

Demostración Sea c ∈ C la palabra original y sea z la palabra recibida,que contiene e errores. Entonces d(c, z) = e.

Si b ∈ C es otra palabra del código,

2e + 1 ≤ dmin ≤ d(b, c) ≤ d(b, z) + d(z, c) = d(b, z) + e

y por tantod(b, z) ≥ e + 1.

Se sigue que c es la única palabra de C a distancia e de z. 2

5.2.1 Código de paridad: detección de errores simplesLa tabla ASCII para representar los caracteres alfanuméricos está formadapor 128 = 27 símbolos codi�cados en palabras binarias de longitud 8: losprimeros 7 bits contienen la información y el octavo el control de paridad,es decir 0 si el número de unos que aparecen en los 7 primeros bits es par y1 en caso contrario. Por ejemplo las palabras

10000010 y 01000111

son palabras del código mientras que 01000110 no lo es.Esta codi�cación (8, 7) permite detectar algunos errores de transmisión

pero no corregirlos. Más exactamente podemos reconocer aquellas situacionesen las que se produce un número impar de errores en la transmisión de los 8bits. Por tanto la probabilidad de error no detectable en la transmisión es:

Page 224: Libro Completo Algebra

224 Álgebra

Perr = P2 + P4 + P6 + P8 =

= p2(1− p)6

(8

2

)+

+p4(1− p)4

(8

4

)+

+p6(1− p)2

(8

6

)+

+p8

Por ejemplo si la probabilidad p de error en el canal es 0.01 la probabilidadde error no detectable con esta codi�cación es 0.0026368.

5.2.2 Código de repetición: corrección de errores sim-ples

Si los mensajes son simplemente los símbolos 0 y 1, podemos codi�carlos delsiguiente modo:

mensajes código0 0001 111

Para decodi�car seguimos el criterio de �la mayoría gana�:

palabra recibida decodi�cación000 0001 0010 0011 1100 0101 1110 1111 1

Ya que dmin = 3, la condición dmin ≥ 2e + 1 implica e ≤ 1. Coneste código (3, 1) detectamos hasta 2 errores, corregimos correctamente las

Page 225: Libro Completo Algebra

Álgebra 225

situaciones en las que se produce un único error y fallamos en aquéllas en lasque se produce más de un error. Por ejemplo, si recibimos la palabra 011, ladecodi�cación 111 es correcta si e = 1 y es incorrecta si e ≥ 2.

La probabilidad de error no detectable en la transmisión es:

Perr = P2 + P3 = p2(1− p)

(3

2

)+ p3

Por ejemplo si la probabilidad p de error en el canal es 0.01 la probabilidadde error en la decodi�cación es menor que 0.0003.

5.3 Códigos linealesComo veremos, si un código tiene estructura de espacio vectorial sobre elcuerpo Z2, podemos estudiar sus propiedades utilizando los resultados obte-nidos para espacios vectoriales generales.

En particular, estos tipos de códigos se pueden describir en términos desus ecuaciones paramétricas e implícitas.

De�nición 5.3.1 Diremos que un código C ⊆ Zn2 es lineal si C es un sub-

espacio vectorial de Zn2 .

Ejemplo 5.3.2 No es difícil veri�car que, para los códigos de�nidos en latabla del ejemplo 5.1.2, C1 y C2 son lineales y C3 no lo es.

Ejercicio 5.3.1 ¾Es lineal el código de paridad?

Ejercicio 5.3.2 ¾Es lineal el código de repetición?

Sean C ≺ Zn2 un código lineal y {u1,u2, · · · ,uk} una base de C. Si Bk =

{e1, e2, · · · , ek} es la base canónica de Zk2, la función lineal

g : Zk2 −→ Zn

2

de�nida porg(ei) = ui (i = 1, · · · , k),

es inyectiva (siendo {u1,u2, · · · ,uk} libre) y Im(g) = C. Por tanto la funcióng de�ne las ecuaciones paramétricas del código C.

Page 226: Libro Completo Algebra

226 Álgebra

De�nición 5.3.3 Si C ≺ Zn2 es un código lineal y {u1,u2, . . . ,uk} es una

base de C llamaremos matriz generadora del código C a la matriz n ×k (asociada a la función lineal g de�nida arriba) cuyas columnas son lascoordenadas de u1,u2, . . . ,uk respecto de la base canónica de Zn

2 :

G =(

(u1)Bn (u2)Bn · · · (uk)Bn

)

Si C ≺ Zn2 es lineal y dim(C) = k, entonces C es un código de tipo (n, k)

ya que, por ser C isomorfo a Zk2, el número de palabras de C coincide con él

de Zk2. Además si G es una matriz generadora del código obtenida al elegir

las bases canónicas de Zk2 y Zn

2 , la aplicación

Zk2 −→ C

(x1, . . . , xk) → t

G

x1...

xk

es un isomor�smo que a cada palabra de Zk2 asocia una palabra de C.

La función anterior describe un procedimiento de codi�cación que aso-

cia a cada palabra (x1, . . . , xk) ∈ Zk2 la palabra t

G

x1...

xk

∈ M1×n(Z2) ≡

Zn2 (implícitamente estamos identi�cando la matrices �la de n columnas con

los elementos de Zn2 , circunstancia que mantendremos en todo el desarrollo

del capítulo para mayor simplicidad).Teniendo en cuenta que

t

G

x1...

xk

= (x1 . . . xk) ·t (G),

nuestra pregunta inmediata es ¾cómo invertir el proceso? o, si se pre�ere,¾existe alguna matriz que permita invertir el proceso de manera que, enla hipótesis de que el canal no tuviese ruidos, nos permitiese recuperar elmensaje original según el esquema siguiente?:

Zk2 −→ C −→

(x1, . . . , xk) → (x1 . . . xk) ·t (G) →

Page 227: Libro Completo Algebra

Álgebra 227

−→ Zk2

→ (x1 . . . xk) ·t (G) · (t(G))−1 = (x1, . . . , xk)

La respuesta es obviamente negativa, puesto que la matriz t(G) no esuna matriz cuadrada. Sin embargo, como veremos posteriormente, la idea esaprovechable empleando el concepto de pseudoinversa de una matriz.

Ejercicio 5.3.3 Obtener la matriz generadora del código de paridad cuyoproducto reproduce el mecanismo de codi�cación descrito.

Ejercicio 5.3.4 Obtener la matriz generadora del código de repetición cuyoproducto reproduce el mecanismo de codi�cación descrito.

Pasamos ahora a estudiar las ecuaciones implícitas de un código lineal C.Si C ≺ Zn

2 es tal que 0 < dim(C) = k < n, la proposición 3.5.12 delcapítulo 3 implica que existe una función lineal

h : Zn2 −→ Zn−k

2

tal que C = ker(h). Por tanto la función h determina las ecuaciones im-plícitas del código C.

De�nición 5.3.4 Si C ≺ Zn2 es lineal diremos que una matriz H de orden

s×n es unamatriz de control si para cualquier (x1, . . . , xn) ∈ Zn2 se veri�ca

que:

(x1, . . . , xn) ∈ C ⇔ H

x1...

xn

= 0.

Se sigue que la matriz H que queda asociada a la función lineal h al elegirlas bases canónicas de Zn

2 y Z(n−k)2 es H = MBn

Bn−k(h) ∈ M(n−k)×n y es una

matriz de control para el código C. Siendo C = ker(h), el rango de la matrizH es n− k. Se sigue que

C ≺ Zn2 es un código lineal de dimensión k, 0 < k < n, si y sólo si existe

una matriz de control de C, H ∈ M(n−k)×n, de rango igual a n− k.

Ejercicio 5.3.5 Encontrar una matriz de control del código de paridad.

Ejercicio 5.3.6 Encontrar una matriz de control del código de repetición.

Page 228: Libro Completo Algebra

228 Álgebra

5.3.1 Paso de una matriz de control a una matriz gene-radora

Pasar de una matriz de control a una matriz generadora de un código li-neal C es equivalente a pasar de sus ecuaciones implícitas a sus ecuacionesparamétricas.

Supongamos que H ∈ M(n−k)×n(Z2) es una matriz de control de un códigolineal C. Determinar una matriz generadora de C es lo mismo que encontraruna base del subespacio C, que coincide con el núcleo de la función linealde�nida entre Z2 − e.v. :

h : Zn2 −→ Zn−k

2

(x1, . . . , xn) → t

x1...

xn

y que de�ne las ecuaciones implícitas del código C.

Por tanto, para de�nir una matriz generadora de C, podemos emplearel método visto en el capítulo 3 para obtener una base del núcleo de unafunción lineal, cuyo esquema basíco es el siguiente:

H

In

t1−→ t2−→ · · · tk−→ A

P,

donde t1, t2, . . . , tk son transformaciones elementales por columnas (efectua-das sobre ambas matrices) y A es una matriz gaussiana.

En tal circunstancia sabemos que las columnas de P que aparezcan bajolas columnas nulas de A constituyen una base (salvo transposición) del núcleode h y, por consiguiente, constituyen una matriz generadora de C.

Ejercicio 5.3.7 Determinar una matriz generadora del código cuya matrizde control es:

H =

(1 0 1 01 1 1 1

)

Page 229: Libro Completo Algebra

Álgebra 229

5.3.2 Paso de una matriz generadora a una matriz decontrol

Pasar una matriz generadora a una matriz de control de un código linealC es equivalente a pasar de sus ecuaciones paramétricas a sus ecuacionesimplícitas.

Ahora, supongamos que G ∈ Mn×k(Z2),

G =(

(u1)Bn (u2)Bn · · · (uk)Bn

),

es una matriz generadora de un código lineal C. Entonces C = Im(g), donde

g : Zk2 −→ C

(x1, . . . , xk) → t

G

x1...

xk

.

Determinar una matriz H ∈ M(n−k)×n(Z2) de control de C, de rango n−k,es lo mismo que encontrar (n− k) �las

(a11 a12 · · · a1n)(a21 a22 · · · a2n)

...(a(n−k)1 a(n−k)2 · · · a(n−k)n)

tales que:

1. ∀i ∈ {1, . . . , n− k} , se tenga que(

ai1 ai2 · · · ain

) · (u1)Bn= 0, · · · ,(

ai1 ai2 · · · ain

) · (uk)Bn= 0,

o, lo que es lo mismo, que

∀i ∈ {1, . . . , n− k} ,(

ai1 ai2 · · · ain

) ·G = 0.

2. El sistema formado por dichas �las es un sistema libre.

En el supuesto de que tengamos tales �las, si de�nimos la matriz

Page 230: Libro Completo Algebra

230 Álgebra

H =

a11 a12 · · · a1n

a21 a22 · · · a2n... ... ...

a(n−k)1 a(n−k)2 · · · a(n−k)n

tendremos que:

1. H ·G = 0 y en consecuencia el código C está contenido en el núcleo dela función lineal

h : Zn2 −→ Zn−k

2

(x1, . . . , xn) → t

x1...

xn

.

2. La dimensión del núcleo de h es k.

Puesto que la dimensión de C también es k, tendremos que C = Ker(h)y en consecuencia

(x1, . . . , xn) ∈ C ⇔ H

x1...

xn

= 0,

es decir, H es una matriz de control del código C. Ahora bien, buscar (n−k)�las que constituyan un sistema de vectores libre y de manera que

∀i ∈ {1, . . . , n− k} ,(

ai1 ai2 · · · ain

)G = 0

es lo mismo que buscar (n − k) soluciones linealmente independientes delsistema de ecuaciones lineales homogéneo

t(G)

x1

x2...

xn

= 0.

Page 231: Libro Completo Algebra

Álgebra 231

Pero, ¾existen (n− k) soluciones linealmente independientes de tal siste-ma?Por hipótesis las k columnas de G constituyen un sistema libre y por tantolas k �las de t(G) también. Ahora, aplicando el teorema de la dimensión,sabemos que la dimensión del conjunto de soluciones del sistema t(G)X = 0es n− k, luego existen (n− k) soluciones linealmente independientes.

Veamos un algoritmo para obtener dicha matriz H :

1. Construimos la matriz(

G In

)(recuérdese que G tiene n �las).

2. Mediante transformaciones elementales por �las construimos, a partirde

(G In

), una matriz de la forma

(Ik T(0) H

), donde T ∈ Mk×n(Z2),

H ∈ M(n−k)×n(Z2) y (0) ∈ M(n−k)×k(Z2).

3. Teniendo en cuenta que aplicar una transformación elemental por �lases equivalente a multiplicar por la izquierda por una matriz invertible, resultaque si

(G In

)tf1 → ...tfk

→(

Ik T(0) H

),

tendremos que existe una matriz invertible P ∈ Mn(Z2), tal que P · G =(Ik

(0)

)y tal que P · In =

(TH

), es decir, P =

(TH

), con lo que el

rango de H es n− k y(

TH

)·G =

(Ik

(0)

).

Teniendo en cuenta cómo está de�nido el producto de matrices,

T ·G = Ik y H ·G = (0) .

Puesto que la matriz T es tal que T ·G = Ik, resulta que t(T ·G) =t(Ik) =Ik, es decir, tG ·t T = Ik.

En otras palabras, la matriz tT es la matriz que buscábamos, la pseu-doinversa de tG, para invertir el proceso de codi�cación:

Zk2 −→ C −→

(x1, . . . , xk) → (x1 . . . xk) ·t (G) →

Page 232: Libro Completo Algebra

232 Álgebra

−→ Zk2

→ (x1 . . . xk) ·t (G) ·t (T) = (x1, . . . , xk) .

Por otra parte, la matriz H así obtenida es una matriz de control delcódigo, pues satisface las dos condiciones requeridas.

Ejercicio 5.3.8 Determinar una matriz de control del código cuya matrizgeneradora es:

G =

1 0 00 1 01 0 11 1 1

.

5.3.3 Detección y corrección de erroresPodemos detectar errores en la transmisión si y sólo si la palabra recibida nopertenece al código. Por tanto si C es un código lineal y H es una matrizde control del mismo, detectaremos error en la transmisión de una palabrarecibida u si y sólo si H · (u)Bn 6= 0. Ahora, la cuestión es ¾Qué podemoshacer en el caso de que detectemos un error en la transmisión? Si al emitirla palabra x ∈ C se produce el error de transmisión e, recibiremos la palabrau = x + e. Al chequear la palabra recibida obtendremos

H· (x + e)Bn= H · (x)Bn

+H · (e)Bn= (puesto que x ∈ C ) = H · (e)Bn

,

es decir, obtenemos la actuación de la matriz de control sobre el error detransmisión e.

De�nición 5.3.5 Si H ∈ M(n−k)×n(Z2) es una matriz de control de un có-digo C y u ∈ Zn

2 llamaremos síndrome de u al producto H · (u)Bn.

Evidentemente u pertenece al código C si y sólo si su síndrome es 0 y,según hemos visto, el síndrome de la palabra recibida x + e coincide con elsíndrome del error de transmisión e. Por consiguiente, si para cada palabra noperteneciente al código hubiese un único error que tuviese su mismo síndrome,sería sencillísimo corregir el error cometido en la transmisión: bastaría restarel error que tiene el mismo síndrome que la palabra recibida para corregirdicho error. Sin embargo, como ahora veremos, puede haber muchas palabrasno pertenecientes al código que tengan el mismo síndrome.

Page 233: Libro Completo Algebra

Álgebra 233

Observación 55 Sea H ∈ M(n−k)×n(Z2) una matriz de control de un códigolineal C. Si u,v ∈ Zn

2 , entonces

H · (u)Bn= H · (v)Bn

⇔ v − u ∈ C,

es decir, dos palabras u y v tienen el mismo síndrome si y sólo si u− v esuna palabra del código.

Veámoslo:

H · (u)Bn = H · (v)Bn ⇔ H · (v)Bn−H · (u)Bn = 0

⇔ H · (v − u)Bn = 0 ⇔ v − u ∈ C

Observación 56 El que dos palabras tengan el mismo síndrome o distintossíndromes no depende de la matriz de control considerada: si H1 y H2 sonmatrices de control de C y u,v ∈ Zn

2 tendremos que:

H1·(u)Bn = H1·(v)Bn ⇔ v − u ∈ C ⇔ H2·(u)Bn = H2·(v)Bn .

Para identi�car las palabras que tienen el mismo síndrome se de�ne enZn

2 la siguiente relación de equivalencia: ∀u,v ∈ Zn2 ,

u ∼ v ⇔ H · (u)Bn = H · (v)Bn ⇔ v − u ∈ C.

Ejercicio 5.3.9 Veri�car que la relación �∼� anterior es una relación deequivalencia en Zn

2 .

Entonces el espacio Zn2 queda dividido entre las clases de equivalencia

determinadas por la relación �∼�, que llamaremos cogrupos:

De�nición 5.3.6 Si C ⊆ Zn2 es un código lineal y u ∈Zn

2 , se denomina co-grupo de u módulo C al conjunto {v ∈Zn

2 |v − u ∈ C }. Este conjunto es laclase de equivalencia de u respecto de la relación �∼� y lo denotaremos poru + C.

Observación 57 La notación

u + C = {v ∈Zn2 |v − u ∈ C }

se justi�ca del siguiente modo:

v ∈ u + C ⇔ ∃c ∈ C tal que v − u = c ⇔ ∃c ∈ C tal que v = u+c.

Por otra parte, puesto que u− u = 0 ∈ C, tendremos que u ∈ u + C.Nótese que C = 0 + C.

Page 234: Libro Completo Algebra

234 Álgebra

La siguiente proposición se sigue directamente de las propiedades de lasrelaciones de equivalencia.

Proposición 5.3.7 Sea C ≺ Zn2 un código lineal y sean u,v ∈Zn

2 . Se veri�caque:

1. u + C = v + C ⇔ v − u ∈C.2. Si (u + C) ∩ (v + C) 6= ∅ entonces u + C = v + C.3. Card(u + C) =Card(v + C).

Observación 58 Visto lo anterior, tenemos que los síndromes de dos pala-bras u y v coinciden si y sólo si u y v pertenecen al mismo cogrupo móduloC, o lo que es lo mismo, si y sólo si

u + C = v + C.

Ejercicio 5.3.10 Construir la tabla de síndromes de la siguiente matriz

H =

(1 1 00 1 1

).

No podemos corregir todos los errores de transmisión pero sí podemoscorregir el error de transmisión más probable. Seleccionemos de cada co-grupo el error que consideremos más probable según el principio del vecinomás próximo: normalmente es más probable aquel que tiene menos erroresindividuales, es decir elegimos uno de entre los que tienen menos unos. Lla-maremos a dicho elemento representante del cogrupo. Esta elección esla más razonable ya que, si y ∈ Zn

2 y ey es el representante del cogrupo dey, la corrección de y será la palabra y − ey ∈ C, que es la palabra de C máscercana, en el sentido de la distancia de Hamming, a la palabra recibida y.

Ejercicio 5.3.11 En la tabla del ejercicio anterior elegir el mejor represen-tante de cada cogrupo.

Una vez realizada la selección de los representantes de los cogrupos, elproceso de corrección de errores quedaría de�nido por

yCorrección−→ y − ey,

Page 235: Libro Completo Algebra

Álgebra 235

donde ey es el representante del cogrupo de síndrome H · (y)Bn (esto es,H · (y)Bn = H · (ey)Bn).

Por tanto, el esquema de codi�cación, transmisión y decodi�cación quedaconcretado del siguiente modo:

Codi�cador Transmisiónu −→ u ·t (G) = x ⇒ +e ⇒Decodi�cador

⇒ y = x + e −→{

y ·t (T ) si H · (y)Bn = 0(y − ey) ·t (T ) si H · (y)Bn 6= 0.

Observación 59 Si elegimos a 0 como representante del cogrupo 0+C = C,se puede simpli�car la actuación del Decodi�cador:

Decodificadory −→(y − ey) ·t (T )

Ejercicio 5.3.12 Utilizando la elección de representantes del ejercicio ante-rior completar la siguiente tabla:

y H · (y)Bn ey y − ey(0 0 0

)(

0 0 1)

(0 1 0

)(

0 1 1)

(1 0 0

)(

1 0 1)

(1 1 0

)(

1 1 1)

5.4 Ejercicios5.4.1 Ejercicios resueltos1. Obtener una matriz generadora y una matriz de control del código deparidad expuesto en los apuntes de clase.

2. Obtener una matriz generadora y una matriz de control del código derepetición expuesto en los apuntes de clase.

Page 236: Libro Completo Algebra

236 Álgebra

3. Determinar una matriz de control del código cuya matriz generadoraes:

G =

1 1 11 0 01 0 11 1 1

.

4. Determinar una matriz generadora del código cuya matriz de controles:

H =

(1 0 1 01 1 1 1

)

5. Determinar una matriz de control y una matriz que permita realizarla decodi�cación del código generado por los vectores cuyas coordenadasrespecto de la base canónica de Z4

2 son las columnas de la matriz:

0 1 11 1 01 0 10 1 1

6. Determinar una matriz de control y una matriz que permita realizarla decodi�cación del código cuya matriz generadora es

G =

1 11 01 10 1

5.4.2 Ejercicios propuestos1. Halla la distancia mínima de cada uno de los siguientes códigos:

i) {000, 101, 100, 001} en Z32,

ii) {00000, 01110, 11011, 00101} en Z52,

iii) {000000, 111000, 000111, 111111} en Z62.

Page 237: Libro Completo Algebra

Álgebra 237

Determina en cada caso el número de errores que se pueden detectar y elnúmero de errores que se pueden corregir.

2. Para cada código del problema anterior, determinar si es lineal. Si loes, obtener una matriz generadora, una matriz de control y una matriz quepermita realizar la decodi�cación del código.

3. Determinar una matriz de control y una matriz que permita realizarla decodi�cación del código lineal C generado por el sistema de vectores S,cuyas coordenadas respecto de la base canónica de Z5

2 son

S = {(1, 0, 1, 0, 0), (1, 0, 1, 0, 1), (0, 0, 0, 1, 0), (1, 0, 1, 1, 0)}.

Hallar todos los elementos del código C.

4. Elegir el mejor representante de cada cogrupo del código lineal

C = {000, 101, 100, 001} ≺ Z32

y completar la siguiente tabla:

y H · (y)B3 ey y − ey(0 0 0

)(

0 0 1)

(0 1 0

)(

0 1 1)

(1 0 0

)(

1 0 1)

(1 1 0

)(

1 1 1)

Page 238: Libro Completo Algebra

238 Álgebra

Page 239: Libro Completo Algebra

Capítulo 6

Autovalores y autovectores

6.1 IntroducciónEl objetivo principal de este tema es desarrollar una técnica que nos permitaobtener las soluciones de las ecuaciones y sistemas de ecuaciones diferencialeslineales con coe�cientes constantes y de las relaciones y sistemas de relacionesde recurrencia lineales con coe�cientes constantes comprobando, de paso, queambos problemas están estrechamente relacionados.

La naturaleza de dicha técnica y de la herramienta matemática que llevaaparejada (teoría de autovalores y autovectores) hace posible su aplicación auna gran variedad de problemas.

Veamos unos primeros ejemplos que nos permitan ilustrar y motivar lassiguientes de�niciones:

Ejemplo 6.1.1 Supongamos que queremos calcular el número de secuenciasde ceros y unos de longitud n que no poseen dos ceros consecutivos. Si An esel conjunto formado por dichas secuencias, buscamos obtener el número deelementos del conjunto An, número al que denotamos por an. Obviamente,

An = Cn ∪ Un

donde Cn es el conjunto formado por las secuencias de longitud n que sa-tisfaciendo dicha propiedad terminan en 0 y Un es el conjunto formado porlas secuencias de longitud n que, satisfaciendo dicha propiedad, terminan en1. Pero las secuencias del conjunto Un se pueden obtener añadiendo un 1 acada una de las secuencias de longitud n− 1 que no poseen dos ceros conse-cutivos, por lo que el número de elementos del conjunto Un coincide con el

239

Page 240: Libro Completo Algebra

240 Álgebra

número de elementos del conjunto An−1, es decir, con an−1. Por otra parte,las secuencias del conjunto Cn se pueden obtener añadiendo 10 a cada unade las secuencias de longitud n− 2 que no poseen dos ceros consecutivos, porlo que el número de elementos de Cn coincide con el número de elementosdel conjunto An−2, es decir, con an−2. Teniendo en cuenta, ahora, que Cn yUn son disjuntos, resulta que

an = an−1 + an−2.

Por consiguiente, puesto que a0 = 0, a1 = 2 y a2 = 3 (ya que A0 = ∅,A1 = {1, 0} y A2 = {10, 01, 11}), podemos obtener sucesivamente que a3 =3+2 = 5, a4 = 5+3 = 8, a5 = 8+5 = 13, .... El problema es que, por ejemplo,para obtener el valor de a100.000.000 necesitamos tener calculados previamentelos 99.999.999 valores anteriores. A lo largo del capítulo desarrollaremos unatécnica que nos permitirá evitar dicho cálculo previo.

Al poder aplicar la misma técnica a las relaciones de recurrencia (o ecua-ciones en diferencias) y a las ecuaciones diferenciales, desarrollaremos lasherramientas en el contexto de estas últimas y veremos que dichas herra-mientas son aplicables también al contexto de las relaciones de recurrencia.

Ejemplo 6.1.2 La determinación de una expresión explícita del término ge-nérico fn de la bien conocida sucesión de Fibonacci, de�nida por los siguien-tes datos iniciales y ecuación en diferencias:

f0 = 1

f1 = 1

fn+1 = fn + fn−1 (n ≥ 2),

se puede resolver, como veremos, por medio de la misma técnica que se empleapara hallar una función compleja f(x) de variable real x que sea solución delproblema de�nido por los siguientes datos iniciales y ecuación diferencialordinaria (EDO) lineal con coe�cientes constantes de orden 2:

f(0) = 1

f(1) = 1

f ′′(x) = f ′(x) + f(x) (x ∈ R).

Page 241: Libro Completo Algebra

Álgebra 241

6.2 Autovalores y autovectoresSegún sabemos, el conjunto de sucesiones de números complejos F(N,C), o,lo que es lo mismo, el conjunto de las funciones de N en C, tiene estructurade C−espacio vectorial. Por convenio de notación, a la sucesión

a : N −→ Cn à a(n) = an

la denotamos por {an}n∈N .Si ahora consideramos la función S (de Shift, desplazamiento),

S : F(N,C) −→ F(N,C){an}n∈N Ã S({an}n∈N) = {an+1}n∈N

es decir,{an}n∈N

S−→ S({an}n∈N)

{a0,a1, a2, ... Ã {a1,a2, a3, ...

resulta sencillo comprobar (verifíquese) que dicha función es lineal. Por con-venio de notación escribiremos an+1 = S(an), de manera que la sucesiónS({an}n∈N) la podremos expresar como

S({an}n∈N) = {S(an)}n∈N = {S(a0), S(a1), S(a2), ... = {a1,a2, a3, ...

Veamos qué relación tiene esta función con el problema que nos ocupa.Supongamos que dado λ ∈ C, buscamos las sucesiones {an}n∈N que ∀n ∈

N satisfacen la relaciónan+1 = λan.

Utilizando la notación introducida, dicha ecuación se transforma en

S(an) = λan,

y, puesto que dicha expresión es válida para n ≥ 1, la sucesión {an}n∈Nsatisface dicha relación de recurrencia si

S({an}n∈N) = {λan}n∈N = λ {an}n∈N .

En otras palabras, las sucesiones que satisfacen la relación de recurrencia

an+1 = λan,

Page 242: Libro Completo Algebra

242 Álgebra

son aquellas sucesiones {an}n∈N que mediante la función S se transformanen vectores proporcionales a sí mismos.

En general se introducen las siguientes nociones de autovector y autovalorde una función lineal:De�nición 6.2.1 Si E es un K− e.v. y f : E −→ E es una función lineal,se dice que v ∈ E− {0} es un autovector de f si ∃λ ∈ K tal que f(v) =λv.

De�nición 6.2.2 Si E es un K− e.v. y f : E −→ E es una función lineal,se dice que λ ∈ K es un autovalor de f si ∃v ∈ E− {0} tal que f(v) =λv.En ese caso se dice v es un autovector asociado al autovalor λ.

Ejemplo 6.2.3 Las sucesiones {an}n∈N que satisfacen la relación de re-currencia

an+1 = 5an,

son las sucesiones {an}n∈N que son autovectores de la función lineal S aso-ciados al autovalor 5. Así por ejemplo, la sucesión {1, 5, 25, ..., 5n, ...} es unautovector de S asociado al autovalor 5, pues

S({1, 5, 25, ..., 5n, ...}) = {5, 25, ..., 5n+1, ...} = 5 · {1, 5, 25, ..., 5n, ...}.Obsérvese que la sucesión {3, 15, 75, ..., 3 · 5n, ...} es otro autovector asociadoal autovalor 5.

Ejemplo 6.2.4 Teniendo en cuenta que, según vimos, la función derivadaD : C∞(R,R) −→ C∞(R,R)

es una función lineal, las funciones que satisfacen la ecuación diferencialD(f) = −f,

son los autovectores de la función D asociados al autovalor −1.Así por ejemplo, la función

f : R −→ Rx à e−x

es un autovector de D asociado al autovalor −1. Obsérvese que la función3f : R −→ R

x à 3e−x

es otro autovector de D asociado al autovalor −1 y que en general paracualquier k ∈ R la función k · f también lo es.

Page 243: Libro Completo Algebra

Álgebra 243

Ejercicio 6.2.1 Determinar los autovectores de la función lineal

f : R3 −→ R3

consistente en girar a cada vector de R3 π radianes en torno al eje z (Indi-cación: determinar la matriz MB3

B3(f)).

Ejercicio 6.2.2 Razonar que la función lineal

f : R2 −→ R2

consistente en girar a cada vector de R2 un ángulo de π2radianes en torno al

punto (0, 0) no tiene autovectores.

6.3 Funciones complejas de variable realEn esta sección vamos a recordar la de�nición de función compleja de variablereal y a establecer algunas propiedades necesarias para el desarrollo del restodel capítulo.

De�nición 6.3.1 Sean a, b ∈ R ∪ {−∞,∞} (recta real ampliada), con a <b. Llamaremos función compleja de variable real a cualquier funciónf : (a, b) −→ C. Siendo i la unidad imaginaria (i =

√−1), si ∀x ∈ (a, b),f(x) = u(x) + iv(x) diremos que u : (a, b) −→ R es la parte real de lafunción f y que v : (a, b) −→ R es la parte imaginaria de la función f .

Se dice que la función f es continua, diferenciable, dos veces diferenciable,etc., en un punto c ∈ (a, b) si lo son las funciones u y v. Las derivadas y laintegral de la función f se de�nen derivando e integrando de la forma habitualla función f, considerando a la unidad imaginaria i como una constante.

Así, si las funciones u, v son derivables en todo punto x ∈ (a, b), diremosque la función f es derivable y a la función f ′ : (a, b) −→ C, de�nida por lacondición

∀x ∈ (a, b), f ′(x) = u′(x) + iv′(x),

donde ∀x ∈ (a, b), u′(x) y v′(x) son las derivadas de u y v en el punto xrespectivamente, la denominaremos función derivada de f.

En general, si u y v admiten derivadas de orden k en todo punto x ∈ (a, b),a la función fk : (a, b) −→ C de�nida por la condición

∀x ∈ (a, b), fk(x) = uk(x) + ivk(x)

Page 244: Libro Completo Algebra

244 Álgebra

la denominaremos función derivada de orden k de f .Y del mismo modo, si las funciones u y v son integrables en [a, b], diremos

que f es integrable en [a, b] yb∫

a

f(x)dx =

b∫

a

u(x)dx + i

b∫

a

v(x)dx.

Por otra parte, los resultados generales válidos para las funciones realesde variable real también son válidos aquí. En particular, siempre que tengansentido las expresiones del primer miembro de las siguientes igualdades (i.e.,en los casos a), b) y c) siempre que f y g sean derivables), se veri�ca que:

a) ∀α, β ∈ C , y ∀ f, g ∈ F((a, b),C), (αf + βg)′ = αf ′ + βg′

b) ∀ f, g ∈ F((a, b),C) , (f · g)′ = f ′g + fg′

c) ∀ f, g ∈ F((a, b),C), ∀t0 ∈ (a, b) tal que g(t0) 6= 0,

(f

g)′(t0) =

f ′g − fg′

g2(t0)

d) (∀x ∈ (a, b) f ′(x) = 0) ⇒ f es constantee) ∀x ∈ (a, b), d

dx(

x∫a

f(t)dt) = f(x).

Observación 60 En lo sucesivo, Ck(a, b), k ≥ 1, denotará al conjunto defunciones complejas de�nidas sobre el intervalo (a, b) y que admiten deriva-da hasta el orden k, siendo la derivada k-ésima continua. C(a, b) será elconjunto de funciones complejas continuas de�nidas sobre el intervalo (a, b).

6.3.1 La exponencial complejaSi dado x ∈ R de�nimos

eix = (cos x + i · senx),

cualquier número complejo z ∈ C se puede representar de la forma

z =| z | · eiα,

siendo α ∈ R uno cualquiera de sus argumentos. Esta representación delnúmero complejo z es denominada forma exponencial del número complejoz.

Page 245: Libro Completo Algebra

Álgebra 245

Si z = x + iy, se de�ne

ez = ex(cos y + iseny).

Utilizando esta expresión se de�ne la función exponencial f de constanteλ = α + βi ∈ C y parámetro t ∈ R del siguiente modo:

f : R −→ Ct 7→ eλt,

dondef(t) = eλt = e(α+iβ)t = eαt(cos βt + isenβt).

Propiedades de la función exponencial complejaLa función exponencial tiene las siguientes propiedades (análogas a las quese veri�can en el caso real):

• ∀λ, µ ∈ C, e(λ+µ)t = eλt · eµt.

• ∀λ ∈ C, ddt

(eλt) = λeλt.

• ∀λ ∈ C− {0},b∫

a

eλtdt = (eλb−eλa)λ

.

Demostración1. Si λ = α + iβ y µ = δ + iε, tendremos que

eλt · eµt = eαt(cos βt + isenβt) · eδt(cos εt + isenεt) =

= eαteδt((cos βt(cos εt)− senβt(senεt)) +

+ i(senβt(cos εt) + senεt(cos βt))) =

= eαt+δt(cos(β + ε)t + isen(β + ε)t = e(λ+µ)t.

2. Si λ = α + iβ,

d

dt(eλt) =

d

dt(eαt(cos βt + isenβt)) =

d

dt(eαt cos βt) + i

d

dt(eαtsenβt) =

= (αeαt cos βt− βeαtsenβt) + i(βeαt cos βt + αeαtsenβt) =

= eαt(α(cos βt + isenβt) + β(i cos βt− senβt)) =

= eαt(α + iβ)((cos βt + isenβt) = λeλt.

Page 246: Libro Completo Algebra

246 Álgebra

3. ∀λ ∈ C− {0},

b∫

a

eλtdt =

b∫

a

eαt(cos βt + isenβt)dt =

=

b∫

a

eαt cos βtdt + i

b∫

a

eαtsenβtdt =

=eαt(α cos βt + βsenβt)

α2 + β2

∣∣∣∣b

a

+ ieαt(αsenβt− β cos βt)

α2 + β2

∣∣∣∣b

a

=

=eαt(cos βt + isenβt)(α− iβ)

α2 + β2

∣∣∣∣b

a

=

=1

α + iβeαt(cos βt + isenβt) =

1

λeλt.

2

6.4 Ecuaciones diferenciales6.4.1 La ecuación de primer ordenEntenderemos por ecuación diferencial ordinaria (EDO) lineal concoe�cientes constantes de primer orden cualquier expresión de la forma

f ′ − λf = g (I)

donde g es una función compleja de variable real continua, λ ∈ C, f es lavariable de la ecuación (I) que representa a una función compleja de variablereal con derivada continua y f ′ representa la derivada de f .Por ejemplo la siguiente expresión es una ecuación diferencial de primer or-den:

f ′ + f = cos(x)

también se puede escribir esta misma ecuación de los siguientes modos:df

dx+ f = cos(x)

Page 247: Libro Completo Algebra

Álgebra 247

D(f) + f = cos(x)

Entenderemos por solución de la ecuación a cualquier función com-pleja de variable real con derivada continua que, reemplazada en lugar de lavariable f, haga cierta la igualdad.Por ejemplo la función e−x es una solución de la ecuación f ′ + f = 0.

Veamos cuales son los aspectos esenciales que nos van a permitir resolverla ecuación (I):

1. Es evidente que el problema de encontrar las soluciones de la ecuación(I) equivale a encontrar la preimagen de g mediante la función lineal

D − λId : C1(a, b) → C(a, b)f ; f ′ − λf

En lo sucesivo, para no sobrecargar demasiado la notación, escribiremosCk en lugar de Ck(a, b).

2. La ecuación f ′ − λf = 0, conocida como ecuación homogénea aso-ciada a la ecuación (I), tiene siempre solución y el conjunto de sussoluciones tiene estructura de subespacio vectorial, puesto que el con-junto de soluciones es el núcleo del operador D− λId. En particular lafunción 0 es solución. Además

dim(Ker(D − λId)) = 1.

Veámoslo: evidentemente la función f(x) = eλx es solución de la ecua-ción f ′ − λf = 0. Veamos que si f es otra solución de dicha ecuación,entonces existe un escalar k ∈ C tal que f(x) = keλx. Puesto que∀x ∈ R, eλx 6= 0, tiene sentido considerar la función f

eλx . Su funciónderivada es

f

eλx)′ =

f ′eλx − fλeλx

e2λx=

f ′ − λf

eλx=

0

eλx= 0

, es decir,f

eλx= k ∈ C,

por lo que∀x ∈ R, f(x) = keλx.

Page 248: Libro Completo Algebra

248 Álgebra

3. Teniendo en cuenta que el operador ddx− λId = D− λId es la suma de

dos funciones lineales y que por tanto es lineal, se puede veri�car que

si s1 es solución de f ′ − λf = h1

y s2 es solución de f ′ − λf = h2,entonces

s1 + s2 es solución de f ′ − λf = h1 + h2.

Esta propiedad es conocida como principio de superposición desoluciones. Como consecuencia de esta propiedad, y de forma análogaa lo que sucedía con las ecuaciones lineales, la solución general de laecuación (I) se obtiene sumando a una solución particular de dichaecuación todas las soluciones de la ecuación homogénea asociada.

4. La función lineal D − λId : C1 → C es sobreyectiva o, lo que eslo mismo, la ecuación f ′ − λf = g tiene solución cualquiera que seag ∈ C. Para comprobarlo, vamos a veri�car que la función

f(x) = eλx ·∫ x

0

g(t)

eλtdt

es una solución particular de dicha ecuación:si f ′ − λf = g, entonces

(f

eλx)′ =

f ′eλx − fλeλx

e2λx=

f ′ − λf

eλx=

g

eλx,

de dondef(x) = eλx ·

∫ x

0

g(t)

eλtdt.

5. El núcleo de esta función lineal es de dimensión 1 y está generado porel vector f(x) = eλx. Este hecho hace que el conjunto de soluciones dela ecuación sea: {

f ∈ C1(a, b)|∃α ∈ C tal que

∀x ∈ (a, b), f(x) = eλx ·∫ x

0

g(t)

eλtdt + αeλx

}.

Page 249: Libro Completo Algebra

Álgebra 249

Ejemplo 6.4.1 Se quieren determinar las soluciones de la EDO

f ′(x) + f(x) = cos(x) x ∈ R.

para esta ecuación, g(x) = cos(x) y λ = −1.Las soluciones de la ecuación homogénea asociada f ′(x) + f(x) = 0 son

todas del tipo f(x) = ke−x, k ∈ R.Una solución particular de la ecuación no homogénea es:

fp(x) = eλx ·∫ x

0

g(t)

eλtdt = e−x ·

∫ x

0

et cos(t)dt.

Integrando por partes dos veces, se obtiene que∫ x

0

et cos(t)dt =[− sin(t)et

]x

0+

∫ x

0

et sin(t)dt =

= − sin(x)ex +[cos(t)et

]x

0−

∫ x

0

et cos(t)dt =

= − sin(x)ex + cos(x)ex − 1−∫ x

0

et cos(t)dt.

Entoncesfp(x) = e−x− sin(x)ex + cos(x)ex − 1

2

y la solución general de nuestra ecuación es

f(x) = e−x− sin(x)ex + cos(x)ex − 1

2+ ke−x =

=− sin(x) + cos(x)− e−x

2+ ke−x =

− sin(x) + cos(x)

2+ ke−x k ∈ C.

6.4.2 La ecuación de orden n

En la sección anterior estudiamos la forma general de las soluciones de laecuación de primer orden f ′ − λf = g. Vimos que este problema admiteuna formulación algebraica que permite establecer ciertas analogías con laresolución de ecuaciones lineales. En esta sección comprobaremos que esposible asociar a una ecuación diferencial del tipo

f (n) + an−1f(n−1) + · · ·+ a1f

′ + a0f = h.

Page 250: Libro Completo Algebra

250 Álgebra

un sistema de ecuaciones de primer orden, cuya resolución nos permitiráobtener la solución de la ecuación buscada.

Comenzaremos planteando de un modo preciso el problema que queremosresolver. Entenderemos por ecuación diferencial ordinaria (EDO) linealcon coe�cientes constantes de orden n cualquier expresión de laforma

f (n)(x) + an−1f(n−1)(x) + · · ·+ a1f

′(x) + a0f(x) = h (II)

donde h es una función compleja de variable real continua, an−1, · · · , a1, a0

son números complejos, f es la variable de la ecuación (II) que representaa una función compleja de variable real con derivada n-ésima con-tinua y f (k) representa la k-ésima derivada de f . Por ejemplo la siguienteexpresión es una ecuación diferencial de orden 2:

f (2)(x) + f (1)(x) + f(x) = cos(x) (aquí a1 = 1 y a0 = 1)

también se puede escribir esta misma ecuación de los siguientes modos:

f ′′(x) + f ′(x) + f(x) = cos(x)d2f(x)

dx2 + df(x)dx

+ f(x) = cos(x)

D2(f)(x) + D(f)(x) + f(x) = cos(x)

Entenderemos por solución de la ecuación a cualquier función quereemplazada en lugar de la variable f haga cierta la igualdad. Por ejemplo lafunción sin(x) es una solución de la ecuación f ′′(x) + f ′(x) + f(x) = cos(x).Nuestro objetivo es encontrar el conjunto de soluciones de una EDO linealcon coe�cientes constantes dada.

Tras el planteamiento del problema, vamos a seguir una estrategia que,además de permitirnos resolver la ecuación diferencial de orden n

f (n) + an−1f(n−1) + · · ·+ a1f

′ + a0f = h,

nos dotará de herramientas para resolver lo que denominaremos sistemas deecuaciones diferenciales de primer orden.

Page 251: Libro Completo Algebra

Álgebra 251

6.4.3 Sistemas de ecuaciones diferencialesNuestro objetivo es obtener un método sistemático que nos permita resolverel siguiente tipo de problema: Determinar las funciones y1, y2, . . . , yn talesque para cualquier t ∈ R se veri�ca que

y′1(t) = a11y1(t) + a12y2(t) + · · ·+ a1nyn(t)y′2(t) = a21y1(t) + a22y2(t) + · · ·+ a2nyn(t)...

y′n(t) = an1y1(t) + an2y2(t) + · · ·+ annyn(t)

(6.1)

Normalmente para expresar (6.1) utilizaremos la notación matricial extendi-da:

∀t ∈ R ,

y′1(t)y′2(t)...y′n(t)

=

a11 a12 · · · a1n

a21 a22 · · · a2n... ... ...

an1 an2 · · · ann

y1(t)y2(t)...

yn(t)

(6.2)

o la notación matricial compacta:

∀t ∈ R ,−→y′ (t) = A−→y (t)

El sistema (6.2) se conoce como sistema homogéneo de n ecuacionesdiferenciales lineales ordinarias de primer orden, con coe�cientesconstantes. Las técnicas para resolver este tipo de problema están encua-dradas especí�camente dentro del álgebra lineal. Consisten básicamente enrealizar una transformación lineal de modo que la resolución de las ecuacionesresultantes sea más sencilla. Además dicha transformación no debe perderinformación, lo que signi�ca que debe ser posible deshacer la transformación,o lo que es igual, debe ser invertible. Para ilustrar esta idea �jémonos en queresolver un sistema determinado de n ecuaciones lineales con n incógnitas:

A

x1...

xn

=

b1...bn

Consiste básicamente en multiplicar ambos lados de la igualdad por A−1 (estaes la transformación lineal) de modo que la solución del sistema resultanteresulte ser trivial o evidente:

Page 252: Libro Completo Algebra

252 Álgebra

In

x1...

xn

= A−1

b1...bn

Para atacar nuestro problema utilizando transformaciones lineales el pri-mer punto que debemos tratar es el siguiente: ¾Como modi�can las transfor-maciones lineales a los sistemas de ecuaciones diferenciales? Antes de abordarla respuesta a esta pregunta, es conveniente hacer la siguiente observación.

Observación 61 Una vez desarrollada una herramienta que nos permitaresolver sistemas de primer orden, podremos también utilizarla para resolverla ecuación diferencial de orden n

f (n) + an−1f(n−1) + · · ·+ a1f

′ + a0f = h.

La idea consiste en de�nir, a partir de la ecuación anterior, las siguientesfunciones

y1(t) = f(t)y2(t) = f ′(t) = y′1(t)...yn(t) = f (n−1)(t) = y′n−1(t)

(6.3)

de manera que resolver la ecuación anterior, consiste en resolver el siguientesistema de primer orden equivalente:

y′1(t)y′2(t)...y′n(t)

=

0 1 0 · · · 00 0 1 · · · 0... ... ...0 0 0 · · · 1−a0 −a1 −a2 · · · −an−1

y1(t)y2(t)......

yn(t)

+

00...0

h(t)

.

Ejemplo 6.4.2 Para hallar las soluciones de la ecuación

f ′′(x) + f ′(x) + f(x) = cos(x),

podemos de�nir {y1(x) = f(x)

y2(x) = f ′(x) = y′1(x),

Page 253: Libro Completo Algebra

Álgebra 253

y resolver el problema de determinar las soluciones del sistema

(y′1(x)y′2(x)

)=

(0 1−1 −1

)(y1(x)y2(x)

)+

(0

cos(x)

).

6.5 La semejanza de matrices y los sistemas deecuaciones

Consideremos el sistema de n ecuaciones diferenciales

∀t ∈ R ,−→y′ (t) = A−→y (t), (6.4)

donde A es una matriz cuadrada de orden n. Si Q es una matriz cuadradacualquier solución de (6.4) también lo es de

∀t ∈ R , Q·−→y′ (t) = Q ·A−→y (t). (6.5)

Si además Q es invertible el recíproco es cierto, es decir, cualquier soluciónde (6.5) también lo es de (6.4).Por tanto si P es una matriz invertible podemos escribir (6.5) usando P−1,es decir:

∀t ∈ R , P−1·−→y′ (t) = P−1·A−→y (t).

Ahora, si suponemos que

P−1=

γ11 · · · γ1n... ...

γn1 · · · γnn

e −→y (t) =

y1(t)...

yn(t)

,

tendremos que:

Page 254: Libro Completo Algebra

254 Álgebra

P−1·−→y′ (t) =

γ11 · · · γ1n... ...

γn1 · · · γnn

y′1(t)...y′n(t)

=

=

n∑i=1

γ1iy′i(t)

...n∑

i=1

γniy′i(t)

=

z1(t)︷ ︸︸ ︷n∑

i=1

γ1iyi(t)

...

n∑i=1

γniyi(t)

︸ ︷︷ ︸zn(t)

=

z′1(t)...z′n(t)

.

Luego si introducimos el cambio de variables−→z (t) = P−1·−→y (t),

tendremos que −→z′ (t) = P−1·−→y′ (t)

y en consecuencia el sistema (6.4) equivale a

∀t ∈ R ,−→z′ (t) = P−1·A−→y (t).

Ahora, para conseguir que aparezca el mismo tipo de variable a ambos ladosde la igualdad, podemos hacer las siguientes transformaciones:

−→z′ (t) = P−1·A−→y (t) = P−1·A · (P ·P−1)−→y (t) =

= (P−1·A ·P)(P−1·−→y (t)) = (P−1·A ·P)−→z (t).

Resumiendo, hemos obtenido que si P es una matriz de orden n invertiblelas siguientes condiciones I e II son equivalentes:

I II

∀t ∈ R ,−→y′ (t) = A−→y (t) ⇐⇒ ∀t ∈ R ,

{ −→y (t) = P·−→z (t)−→z′ (t) = (P−1·A ·P)−→z (t).

Page 255: Libro Completo Algebra

Álgebra 255

Observación 62 Vemos que, siendo P una matriz invertible, el efecto desustituir en un sistema de ecuaciones diferenciales −→y′ (t) = A−→y (t) la matrizde coe�cientes A por la matriz (P−1·A ·P), equivale a realizar el cambio devariable lineal −→y (t) = P·−→z (t).Aplicaremos este resultado del siguiente modo: supuesto que nos plantean elproblema I, buscaremos una matriz invertible P de modo que el sistema deecuaciones diferenciales del problema II sea más sencillo. Entonces, bastarámultiplicar por P la solución −→z (t) de dicho sistema, para obtener la solucióndel problema I.

Observación 63 Vimos que dos matrices cuadradas A y B son semejantessi existe una matriz invertible P, que llamamos matriz de paso, tal que

P−1·A ·P = B.

A continuación vamos a discutir qué tipos de sistemas de ecuaciones di-ferenciales vamos a poder resolver directamente.

6.5.1 Sistemas diagonalesComenzaremos con los sistemas cuya matriz de coe�cientes es diagonal:

∀t ∈ R ,

y′1(t)y′2(t)...y′n(t)

=

λ1 0 · · · 00 λ2 · · · 0... ... . . . ...0 0 · · · λn

y1(t)y2(t)...

yn(t)

.

Desde luego, como este sistema equivale a

y′1(t) = λ1y1(t)y′2(t) = λ2y2(t)... ...

y′n(t) = λnyn(t)

,

sabemos resolverlo y sus soluciones son

y1(t) = α1eλ1·t, y2(t) = α2e

λ2·t, . . . , yn(t) = αneλn·t.

Si queremos expresarlas matricialmente escribiremos:

Page 256: Libro Completo Algebra

256 Álgebra

y1(t)y2(t)...

yn(t)

= α1

eλ1·t

0...0

+ α2

0eλ2·t...0

+ · · ·+ αn

00...

eλn·t

.

Ejemplo 6.5.1 Si A =

0 0 00 2 00 0 1

, entonces λ1 = 0, λ2 = 2 y λ3 = 1.

Se sigue que las soluciones del sistema de ecuaciones que tiene A como matrizasociada son

y1 = c1, y2 = c2e2t, y3 = c3e

t.

¾Sabiendo resolver sistemas diagonales, podemos resolver cualquier otrosistema de ecuaciones diferenciales de primer orden con coe�cientes constan-tes? Para poder responder a�rmativamente a esta pregunta tendríamos queser capaces de transformar por semejanza cualquier matriz en otra que seadiagonal. Aunque más adelante veremos que en general esto no es po-sible, el estudio de este problema nos dará unas claves fundamentales pararesolver los sistemas de ecuaciones diferenciales.

Puesto que no toda matriz es diagonalizable, necesitamos buscar otrotipo de matrices que nos permitan simpli�car la resolución de sistemas deecuaciones diferenciales.

6.5.2 Sistemas triangularesConsideremos ahora los sistemas homogéneos cuya matriz de coe�cientes estriangular inferiormente:

∀t ∈ R ,

y′1(t)y′2(t)...y′n(t)

=

λ1 0 · · · 0a21 λ2 · · · 0... ... . . . ...

an1 an2 · · · λn

y1(t)y2(t)...

yn(t)

.

Page 257: Libro Completo Algebra

Álgebra 257

Este caso equivale a:

y′1(t)− λ1y1(t) = 0y′2(t)− λ2y2(t) = a21y1(t)

...y′n(t)− λnyn(t) =

n−1∑i=1

a1iyi(t)

.

Aunque laborioso, es fácil resolver este tipo de ecuaciones:1. Resolvemos la ecuación

y′1(t)− λ1y1(t) = 0

y obtenemos quey1(t) = α1e

λ1·t.

2. A continuación, como ya conocemos y1, resolvemos la segunda ecuación

y′2(t)− λ2y2(t) = a21α1eλ1·t

y obtenemos que

y2(t) = α2eλ2·t + α1e

λ2·t ·∫ t

0

a21e(λ1−λ2)·xdx.

3. Como ya conocemos y1 e y3, podemos resolver la tercera ecuación yasí sucesivamente hasta la última.

Veamos un ejemplo.

Ejemplo 6.5.2 Encontrar las soluciones del siguiente sistema:

y′1(t)y′2(t)y′3(t)

=

0 0 01 1 0−1 3 1

y1(t)y2(t)y3(t)

.

En primer lugar, dicho sistema equivale a

y′1(t)− 0 · y1(t) = 0,y′2(t)− 1 · y2(t) = y1(t),y′3(t)− 1 · y3(t) = −y1(t) + 3y2(t).

Page 258: Libro Completo Algebra

258 Álgebra

1. La solución general de la primera ecuación es

y1(t) = α1e0·t = α1.

2. La segunda ecuación se trasforma en

y′2(t)− y2(t) = α1

y su solución general es

y2(t) = β2et + et

∫ t

0

α1e−1xdx = (β2 + α1)e

t − α1.

Como β2 es arbitrario, podemos llamar α2 a (β2 + α1) y escribir

y2(t) = α2et − α1.

3. Por último, como ya conocemos y1 e y2, la tercera ecuación se trans-forma en

y′3(t)− y3(t) = −α1 + 3(α2e

t − α1

)= 3α2e

t − 4α1,

y su solución general viene dada por1.

y3(t) = β3et + et

∫ t

0

(3α2e

(1−1)x − 4α1e−1x

)dx =

= (β3 − 4α1) et + 4α1 + 3α2tet.

De nuevo, si llamamos α3 a (β3 − 4α1), tendremos

y3(t) = α3et + 3α2te

t + 4α1.

Luego, al expresar las soluciones vectorialmente, obtenemos

y1(t)y2(t)y3(t)

= α1

1−14

+ α2

0et

3tet

+ α3

00et

.

De cara a la resolución de sistemas de ecuaciones, ¾es su�cientementegrande el conjunto de matrices triangulares?, dicho de otro modo, ¾cualquiermatriz cuadrada es semejante a alguna triangular? Para contestar a estapregunta necesitamos estudiar los autovalores y autovectores de la matrizdel sistema.

Page 259: Libro Completo Algebra

Álgebra 259

6.6 Diagonalización y triangulación de matri-ces

6.6.1 El polinomio característico de una matrizObservación 64 Si nos �jamos en las columnas de una matriz triangular

T =

λ1 0 · · · 0a21 λ2 · · · 0... ... . . . ...

an1 an2 · · · λn

vemos que son linealmente independientes si y sólo si todos los coe�cientesde la diagonal principal son distintos de cero; una manera directa de veri�caresta a�rmación es observar que

det(T) = |T| = λ1λ2 · · ·λn.

En consecuencia las columnas de la matriz

T− xIn =

λ1 − x 0 · · · 0a21 λ2 − x · · · 0... ... . . . ...

an1 an2 · · · λn − x

son linealmente dependientes si y sólo si x coincide con algún elemento de ladiagonal principal. También podemos expresar esta propiedad diciendo queel determinante de la matriz T− xIn se hace cero si y sólo si x coincide conalgún elemento de la diagonal principal. Si ahora desarrollamos |T− xIn|

∣∣∣∣∣∣∣∣∣

λ1 − x 0 · · · 0a21 λ2 − x · · · 0... ... . . . ...

an1 an2 · · · λn − x

∣∣∣∣∣∣∣∣∣= (λ1 − x) (λ2 − x) · · · (λn − x) ,

vemos que lo dicho hasta el momento es trivial, ya que obtenemos un poli-nomio de grado n cuyas raíces son precisamente los elementos de la diagonalprincipal de T. ¾Dónde reside el interés de esta observación? Fundamental-mente en que este determinante es invariante bajo las transformaciones

Page 260: Libro Completo Algebra

260 Álgebra

por semejanza: supongamos que las matrices A y T son semejantes, esdecir, T = P−1AP entonces tenemos

|T− xIn| =∣∣P−1AP− xIn

∣∣ =∣∣P−1AP− xP−1P

∣∣ =

=∣∣P−1 (A− xIn)P

∣∣ =∣∣P−1

∣∣ |A− xIn| |P| ==

(puesto que

∣∣P−1∣∣ = |P|−1) =

= |A− xIn| .Esto signi�ca que el polinomio, cuyas raíces coinciden con los elementos dela diagonal principal de T, puede ser obtenido directamente a partir de A.

Ejemplo 6.6.1 Determinar qué elementos pueden aparecer en la diagonalprincipal de una matriz triangular T semejante a la siguiente matriz

A =

(4 −23 −1

).

Calculemos |T− xIn| = |A− xIn| :∣∣∣∣

4− x −23 −1− x

∣∣∣∣ = (4− x) (−1− x) + 6 = 2− 3x + x2;

luego, |T− xIn| = 2 − 3x + x2. Los elementos que pueden aparecer en ladiagonal principal de T son las raíces de 2− 3x + x

x2 − 3x = 2 = 0 ⇒ x =3±√9− 8

2=

{21

;

en consecuencia,

|T− xIn| = 2− 3x + x2 = (2− x) (1− x)

y en la diagonal principal de T necesariamente aparecen los valores 2 y 1.

De�nición 6.6.2 Dada una matriz cuadrada A de orden n, se denominapolinomio característico de A al polinomio

p(x) = |A− xIn| .Dada una matriz cuadrada A de orden n, diremos que una matriz columnaX de n �las es un vector propio de A (o un autovector de A) si:

Page 261: Libro Completo Algebra

Álgebra 261

1. X 6= 0.

2. Existe un escalar λ tal que AX = λX.

Asimismo, diremos que un escalar λ es un valor propio de A (o un auto-valor de A) si existe un vector propio X de A tal que AX = λX. En tal casodiremos que λ es el valor propio asociado al vector propio X, o también queX es un vector propio asociado al valor propio λ.

Propiedades del polinomio característico• Si A y B son semejantes, sus polinomios característicos coinciden.

• Usando la fórmula de Laplace para el cálculo de determinantes, po-demos veri�car que el polinomio característico es de grado n (si, porejemplo, calculamos el determinante de la matriz A − xIn a partir dela primera �la, resulta que el primer término de la suma resultante esel un único que contiene una potencia n-ésima de x,) y, por el teoremafundamental del álgebra, tiene n raíces complejas.

• Como acabamos de ver, si T es una matriz triangular semejante a lamatriz objeto de estudio A, los elementos de su diagonal principal sonlas raíces del polinomio característico de A (que por otra parte esel mismo que el de T ). Así, aunque todos los coe�cientes de la matrizA sean números reales, los coe�cientes de la diagonal principal de Tpueden ser números imaginarios. Por ejemplo, la matriz

A =

(0 −11 0

)

tiene como polinomio característico

|A− xIn| =∣∣∣∣−x −11 −x

∣∣∣∣ = x2 + 1,

con lo que en la diagonal principal de T necesariamente aparecen losvalores i y −i.

• λ es una raíz del polinomio característico de una matriz cuadrada A siy sólo si |A− λIn| = p(λ) = 0. La última condición es equivalente a que

Page 262: Libro Completo Algebra

262 Álgebra

el rango de la matriz A−λIn sea estrictamente menor que n y, entonces,a que el sistema de ecuaciones lineales homogéneo (A − λIn)X = (0)sea compatible indeterminado, es decir, a que exista X 6= (0) tal queAX = λX. Se deduce que

λ es una raíz de p(x)⇔ (existe X 6= (0) tal que AX = λX) ⇔

⇔{

λ es un autovalor de A yX es un autovector de A.

De�nición 6.6.3 Si λ es un autovalor de una matriz cuadrada A, al espacioKer(A−λIn) de las soluciones del sistema de ecuaciones lineales homogéneo(A−λIn)X = (0) se le denomina autoespacio asociado a λ y su dimensiónes la multiplicidad geométrica de λ.

A la multiplicidad de λ como raíz del polinomio característico de la matrizA se le denomina multiplicidad algebraica de λ.

Proposición 6.6.4 Sean A una matriz cuadrada de orden n y X1, ..., Xm,m ∈ {1, ..., n}, vectores propios de A asociados, respectivamente, a m valorespropios λ1, ..., λm. En estas condiciones, si ∀i, j ∈ {1, ..., m} λi 6= λj, severi�ca que los vectores X1, ..., Xm son linealmente independientes.

Demostración Por inducción sobre m:

1. Base de inducción: para m = 1 no hay nada que demostrar.

2. Paso de inducción: Sea m > 1 y supongamos que la propiedad escierta para cualquier sistema de m − 1 vectores propios. Supongamosademás que

m∑i=1

αiXi = 0. (1)

Multiplicando a ambos miembros de la igualdad (1) por λ1 obte-nemos que

m∑i=1

(λ1αi)Xi = 0 (2).

Page 263: Libro Completo Algebra

Álgebra 263

Pero, por una parte, A · (m∑

i=1

αiXi) = A · 0 = 0 y, por otra, A · (m∑

i=1

αiXi) =

m∑i=1

(λiαi)Xi, puesto que si A · X = λX, entonces A · (αX) = α(A · X) =

α(λX) = (λα)X. En consecuencia:m∑

i=1

(λiαi)Xi = 0 (3)

Restando (2) a (3) obtenemos quem∑

i=2

αi(λi−λ1)Xi = 0, con lo que, por hipó-tesis de inducción, ∀i ∈ {2, ...,m}, αi(λi − λ1) = 0, de donde ∀i ∈ {2, ..., m},αi = 0, con lo que la igualdad (1) queda α1X1 = 0 y en consecuencia α1 = 0.

2

6.6.2 Matrices diagonalizablesDe�nición 6.6.5 Diremos que una matriz cuadrada A de orden n es dia-gonalizable, si existe una matriz de paso invertible P de orden n tal que lamatriz

D = P−1AP

es diagonal.

Los resultados anteriores son obviamente aplicables a aquellas matricestriangulares que en particular sean diagonales. En otras palabras, si A es unamatriz diagonalizable y D es una matriz diagonal semejante a A, los elemen-tos de la diagonal principal de D son las raíces del polinomio característicode A (i.e., los valores propios de A).

En el caso de que sea D = P−1AP sea diagonal, ¾podemos saber algoacerca de la matriz P? Vamos a ver que sí. Supongamos que

D =

λ1 0... . . . ...0 λn

es la matriz P−1AP. Entonces multiplicando a la izquierda de ambas por lamatriz P tendremos que

Page 264: Libro Completo Algebra

264 Álgebra

AP = PD.

Por tanto la j-ésima columna de AP coincide con la j-ésima columna de PD.Ahora bien, si

P =

p11 · · · p1n... ...

pn1 · · · pnn

,

tendremos que las j-ésimas columna de AP y PD son respectivamente

A

p1j...

pnj

y

p11 · · · p1n... ...

pn1 · · · pnn

0...

λj...0

= λj

p1j...

pnj

y en consecuencia obtenemos que:

∀j ∈ {1, . . . , n} , A

p1j...

pnj

= λj

p1j...

pnj

(6.6)

Entonces si D = P−1AP es diagonal necesariamente las columnas deP son vectores propios de A y los coe�cientes λ1, ..., λn son los valorespropios de A.

Podemos completar esta observación con la siguiente propiedad:

Proposición 6.6.6 Una matriz cuadrada A ∈ Mn(K) es diagonalizable sisólo si existe una base en el espacio Mn×1(K)de matrices columnas de n �lasformada por vectores propios de A.

Demostración Si A es diagonalizable existe una matriz invertible P (deorden n ) tal que P−1AP es diagonal. Por tanto tendremos que las n colum-nas de P son vectores propios de A linealmente independientes (por ser Pinvertible) y en consecuencia constituyen una base en el espacio de matricescolumnas de n �las formada por vectores propios de A.

Recíprocamente supongamos que

Page 265: Libro Completo Algebra

Álgebra 265

p11...

pn1

, . . . ,

p1n...

pnn

es una base del espacio de matrices columnas de n �las formada por vecto-res propios de A. Entonces tendremos que por un lado, al constituir estasmatrices columna una base, la matriz

P =

p11 · · · p1n... ...

pn1 pnn

es invertible. Por otro, al ser vectores propios de A, existen n escalaresλ1, . . . , λn (no necesariamente distintos) tales que:

∀j ∈ {1, . . . , n} , A

p1j...

pnj

= λj

p1j...

pnj

Pero entonces tendremos que:

A

p11 · · · p1n... ...

pn1 pnn

=

p11 · · · p1n... ...

pn1 pnn

λ1 0... . . . ...0 λn

y en consecuencia, multiplicando por la izquierda P−1 obtenemos:

P−1AP =

λ1 0... . . . ...0 λn

2

Tras el resultado anterior, el problema de diagonalización queda reducidoal problema de saber encontrar los vectores propios, siempre y cuando éstosea posible, lo cual, según veremos, no sucede siempre.Teniendo en cuenta que por el teorema 6.6.6 una matriz cuadrada de orden n,A, es diagonalizable si y solo si existen n vectores propios de A linealmente

Page 266: Libro Completo Algebra

266 Álgebra

independientes. Si un valor propio λ de A tiene multiplicidad algebraicam(λ) > 1 (como raíz del polinomio característico de A), de la observación64 se sigue que en la matriz de paso P deberán aparecer m(λ) columnas quesean vectores propios linealmente independientes asociados al valor propio λ.

En resumen: A es diagonalizable si y sólo si para todo autovalor λ de Ase veri�ca que

dim(Ker(A− λIn)) = m(λ),

es decir, si la multiplicidad geométrica de λ es igual a su multiplicidad alge-braica.

Veamos con el siguiente ejemplo que no toda matriz cuadrada es diago-nalizable:

Ejemplo 6.6.7 Sea A =

(3 4−1 −1

). Su polinomio característico es

|A− xI2| =∣∣∣∣

3− x 4−1 −1− x

∣∣∣∣ = x2 − 2x + 1,

de donde

x2 − 2x + 1 = 0 ⇒ x =

{11

, por lo que, si A fuese diagonalizable

y P−1AP fuese una matriz diagonal, necesariamente P−1AP =

(1 00 1

),

siendo los dos vectores columna de P vectores propios asociados al valorpropio 1 y linealmente independientes. Sin embargo

dim(Ker(A− 1I2) = 2− rg(A− 1I2) = 2− rg(

(2 4−1 −2

)) = 1

con lo que no existen dos vectores propios de A linealmente independientesasociados al valor propio 1.

Potencias de matrices diagonalizables

El estudio teórico realizado también nos provee de una herramienta paracalcular la potencia n−ésima de una matriz diagonalizable.

Page 267: Libro Completo Algebra

Álgebra 267

Si una matriz cuadrada A es diagonalizable y queremos calcular su po-tencia n−ésima, tendremos que

p11 · · · p1n... ...

pn1 · · · pnn

−1

a11 · · · a1n... ...

an1 · · · ann

p11 · · · p1n... ...

pn1 · · · pnn

=

=

λ1 0... . . . ...0 λn

o, lo que es lo mismo, queP−1AP = D.

Resulta queA = PDP−1,

con lo queAn=

(PDP−1

)n=

(PDP−1

) (PDP−1

) (PDP−1

)...

(PDP−1

)= P ·Dn·P−1.

Veamos un ejemplo:Ejemplo 6.6.8 Hallar (

1 14 −2

)1000

.

Como, según hemos visto en los ejemplos anteriores,(

1 11 −4

)−1

·(

1 14 −2

)·(

1 11 −4

)=

(2 00 −3

),

resulta que(

1 14 −2

)=

(1 11 −4

)·(

2 00 −3

)·(

1 11 −4

)−1

,

con lo que(

1 14 −2

)1000

=

(1 11 −4

)·(

2 00 −3

)1000

·(

1 11 −4

)−1

=

=

(1 11 −4

)·(

21000 00 (−3)1000

)·(

45

15

15−1

5

)=

=

(4521000 + 1

5(−3)1000 1

521000 − 1

5(−3)1000

4521000 − 4

5(−3)1000 1

521000 + 4

5(−3)1000

).

Page 268: Libro Completo Algebra

268 Álgebra

Nótese que, obviamente(

1 14 −2

)n

=

(452n + 1

5(−3)n 1

52n − 1

5(−3)n

452n − 4

5(−3)n 1

52n + 4

5(−3)n

).

6.6.3 Triangulación de matricesVolvemos a la pregunta fundamental que nos devuelve al hilo conductor deldesarrollo del capítulo: ¾Es cualquier matriz cuadrada A ∈ Mn(C) semejantea alguna triangular?

Vamos a ver que sí. Además, la demostración del siguiente teorema consti-tuye un algoritmo que permite la obtención de la matriz triangular semejantea una matriz dada A ∈ Mn(C).

Teorema 6.6.9 Si A es una matriz cuadrada de orden n con coe�cientescomplejos, existe una matriz semejante a ella, T, que es triangular inferior-mente.

Demostración La demostración consiste en probar que se puede construiruna cadena de matrices

A = T0 → T1 → · · · → Tn = T,

cada una semejante a la anterior (y en consecuencia todas ellas son semejantesentre sí) y de tal modo que T es triangular inferiormente.

Procedemos por inducción sobre la dimensión n de la matriz A.

Base de inducción: si n = 1 no hay nada que demostrar.Paso de inducción: sea n ≥ 2 y supongamos que toda matriz cuadrada

de dimensión n− 1 es triangulable.Sea ahora A un matriz de dimensión n.

Puesto que trabajamos con coe�cientes complejos, el polinomio caracte-rístico de A

pA(x) = |A− xI|tiene al menos una raíz, a la que por conveniencia denotaremos con λ1. Lla-mamos v1 a un autovector asociado a λ1. Si elegimos una base de Cn cuyo

Page 269: Libro Completo Algebra

Álgebra 269

último vector sea v1, la matriz A resultará ser semejante a una matriz A′ dela forma:

A′ =

00

An−1...0

a′n1 a′n2 · · · a′n(n−1) λ1

.

Entonces

pA(x) = pA′(x) = (λ1 − x) |An−1 − xIn−1|

y el polinomio característico de An−1 tiene n− 1 raíces (los restante autova-lores de A).

Por la hipótesis de inducción, existe una matriz invertible de paso Pn−1

y una matriz triangular inferiormente Tn−1 tales que

Tn−1 = P−1n−1An−1Pn−1.

Si de�nimos

P =

00

Pn−1...0

0 0 · · · 0 1

,

se veri�ca que

P−1 =

00

P−1n−1

...0

0 0 · · · 0 1

y que T = P−1A′P.

Se sigue que la matriz triangular inferiormente T es semejante a la matrizA. 2

Ejemplo 6.6.10 Triangular por semejanza y hallar la matriz de paso corres-pondiente a la matriz

Page 270: Libro Completo Algebra

270 Álgebra

A =

−2 0 33 −2 −9−1 2 6

En primer lugar determinamos las raíces del polinomio característico dela matriz:

∣∣∣∣∣∣

−2−X 0 33 −2−X −9−1 2 6−X

∣∣∣∣∣∣= −X + 2X2 −X3 = (1−X)2 (0−X).

Luego los autovalores A son 1, 1 y 0. Ya que rango(A−Id3) = 2, la multipli-cidad geométrica de λ1 = 1 es 1 y no coincide con su multiplicidad algebraica.Por tanto A no es diagonalizable.

Un autovector asociado a λ1 = 1 es v1 = (1,−2, 1) ∈ Ker(A− Id3).Sea ((1, 0, 0), (0, 1, 0), (1,−2, 1)) una base de C3. La matriz

P1 =

1 0 10 1 −20 0 1

es tal que

A′ = P−11 AP1 =

1 0 −10 1 20 0 1

−2 0 33 −2 −9−1 2 6

1 0 10 1 −20 0 1

=

=

−1 −2 01 2 0−1 2 1

.

Ahora tenemos que triangular la submatriz

A′′ =(−1 −2

1 2

)

que tiene autovalores 1 y 0.Utilicemos el primero como λ2. Un autovector asociado a λ2 = 1 es v2 =(−1, 1) ∈ Ker(A′′ − Id2). Sea ((1, 0), (−1, 1)) una base de C2. La matriz

Page 271: Libro Completo Algebra

Álgebra 271

P2 =

1 −1 00 1 00 0 1

es tal que

P−12 A′P2 =

1 1 00 1 00 0 1

−1 −2 01 2 0−1 2 1

1 −1 00 1 00 0 1

=

=

0 0 01 1 0−1 3 1

,

que es triangular inferiormente y tiene los autovalores de A en la diagonal.Entonces

P−12 A′P2 = P−1

2 P−11 AP1P2 =

0 0 01 1 0−1 3 1

.

Se sigue que la matriz de paso es

P = P1P2 =

1 −1 10 1 −20 0 1

,

ya que

P−1AP =

1 −1 10 1 −20 0 1

−1

·A ·

1 −1 10 1 −20 0 1

=

0 0 01 1 0−1 3 1

= T.

6.6.4 Resolución de sistemas de ecuaciones diferencialespor triangulación

A partir de este momento, sabremos resolver un sistema de ecuaciones dife-renciales lineales con coe�cientes constantes, siempre que podamos obtenerlas raíces del polinomio característico de la matriz de coe�cientes.

Si la dimensión de la matriz del sistema es mayor o igual que cinco, nohay fórmulas cerradas para hallar las raíces del polinomio característico yhace falta usar métodos numéricos de aproximación de autovalores. Algunosde estos métodos están ilustrados en la práctica 6.

Page 272: Libro Completo Algebra

272 Álgebra

Sistemas homogéneosVamos a ilustrar por medio de un ejemplo el método de resolución de sistemashomogéneos. Sea el siguiente sistema homogéneo de ecuaciones:

y′1(t)y′2(t)y′3(t)

=

−2 0 33 −2 −9−1 2 6

y1(t)y2(t)y3(t)

.

Paso 1: Hacemos triangular la matriz de coe�cientes, no olvidando generarla matriz de paso. Como esto ya ha sido realizado en el ejemplo anterior,simplemente nos traemos el resultado:

1 −1 10 1 −20 0 1

−1

·−2 0 33 −2 −9−1 2 6

·

1 −1 10 1 −20 0 1

=

0 0 01 1 0−1 3 1

.

Paso 2: Resolvemos el sistema triangular

z′1(t)z′2(t)z′3(t)

=

0 0 01 1 0−1 3 1

z1(t)z2(t)z3(t)

.

Como este sistema ha sido resuelto en el ejemplo 6.5.2, nos traemos la solu-ción:

z1(t)z2(t)z3(t)

= α1

1−14

+ α2

0et

3tet

+ α3

00et

.

Paso 3: Multiplicamos la solución del sistema triangular por la matriz depaso:

y1(t)y2(t)y3(t)

=

1 −1 10 1 −20 0 1

α1

1−14

+ α2

0et

3tet

+ α3

00et

=

= α1

6−94

+ α2

−et + 3tet

et − 6tet

3tet

+ α3

et

−2et

et

.

Page 273: Libro Completo Algebra

Álgebra 273

Ejemplo 6.6.11 Resolver la siguiente ecuación:

f ′′ − 6f ′ + 9f = 0.

Lo primero es plantear el sistema de primer orden equivalente:(

y′1(t)y′2(t)

)=

(0 1−9 6

)(y1(t)y2(t)

),

donde {y1(t) = f(t)y2(t) = f ′(t) = y′1(t)

.

Ahora hacemos triangular la matriz

A =

(0 1−9 6

),

para lo cual lo primero es determinar las raíces de su polinomio característico:∣∣∣∣−X 1−9 6−X

∣∣∣∣ = X2 − 6X + 9 = (3−X)2 .

Luego los autovalores A son 3,3. A continuación utilizamos el procedimientovisto para triangular la matriz y hallar la matriz de paso.

El rango de la matriz A− 3Id2 es 1 y, por tanto, A no es diagonalizable.Un autovector asociado al autovalor λ1 = 3 es v1 = (1, 3) ∈ Ker(A − 3Id2).Sea ((0, 1), (1, 3)) una base de C2.

La matrizP1 =

(0 11 3

)

es tal que

A′ = P−11 AP1 =

(−3 11 0

)(0 1−9 6

)(0 11 3

)=

=

(3 01 3

).

Entonces(

3 01 3

)=

(0 11 3

)−1 (0 1−9 6

)(0 11 3

).

Page 274: Libro Completo Algebra

274 Álgebra

Ahora resolvemos el sistema triangular(

z′1(t)z′2(t)

)=

(3 01 3

)(z1(t)z2(t)

).

Dicho sistema equivale a:{

z′1(t) = 3z1(t)z′2(t) = z1(t) + 3z2(t)

.

La solución general de la primera ecuación, según sabemos, es z1(t) = α1e3t.

La segunda ecuación se transforma en z′2(t) − 3z2(t) = α1e3t y su solución

general es:

z2(t) = α2e3t + e3t

∫ t

0

α1e3xe−3xdx

= α2e3t + e3t

∫ t

0

α1dx =

= α2e3t + e3tα1(t) =

= e3t(α2 + tα1),

es decir,z2(t) = α1te

3t + α2e3t.

Expresando las soluciones vectorialmente tenemos que(

z1(t)z2(t)

)= α1

(e3t

te3t

)+ α2

(0e3t

).

Finalmente, multiplicamos la solución del sistema triangular por la matrizde paso:

(y1(t)y2(t)

)=

(0 11 3

) [α1

(e3t

te3t

)+ α2

(0e3t

)]=

= α1

(te3t

e3t + 3te3t

)+ α2

(e3t

3e3t

)

y, puesto que la solución buscada es f(t) = y1(t), concluimos que

f(t) = α1te3t + α2e

3t.

Page 275: Libro Completo Algebra

Álgebra 275

Sistemas no homogéneosSi la ecuación diferencial de orden n considerada no fuese homogénea, esdecir, fuese de la forma

f (n) + an−1f(n−1) + · · ·+ a1f

′ + a0f = h,

se puede aplicar una ligera variación sobre el método visto. Haciendo elmismo cambio

y1(t) = f(t)y2(t) = f ′(t) = y′1(t)...yn(t) = f (n−1)(t) = y′n−1(t)

, (6.7)

el sistema de primer orden equivalente sería:

y′1(t)y′2(t)...y′n(t)

=

0 1 0 · · · 00 0 1 · · · 0... ... ...0 0 0 · · · 1−a0 −a1 −a2 · · · −an−1

y1(t)y2(t)......

yn(t)

+

00...0

h(t)

con la peculiaridad de que, en este caso, tendríamos el sistema

∀t ∈ R ,−→y′ (t) = A−→y (t) +

−→h (t).

Razonando de forma similar al caso en el que no teníamos término indepen-diente, si P es una matriz cuadrada invertible, podemos pasar al sistema:

∀t ∈ R , P−1·−→y′ (t) = P−1·A−→y (t) + P−1·−→h (t),

con lo que, si llamamos −→z (t) a P−1·−→y (t) tendremos que−→z′ (t) = P−1·−→y′ (t)

y, en consecuencia, para conseguir que aparezca el mismo tipo de variable aambos lados de la igualdad, hacemos las mismas transformaciones que en el

Page 276: Libro Completo Algebra

276 Álgebra

caso de un sistema homogéneo:−→z′ (t) = P−1·A−→y (t) + P−1·−→h (t) =

= P−1·A · (P ·P−1)−→y (t) + P−1·−→h (t) =

= (P−1·A ·P)(P−1·−→y (t)) + P−1·−→h (t) =

= (P−1·A ·P)−→z (t) + P−1·−→h (t)

y, puesto que este sistema es triangular, sabemos resolverlo. Si −→z (t) essolución de dicho sistema, deshaciendo el cambio obtendremos que

−→y (t) = P·−→z (t)

es la solución buscada.

Ejemplo 6.6.12 Para resolver la ecuación

f ′′ − 6f ′ + 9f = 32te−t,

como en el caso homogéneo, el primer paso es plantear el sistema de primerorden equivalente:

(y′1(t)y′2(t)

)=

(0 1−9 6

)(y1(t)y2(t)

)+

(0

32te−t

).

Ahora hacemos triangular la matriz

A =

(0 1−9 6

),

que coincide con la del ejemplo anterior y, según vimos, se veri�ca que(

3 01 3

)=

(0 11 3

)−1 (0 1−9 6

)(0 11 3

).

Ahora, siendo −→z (t) = P−1·−→y (t),

es decir, (z1(t)z2(t)

)=

(0 11 3

)−1 (y1(t)y2(t)

),

Page 277: Libro Completo Algebra

Álgebra 277

tenemos que resolver el sistema triangular

(z′1(t)z′2(t)

)=

(3 01 3

)(z1(t)z2(t)

)+

(0 11 3

)−1 (0

32te−t

)

y, puesto que(

0 11 3

)−1

=

( −3 11 0

),

dicho sistema es equivalente a:

(z′1(t)z′2(t)

)=

(3 01 3

)(z1(t)z2(t)

)+

( −3 11 0

)(0

32te−t

),

es decir: {z′1(t) = 3z1(t) + 32te−t

z′2(t) = z1(t) + 3z2(t)

Y ahora, la solución general de la primera ecuación, según sabemos, es

z1(t) = α1e3t + e3t

∫ t

0

32xe−xe−3xdx =

= α1e3t + e3t

∫ t

0

32xe−4xdx =

(por partes) = α1e3t + 32e3t

(−x

4e−4x

]t

0

+1

4

∫ t

0

e−4xdx

)=

= α1e3t + 8e3t

(−te−4t − 1

4(e−4t − 1)

)=

= α1e3t − 8te−t − 2e−t + 2e3t =

= k1e3t − 8te−t − 2e−t,

donde hemos tomado k1 = α1 + 2, ya que α1 es una constante arbitraria. Lasegunda ecuación se transforma en z′2(t)− 3z2(t) = k1e

3t − 8te−t − 2e−t y su

Page 278: Libro Completo Algebra

278 Álgebra

solución general es:

z2(t) = α2e3t + e3t

∫ t

0

(k1e3x − 8xe−x − 2e−x)e−3xdx

= α2e3t + e3t

∫ t

0

(k1 − 8xe−4x − 2e−4x)dx =

= α2e3t + e3t

(k1x +

1

2e−4x

]t

0

)− 8e3t(−1

4te−4t − 1

16e−4t +

1

16) =

= α2e3t + e3t

(k1t +

1

2e−4t − 1

2

)+

(2te−t +

1

2e−t − 2e3t

)=

= α2e3t + k1te

3t +1

2e−t − 1

2e3t +

(2te−t +

1

2e−t − 2e3t

)=

= e3t

(α2 − 2− 1

2+ k1t

)+ e−t (1 + 2t) ,

con lo que, renombrando las variables adecuadamente, obtenemos que

z2(t) = k1te3t + α2e

3t + e−t (1 + 2t) .

Expresando las soluciones vectorialmente tenemos que (k1 = C1, α2 = C2)(

z1(t)z2(t)

)= C1

(e3t

te3t

)+ C2

(0e3t

)+

( −8te−t − 2e−t

e−t (1 + 2t)

).

Finalmente, multiplicamos la solución del sistema triangular por la matrizde paso:(

y1(t)y2(t)

)=

(0 11 3

)[C1

(e3t

te3t

)+ C2

(0e3t

)+

+

( −8te−t − 2e−t

e−t (1 + 2t)

)]=

=

(0 11 3

)(C1e

3t − 8te−t − 2e−t

C1te3t + C2e

3t + e−t (1 + 2t)

)=

=

(C1te

3t + C2e3t + e−t (1 + 2t)

C1e3t − 8te−t − 2e−t + 3C1te

3t + 3C2e3t + 3e−t (1 + 2t)

)

y, puesto que la solución buscada es f(t) = y1(t), concluimos que

f(t) = C1te3t + C2e

3t + e−t (1 + 2t) .

Page 279: Libro Completo Algebra

Álgebra 279

Ejercicio 6.6.1 Resolver la siguiente ecuación:D3f − 5D2f + 7Df − 3f = 9t− 9.Solución: f (t) = −4− 3t + C1e

t + C2e3t + C3e

tt.

6.7 Relaciones de recurrenciaLas técnicas desarrolladas en este capítulo también se pueden aplicar pararesolver otro tipo de problemas, entre otros, el problema del primer ejemploenunciado al principio del capítulo.

Para el desarrollo que sigue, es importante recordar que

N ∪ {0} = {0, 1, 2, 3, ...}.

De�nición 6.7.1 Diremos que la sucesión {an}n∈N∪{0} está de�nida recur-sivamente o por recurrencia si

{1. ∃k ∈ N tal que a1, ..., ak son conocidos y2. ∀n ∈ N ∪ {0}, an+k está de�nido en función de an+k−1, ..., an.

Las relaciones de recurrencia también se denominan ecuaciones en di-ferencias.

De�nición 6.7.2 Llamaremos relación de recurrencia lineal homogéneade orden k ∈ N con coe�cientes constantes a cualquier relación derecurrencia de la forma

an+k = c1an+k−1 + ... + ckan

donde c1, ..., ck ∈ C, ck 6= 0, y n ∈ N ∪ {0}.

Las relaciones del tipo anterior se denominan lineales y homogéneas de-bido a que la ecuación asociada

an+k − c1an+k−1 + ... + ckan = 0

de variables an+k, an+k−1, ..., an es una ecuación lineal y homogénea.

Ejemplo 6.7.3 La ecuación

an+2 = an+1 − 5an

Page 280: Libro Completo Algebra

280 Álgebra

es una relación de recurrencia lineal homogénea de grado 2, puesto que suecuación asociada

an+2 − an+1 + 5an = 0

es una ecuación lineal y homogénea (similar a la ecuación x−y+5z = 0). Siespeci�camos los valores iniciales a1 y a2, todos los términos de la sucesiónquedan determinados y, por tanto, hay una única sucesión que satisface dicharelación de recurrencia y cuyos dos primeros términos sean a1 y a2.

Dicho de otra forma, el subespacio vectorial de F(N,R)

{{an} : an+2 − an+1 + 5an = 0}

tiene dimensión 2.

Ejemplo 6.7.4 La relación de recurrencia

an+2 =√

an+1 + 2an

no es lineal, pues la ecuación

x−√y − 2z = 0

no es lineal. La relación de recurrencia

an+2 = a2n+1 + 5an

tampoco es lineal.

Volvamos al problema original que tenemos planteado, esto es, encon-trartodas las soluciones de una relación de recurrencia lineal y homogéneacon coe�cientes constantes. El discurso va a seguir el mismo camino que elvisto para las ecuaciones diferenciales.

Primero veremos cómo se pueden resolver las relaciones de recurrencia ho-mogéneas de primer orden y luego las no homogéneas para, a continuación,utilizar la técnica desarrollada en el capítulo para resolver sistemas de rela-ciones de recurrencia, �nalizando la exposición con la aplicación del métodopara resolver ecuaciones de recurrencia de orden k > 1.

Page 281: Libro Completo Algebra

Álgebra 281

6.7.1 Relaciones de primer ordenSegún vimos, las sucesiones {an}n∈N que satisfacen la relación de recurrencialineal homogénea de primer orden

an+1 = λan, (I)

son las sucesiones {an}n∈N que son autovectores de la función lineal S asocia-dos al autovalor λ, junto con la sucesión nula 0 = {0, 0, 0, ....}. Esto es, el con-junto Ker(S−λId). Por otra parte, si demostramos que dim(Ker(S−λId)) =1, localizando una solución no nula, es decir, un elemento no nulo de dichosubespacio, el resto de soluciones se obtendrá fácilmente. Veamos que, efec-tivamente,

dim(Ker(S − λId)) = 1.

Evidentemente, la sucesión

{an} = {λn} = {1, λ, λ2, λ3, ...},

es una solución de la ecuación (o relación de recurrencia) (I). Por otra parte,si {bn} es cualquier otra solución de dicha ecuación, vamos a demostrar queexiste una constante K tal que

{bn} = K · {λn} = {K · λn},

con lo que {λn} será una base de Ker(S − λId) y dim(Ker(S − λId)) = 1.

Puesto que {bn} ∈ Ker(S−λId), es decir, S({bn}) = λ · {bn}, tendremos,por una parte, que

S({bn}) = S({b0, b1, b2, ...}) = λ · {b0, b1, b2, ...} = {λb0, λb1, ...}

y, por otra, que

S({bn}) = S({b0, b1, b3, ...}) = {b1, b2, ...},

de donde{λb0, λb1, ...} = {b1, b2, ...},

Page 282: Libro Completo Algebra

282 Álgebra

es decir,

b1 = λb0

b2 = λb1 = λ2b0

b3 = λb2 = λ3b0

...bn = λbn−1 = λnb0

...

. En otras palabras, {bn} = b0 · {λn}, con lo que las soluciones de la ecuación

an+1 = λan (I)

son las progresiones geométricas de razón λ, progresiones que constituyenel subespacio vectorial Ker(S − λId), siendo una base de dicho espacio lasucesión

{λn} = {1, λ, λ2, λ3, ...}.

Ejemplo 6.7.5 Las sucesiones {an}n∈N que satisfacen la relación de re-currencia

an+1 = 5an

son de la forma

K · {5n} = K · {1, 5, 52, ..., 5n, ...} = {K, 5K, 52K, ..., 5nK, ...}.

Observación 65 Puesto que para tener completamente determinada unaprogresión geométrica sólo es preciso conocer el primer elemento (b0 = K)y la razón de la progresión (λ), conocido el valor inicial a0, hay una únicasucesión {an}n∈N que satisface la relación de recurrencia an+1 = λan, (I).

Ejemplo 6.7.6 Existe una única sucesión {an}n∈N que satisface las condi-ciones {

a0 = 3an+1 = 5an.

Dicha sucesión es

a0 · {λn} = 3 · {5n} = {3, 15, 75, ..., 3 · 5n, ...}.

Page 283: Libro Completo Algebra

Álgebra 283

Ya sabemos encontrar las soluciones de una ecuación de recurrencia linealy homogénea con coe�cientes constantes de primer orden, e incluso hallar laúnica solución de una ecuación del tipo anterior toda vez que se conozca unvalor inicial. Ahora bien, ¾Cómo podemos encontrar las soluciones de unsistema de ecuaciones de recurrencia de primer orden? ¾Podemos emplearla misma técnica de resolución vista para los sistemas de ecuaciones dife-renciales? Veremos que la respuesta a esta pregunta es a�rmativa. Pero,para poder aplicarla, necesitamos resolver en primer lugar las relaciones derecurrencia no homogéneas de primer orden con coe�cientes constantes.

La siguiente proposición tiene como consecuencia que cualquier relaciónde recurrencia lineal y homogénea de primer orden con coe�cientes constantestiene solución.

Proposición 6.7.7 ∀λ ∈ C la función lineal

(S − λId) : F(N,C) −→ F(N,C)

es sobreyectiva.

Demostración Dada {an} ∈ F(N,C), hay que probar que ∃{bn} ∈ F(N,C)tal que

(S − λId)({bn}) = {an}.Ahora bien, dicha igualdad es equivalente a que S({bn}) − λ({bn}) = {an},es decir, {bn+1} − λ({bn}) = {an}. Por consiguiente:

b1 = a0,

b2 = a1 + λa0,

b3 = a2 + λa1 + λ2a0,...

bn = an−1 + λan−2 + ... + λn−1a0,...

La solución {bn} está determinada por b0 = 0 y, para n ≥ 1,

bn =n∑

i=1

λi−1an−i,

Page 284: Libro Completo Algebra

284 Álgebra

es decir,

{bn} = {0, a0, a1 + λa0, a2 + λa1 + λ2a0, ..., an−1 + λan−2 + ... + λn−1a0, ...},

es tal que (S − λId)({bn}) = {an}, como puede comprobarse fácilmentetérmino a término:

S(b0)− λb0 = a0 − λ0 = a0

S(b1)− λb1 = b2 − λb1 = (a1 + λa0)− λa10 = a1

S(b2)− λb2 = b3 − λb2 =(a2 + λa1 + λ2a0

)− λ (a1 + λa0) = a2

...S(bn)− λbn = an

...

y, en consecuencia (S − λId) es sobreyectiva. 2

La proposición anterior nos proporciona una herramienta para hallar unasolución particular de cualquier relación de recurrencia de primer orden concoe�cientes constantes.

Ahora ¾Cómo podemos obtener todas las soluciones de una ecuaciónlineal de primer orden no necesariamente homogénea? Razonando de formaanáloga a como hicimos con las ecuaciones diferenciales. El resultado similarque se tiene en este contexto queda establecido en la siguiente proposición,cuya demostración se propone como ejercicio.

Proposición 6.7.8 Siendo {bn} una solución particular de la relación derecurrencia

(S − λId)({xn}) = {an}, (I)

se veri�ca que

{yn} es solución de (I) ⇔ ∃K ∈ C tal que {yn} = {bn}+ K · {λn}.

Es decir, vale el principio de superposición de soluciones: la soluciónde la ecuación no homogénea se obtiene sumando a una solución particular de

Page 285: Libro Completo Algebra

Álgebra 285

dicha ecuación todas las soluciones de la ecuación homogénea asociada. Porconsiguiente, teniendo en cuenta los resultados obtenidos, podemos concluirque

{yn} es solución de (S − λId)({yn}) = {an}⇔

∃K ∈ C tal que

y0 = K yn ≥ 1, yn =

(n∑

i=1

λi−1an−i

)+ K · {λn}.

Ejemplo 6.7.9 El conjunto de soluciones de la relación de recurrencia

an+1 = 3an + (−1)n

es el conjunto de sucesiones {an} cuyo término general es de la forma

an = bn + K3n,

donde K ∈ C y {bn} es la sucesión de�nida por b0 = 0 y, para n > 1,

bn =n∑

i=1

3i−1(−1)n−i.

En otras palabras, {an} es solución de la relación de recurrencia dada si {an}es de la forma

a1 = K

an = K3n−1 +n−1∑i=1

3i−1(−1)n−i.

En particular, si buscamos la única sucesión determinada por las condiciones{

a0 = 0an+1 = 3an + (−1)n

dicha sucesión es

a0 = 0

n ≥ 1 ⇒ an =n∑

i=1

3i−1(−1)n−i ,

Page 286: Libro Completo Algebra

286 Álgebra

es decir,

b0 = 0

b1 = −1,

b2 = 1 + 3 · (−1),

b3 = −1 + 3 + 32(−1), (6.8)...

bn = (−1)n−1 + 3(−1)n−2 + ... + 3n−1(−1),...

Observación 66 Para �nalizar este apartado, vamos a hacer una breve re-�exión sobre la forma que tiene la solución particular que encontramos utili-zando el método expuesto. Según hemos visto, la sucesión {bn} determinadapor b1 = 0 y, para n ≥ 1,

bn =n−1∑i=1

λi−1an−i

es una solución particular de la relación de recurrencia

(S − λId)({xn}) = {an}.La forma de la sucesión {bn} recuerda al producto de polinomios. De hecho,el término general de esta sucesión (donde n ∈ N, n ≥ 1) se podría expresardel siguiente modo:

bn =n∑

i=1

λi−1an−i =∑

j+k=n−1

λjak.

6.7.2 Sistemas de relaciones de recurrenciaEl planteamiento del problema es similar al visto para ecuaciones diferencia-les. En este caso, el problema consiste en resolver sistemas de la forma

x1(n + 1) = a11x1(n) + a12x2(n) + · · ·+ a1mxm(n),x2(n + 1) = a21x1(n) + a22x2(n) + · · ·+ a2mxm(n),

...xm(n + 1) = am1x1(n) + an2x2(n) + · · ·+ ammxm(n),

Page 287: Libro Completo Algebra

Álgebra 287

donde las sucesiones �incógnita� son {x1(n)}, ..., {xm(n)}.Como en el caso de las ecuaciones diferenciales, podemos emplear la no-

tación matricial

x1(n + 1)x2(n + 1)

...xm(n + 1)

=

a11 a12 · · · a1m

a21 a22 · · · a2m... ... ...

am1 am2 · · · amm

x1(n)x2(n)

...xm(n)

,

o, inclusive la notación matricial compacta−→x (n + 1) = A−→x (n).

A los sistemas del tipo anterior se les conoce como sistemas homo-géneos de m ecuaciones de recurrencia de primer orden con co-e�cientes constantes. La técnica para resolver este tipo de sistemas esexactamente la misma que la vista para los sistemas de ecuaciones diferen-ciales.

Así, dado el sistema de ecuaciones

−→x (n + 1) = A−→x (n),

donde A es una matriz cuadrada de orden m. Si P es una matriz cuadradainvertible y consideramos la matriz P−1, tendremos que

P−1·−→x (n) = P−1 ·A−→x (n)

y, siendo −→z (n) = P−1·−→x (n),

podemos hacer las siguientes transformaciones:−→z (n + 1) = P−1·A−→x (n) = P−1·A · (P ·P−1)−→x (n) =

= (P−1·A ·P)(P−1·−→x (n))

= (P−1·A ·P)−→z (n).

Por ello, si P−1·A ·P es triangular, para resolver el sistema original plantea-do es su�ciente con resolver dicho sistema triangular y deshacer el cambiorealizado −→x (n) = P·−→z (n).

para obtener la solución buscada.

Page 288: Libro Completo Algebra

288 Álgebra

Ejemplo 6.7.10 Supongamos que queremos encontrar las sucesiones que sa-tisfacen el sistema de relaciones de recurrencia lineales y homogéneas de pri-mer orden con coe�cientes constantes:

{x(n + 1) = x(n) + y(n)y(n + 1) = 4x(n)− 2y(n),

junto con las condiciones iniciales x(0) = 1, y(0) = 6. Si planteamos elsistema de forma matricial, tendremos:

(x(n + 1)y(n + 1)

)=

(1 14 −2

)·(

x(n)y(n)

).

Operando, obtenemos que los autovalores de la matriz del sistema son 2 y −3y que la forma triangular (en este caso diagonal) de la matriz asociada es

(1 11 −4

)−1

·(

1 14 −2

)·(

1 11 −4

)=

(2 00 −3

).

Razonando del mismo modo que con los sistemas de ecuaciones diferenciales,procedemos a resolver el sistema

(II)

(z(n + 1)u(n + 1)

)=

(2 00 −3

)·(

z(n)u(n)

)

con (x(n)y(n)

)=

(1 11 −4

)·(

z (n)u(n)

).

El sistema (II) es, obviamente, el sistema{

z(n + 1) = 2z(n)u(n + 1) = −3u(n)

,

cuyas soluciones son, según sabemos,{ {z(n)} = α{2n}{u(n)} = β{(−3)n} (α, β ∈ C).

Luego(

x(n)y(n)

)=

(1 11 −4

)·(

α2n

β(−3)n

)=

(α2n + β(−3)n

α2n − 4β(−3)n

)(α, β ∈ C).

Page 289: Libro Completo Algebra

Álgebra 289

Imponiendo, �nalmente, las condiciones iniciales tendremos que{

x(0) = 1 = α20 + β(−3)0 = α + βy(0) = 6 = α20 − 4β(−3)0 = α− 4β,

es decir, que {α + β = 1α− 4β = 6,

con lo que, resolviendo el sistema{ −5β = 5 ⇒ β = −1

α = 2,

de donde las sucesiones que satisfacen el sistema planteado con las condicio-nes iniciales dadas son:

(x(n)y(n)

)=

(2 · 2n − (−3)n

2 · 2n + 4(−3)n

)=

(2n+1 − (−3)n

2n+1 + 4(−3)n

),

es decir,{x(n)} =

{2n+1 − (−3)n

}

y{y(n)} =

{2n+1 + 4(−3)n

}.

Ejercicio 6.7.1 Comprobar que la solución del sistema de ecuaciones dife-renciales {

x′(t) = x(t) + y(t)y′(t) = 4x(t)− 2y(t)

,

sujeto a las condiciones iniciales x(0) = 1, y(0) = 6 es(

x1(t)x2(t)

)=

(2e2t − e−3t

2e2t + 4e−3t

).

Compárese con la solución del sistema de relaciones de recurrencia del ejem-plo anterior.

Page 290: Libro Completo Algebra

290 Álgebra

6.8 Ejercicios6.8.1 Ejercicios resueltos1. Determinar la sucesión de�nida recursivamente por las condiciones

an+2 = 7an+1 − 12an

a1 = 1a2 = 3.

2. Encontrar las sucesiones que satisfacen la relación de recurrenciaan+3 = 4an+2 − 5an+1 + 2an.

3. Encontrar las soluciones de la ecuación diferencialD2(f)− 7D(f) + 12f = e−t.

4. Resolver el problema de valor inicial{D(f)− 2f = e2t

f(0) = 1.

5. Resolver el sistema de ecuaciones diferenciales{x′1 = 5x1 + 4x2

x′2 = x1 + 2x2

sujeto a las condiciones iniciales x1(0) = 2, x2(0) = 3.

6. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en dife-rencias) {

an+1 = 5an + 4bn

bn+1 = an + 2bn

con las condiciones iniciales a1 = 2, b1 = 3.

7. Calcular la potencia n−ésima de la matriz

A =

2 1 12 3 23 3 4

.

Page 291: Libro Completo Algebra

Álgebra 291

6.8.2 Ejercicios propuestos1. Supuesto que t ∈ R, determinar todas las soluciones de los siguientessistemas:

a)

y′1(t) = −y1(t)y′2(t) = 2y2(t)

y′3(t) = y1(t) + y2(t) + y3(t),b)

y′1(t) = sin(t)y′2(t) = t2

y′3(t) = y1(t) + y2(t) + y3(t).

2. Dada la matriz A =

1 0 2−1 −1 −10 0 −1

determinar A100.

3. Dada la matriz A =

1 4 −120 3 −90 1 −3

, se pide:

a) hallar una base del subespacio propio asociado a cada valor propio,b) determinar si la matriz A es diagonalizable.

4. Dada una matriz A ∈ Mn(K), ¾puede ocurrir que A no sea diagona-lizable y A2 sí sea diagonalizable?

5. Triangularizar por semejanza y hallar la matriz de paso

correspondiente a la matriz A =

3 1 00 2 1−1 −1 1

.

6. Supuesto que t ∈ R, determinar todas las soluciones del siguiente

sistema:

y′1(t) = 3y1(t) + y2(t)y′2(t) = 2y2(t) + y3(t)

y′3(t) = −y1(t)− y2(t) + y3(t).

7. Resolver las siguientes ecuaciones:a) 2f ′′ + 3f ′ + f = 0,b) 2f ′′ + 3f ′ + f = t.

8. Determinar la sucesión {an} que, empezando en a0 = 0, veri�ca

an+1 = 2an + 5n

para todo n ∈ N⋃{0}.

Page 292: Libro Completo Algebra

292 Álgebra

9. Determinar la sucesión de�nida recursivamente por las condiciones

an+2 = an+1 + 2an,a1 = 3,a2 = 4.

10. Resolver el sistema de ecuaciones de recurrencia (ecuaciones endiferencias) {

an+1 = 2an + 14bn,

bn+1 = −an + bn,

con las condiciones iniciales a1 = 2, b1 = 1.

11. Dada una matriz A ∈Mn(K), demostrar las siguientes a�rmaciones:a) los autovalores de A coinciden con los de su traspuesta,b) si A es inversible, los autovalores de A−1 son los inversos de los

autovalores de A,

12. Dada la matrizA =

(2 a3 b

),

determinar los valores de a, b ∈ R para que (1, 3) sea un autovector asociadoal autovalor λ = 2.

13. Dada una matriz A ∈Mn(K) idempotente (es decir, tal que A2 = A),estudiar como son los autovalores de A.

Page 293: Libro Completo Algebra

Capítulo 7

Soluciones de los ejercicios

7.1 Soluciones de los ejerciciosdel capítulo 1

1. Representar por su matriz ampliada y resolver por el método de Gauss-Jordan cada uno de los siguientes sistemas de ecuaciones lineales :

2x1 + x2 + 3x3 = 95x1 + 4x2 + 6x3 = 24x1 + 3x2 − 2x3 = 4

{x3 = 3, x2 = 4, x1 = −2}

2 1 35 4 61 3 −2

·

x1

x2

x3

=

9244

La solución del sistema por el método de Gauss-Jordan sería la siguiente:

2 1 3 95 4 6 241 3 −2 4

F1 ↔ F3

−→

1 3 −2 45 4 6 242 1 3 9

F2 = F2 − 5F1

F3 = F3 − 2F1

−→→

1 3 −2 40 −11 16 40 −5 7 1

, ... prosiguiendo con las transformaciones elemen-

293

Page 294: Libro Completo Algebra

294 Álgebra

tales adecuadas hasta obtener la matriz

1 0 0 −20 1 0 40 0 1 3

, es decir,

{x1 = −2, x2 = 4, x3 = 3} .

Del mismo modo el sistema{

3x1 + x2 + x3 − 5x4 = 45x1 + 2x2 + 4x3 − 2x4 = 6

se expresaría(

3 1 1 −55 2 4 −2

x1

x2

x3

x4

=

(46

).

Resolviéndolo por el método de Gauss-Jordan obtendremos:(

3 1 1 −5 45 2 4 −2 6

) F1 = 13F1

F2 = F2 − 5F1

−→

(1 1

313

−53

43

0 13

73

193

−23

) F1 = 13F1

F2 = F2 − 5F1

−→F2 = 3F2

F1 = F1 − 13F2

−→

(1 0 −2 −8 20 1 7 19 −2

), es decir, el sistema es compa-

tible indeterminado, y las soluciones son

{x1 = 2 + 2x3 + 8x4, x2 = −2− 7x3 − 19x4, x3, x4} .

Razonando análogamente con el sistema

x1 − x2 + x3 − x4 = 02x1 + 3x2 + 4x3 + 5x4 = 0x1 − x2 + 2x3 − 2x4 = 0

5x1 + 5x2 + 9x3 + 9x4 = 0

obtenemos que es compatible indeterminado, siendo su solución{

x1 = −9

5x4, x2 = −9

5x4, x3 = x4, x4 = x4

},

o , si se pre�ere,{

x1 = −9

5λ, x2 = −9

5λ, x3 = λ, x4 = λ

}

λ∈R.

Page 295: Libro Completo Algebra

Álgebra 295

2. Considere el sistema de ecuaciones

x + y + 2z = ax + z = b

2x + y + 3z = c

Demuestre que para que este sistema sea compatible, a, b y c debensatisfacer c = a+b.

La matriz ampliada de este sistema es A =

1 1 2 a1 0 1 b2 1 3 c

.

A =

1 1 2 a1 0 1 b2 1 3 c

F1 < − > F2

1 0 1 b1 1 2 a2 1 3 c

F2 = F2 − F1

F3 = F3 − 2F1

1 0 1 b0 1 1 a− b0 1 1 c− 2b

F3 = F3 − F2

1 0 1 b0 1 1 a− b0 0 0 c− a− b

Si c 6= a + b, el sistema no es compatible ya que sería equivalente a unsistema que contiene una ecuación de la forma 0x + 0y + 0z = c− a− b 6= 0.Si c = a + b, el sistema dado es equivalente al sistema

{x = −z + b

y = −z + a− b

que es compatible indeterminado y tiene conjunto solución

{(−z + b,−z + a− b, z) : z ∈ R}

.

Page 296: Libro Completo Algebra

296 Álgebra

3. Resuelva cada uno de los sistemas siguientes por eliminación de Gauss-Jordan:

a)

2x1 − 3x2 = −22x1 + x2 = 13x1 + 2x2 = 1

La matriz ampliada de este sistema es A =

2 −3 −22 1 13 2 1

.

A =

2 −3 −22 1 13 2 1

F2 = F2 − F1

2 −3 −20 4 33 2 1

F1 = 12F1

F2 = 14F2

1 −32

−10 1 3

4

3 2 1

F3 = F3 − 3F1

F1 = F1 + 32F2

1 0 18

0 1 34

0 132

4

F3 = F3 + 5

2F2

1 0 18

0 1 34

0 0 −78

.

El sistema es incompatible.b)

3x1 + 2x2 − x3 = −155x1 + 3x2 + 2x3 = 03x1 + x2 + 3x3 = 1111x1 + 7x2 = −30

La matriz ampliada de este sistema es A =

3 2 −1 −155 3 2 03 1 3 1111 7 0 −30

. La

sucesión de transformaciones elementales

F3 = F3 − F1, F1 =1

3F1, F2 = F2 − 5F1, F4 = F4 − 11F1, F4 = F4 − F2,

F1 = F1+2

3F3, F2 = −3F2, F3 = F3+F2, F3 = −1

7F3, F1 = F1−7

3F3, F2 = F2+11F3

transforma A en su forma escalonada reducida

Page 297: Libro Completo Algebra

Álgebra 297

1 0 0 −40 1 0 20 0 1 70 0 0 0

. La única solución del sistema es (−4, 2, 7).

c)

4x1 − 8x2 = 123x1 − 6x2 = 9

−2x1 + 4x2 = −6

La matriz ampliada de este sistema es A =

4 −8 123 −6 9−2 4 −6

. La suce-

sión de transformaciones elementales

F1 =1

4F1, F2 =

1

3F2, F3 =

−1

2F3, F2 = F2 − F1, F3 = F3 − F1

transforma A en la matriz equivalente

1 −2 30 0 00 0 0

. El conjunto solución

del sistema es {(2t + 3, t) : t ∈ R}.

4. ¾Para qué valores de a el sistema que sigue no tiene soluciones? ¾Tieneexactamente una solución? ¾ Tiene in�nidad de soluciones?

x + 2y − 3z = 43x− y + 5z = 2

4x + y + (a2 − 14)z = a + 2

La matriz ampliada de este sistema es A =

1 2 −3 43 −1 5 24 1 a2 − 14 a + 2

.

Aplicando las transformaciones elementales

F2 = F2 − 3F1, F3 = F3 − 4F1, F3 = F3 − F2, F2 =−1

7F2, F1 = F1 − 2F2,

se obtiene la matriz

Page 298: Libro Completo Algebra

298 Álgebra

1 0 1 87

0 1 −2 107

0 0 a2 − 16 a− 4

.

Si a = −4, el sistema es incompatible, ya que la última �la sería de laforma 0 = −8.

Si a = 4, la última �la es una �la de ceros y el sistema es compatibleindeterminado con conjunto solución

{(−t +

8

7, 2t +

10

7, t) : t ∈ R

}.

Si a 6= ±4, aplicando la transformación F3 = 1a2−16

F3, se obtiene la matrizen forma escalonada

1 0 1 87

0 1 −2 107

0 0 1 1a+4

.

En este caso el sistema tiene exactamente una solución para cada valor de a.(Hay tres variables principales)

5. Calcular las inversas de la siguientes matrices:

A =

(3 15 2

)B =

(2 −34 4

)C =

(2 00 3

)

(3 1 1 05 2 0 1

)F1 = 1

3F1

→(

1 13

13

05 2 0 1

)F2 = F2 − 5F1

→(

1 13

13

00 1

3−53

1

)

F1 = F1 − F2

→(

1 0 2 −10 1

3−53

1

)F2 = 3F2

→(

1 0 2 −10 1 −5 3

).

Entonces A−1 =

(2 −1−5 3

).

(2 −3 1 04 4 0 1

)F1 = 1

2F1

→(

1 −32

12

04 4 0 1

)F2 = F2 − 4F1

→(1 −3

212

00 10 −2 1

)F2 = 1

10F2

→(

1 −32

12

00 1 −1

5110

)F1 = F1 + 3

2F1

Page 299: Libro Completo Algebra

Álgebra 299(

1 0 15

320

0 1 −15

110

).

Entonces B−1 =

(15

320−1

5110

).

(2 0 1 00 3 0 1

)F1 = 1

2F1

→(

1 0 12

00 3 0 1

)F2 = 1

3F2

→(

1 0 12

00 1 0 1

3

).

Entonces C−1 =

(12

00 1

3

).

6. Veri�que que las matrices A y B del ejercicio 5) satisfacen la relación(AB)−1 = B−1A−1.

B−1A−1 =

(15

320−1

5110

)(2 −1−5 3

)=

( −720

14−9

1012

)y

AB =

(3 15 2

) (2 −34 4

)=

(10 −518 −7

).

(10 −5 1 018 −7 0 1

)F1 = 1

10F1

→(

1 −12

110

018 −7 0 1

)F2 = F2 − 18F1

→(

1 −12

110

00 2 −9

51

)F2 = 1

2F2

→(

1 −12

110

00 1 −9

1012

)F1 = F1 + 1

2F2

→(1 0 −7

2014

0 1 −910

12

). Entonces (AB)−1 = B−1A−1.

7. Sea A una matriz invertible y suponga que la inversa de 7A es( −1 24 −7

). Encuentre la matriz A.

( −1 24 −7

)= (7A)−1 = 1

7A−1 ⇒ A−1 = 7

( −1 24 −7

)⇒ A =

17

( −1 24 −7

)−1

( −1 2 1 04 −7 0 1

)F2 = F2 + 4F1

→( −1 2 1 0

0 1 4 1

)F1 = F1 − 2F2

Page 300: Libro Completo Algebra

300 Álgebra( −1 0 −7 −2

0 1 4 1

)F1 = −F1

→(

1 0 7 20 1 4 1

)

A = 17

(7 24 1

)=

(1 2

747

17

).

8. Sea AX = B un cualquier sistema consistente de ecuaciones linealesy supóngase que X1 es una solución �ja. Demuestre que toda solución parael sistema se puede escribir en la forma X = X1 + X0, en donde X0 es unasolución para AX = 0. Demuestre también que toda matriz de esta formaes una solución.

Sea X2 una solución del sistema AX = B. Ya que X2 = X1 + (X2 −X1), será su�ciente demostrar que (X2 − X1) es una solución del sistemaAX = 0 y de�nir X0 = X2 −X1.

En efecto, A(X2 −X1) = AX2 − AX1 = B −B = 0.Ahora tenemos que veri�car que toda matriz X de la forma X1+X0, donde

X1 es una solución particular del sistema AX = B y X0 es una solución delsistema homogéneo AX = 0, es también una solución del sistema.

En efecto, AX = A(X1 + X0) = AX1 + AX0 = B + 0 = B.

9. Encontrar la inversa de la matriz dada, si la matriz es invertible:

a) A =

3 4 −11 0 32 5 −4

b) B =

3 1 52 4 1−4 2 −9

c) C =

1 0 10 1 11 1 0

a) Aplicando sucesívamente las transformaciones elementales F2 ←→F3, F2 = F2 − 3F1, F3 = F3 − 2F1, F2 = 1

4F2, F3 = F3 − 5F2, F3 = 2

5F3, F2 =

F2 + 52F3, F1 = F1 − 3F3

a la matriz

3 4 −1 1 0 01 0 3 0 1 02 5 −4 0 0 1

, obtenemos la matriz

1 0 0 32

−1110

−65

0 1 0 −1 1 10 0 1 −1

2710

25

. Por lo que A−1 =

32

−1110

−65

−1 1 1−12

710

25

.

Page 301: Libro Completo Algebra

Álgebra 301

b) Aplicando las transformaciones elementales F3 = F3 + 2F1 y F3 =

F3 − F2 a la matriz

3 1 5 1 0 02 4 1 0 1 0−4 2 −9 0 0 1

, obtenemos la matriz

3 1 5 1 0 02 4 1 0 1 00 0 0 2 −1 1

.

Por lo tanto la matriz B es equivalente a la matriz

3 1 52 4 10 0 0

, es decir,

el sistema de ecuaciones lineales homogéneo asociado a la matriz B,

3x + y + 5z = 02x + 4y + z = 0

−4x + 2y +−9z = 0, es equivalente al sistema homogéneo de dos

ecuaciones en tres variables

3x + y + 5z = 02x + 4y + z = 0

0 = 0, que tiene una in�nidad de

soluciones. Por ello la matriz B no puede ser invertible, ya que, si lo fuera,el sistema sería compatible determinado.

c) Aplicando las transformaciones elementales F3 = F3 − F1, F3 = F3 −

F2, F3 = −12

F3,F1 = F1−F3 y F2 = F2−F3 a la matriz

1 0 1 1 0 00 1 1 0 1 01 1 0 0 0 1

,

se obtiene la matriz

1 0 0 12

−12

12

0 1 0 −12

12

12

0 0 1 12

12

−12

.

Entonces C−1 =

12

−12

12−1

212

12

12

12

−12

.

10. Efectúe las operaciones sobre las �las que siguen sobre

A =

3 1 0−2 1 43 5 5

Page 302: Libro Completo Algebra

302 Álgebra

multiplicando por una matriz elemental apropiada. En cada caso, veri�quela respuesta llevando a cabo la operación sobre las �las directamente sobreA.

a)Intercambie la primera y tercera �las.b)Multiplique la segunda �la por 1/3.c)Sume el doble de la segunda �la a la primera.

a)

0 0 10 1 01 0 0

A′ =

3 5 5−2 1 43 1 0

b)

1 0 00 1

30

0 0 1

A′ =

3 1 0−23

13

43

3 5 5

c)

1 2 00 1 00 0 1

A′ =

−1 3 8−2 1 43 5 5

11. Una caja que contiene monedas con las denominaciones de un centavo,cinco centavos y diez centavos tiene 13 de ellas con un valor total de 83centavos.

¾ Cuántas monedas de cada tipo hay en la caja ?Hay que resolver el sistema de ecuacionesx + y + z = 13

x + 5y + 10z = 83

El sistema anterior es equivalente al sistemax + y + z = 13

4y + 9z = 70,

sistema que tiene una in�nidad de soluciones de la forma (−18+5z4

, 70−9z4

, z).En el problema dado 0 ≤ z ≤ 13 y, para que x e y no sean negativos,4 ≤ z ≤ 7. El único valor de z en este intervalo tal que x e y sean númerosnaturales es 6. Entonces hay 3 monedas de 1 centavo, 4 de cinco centavos y6 de diez centavos.

12. ¾Para cuál valor, o cuáles valores, de a el sistema siguiente tiene cero,una y una in�nidad de soluciones?

Page 303: Libro Completo Algebra

Álgebra 303

x1 + x2 + x3 = 4x3 = 2

(a2 − 4)x3 = a− 2

La matriz ampliada asociada a este sistema es la matriz

A =

1 1 1 40 0 1 20 0 a2 − 4 a− 2

. Si a = −2, la última ecuación es del

tipo 0 = −4 y el sistema es incompatible. Si a = 2, la matriz A es igual a

1 1 1 40 0 1 20 0 0 0

y el sistema tiene una in�nidad de soluciones:

{(−t + 2, t, 2) : t ∈ R} .

Si a 6= ±2, podemos aplicar la transformación elemental F3 = 1a2−4

F3 a lamatriz A. El sistema es equivalente al sistema

x1 + x2 + x3 = 4x3 = 2

x3 = 1a+2

que es compatible y tiene una in�nidad de soluciones {(2− s, s, 2) : s ∈ R}sólo si 1

a+2= 2, es decir, sólo si a = −3

2.

13. Demostrar que la trasposición de matrices satisface las siguientespropiedades.

a) ∀A ∈ Mm×n(K) t(tA) = A.Dado (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la de�niciónt(tA)(i, j) =t A(j, i) = A(i, j).Por consiguiente, al ser matrices del mismo orden, t(tA) = A.b) ∀A,B ∈ Mm×n(K) t(A + B) =t A +t B.Dado (i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la de�nición

t(A + B)(i, j) = (A + B)(j, i) = A(j, i) + B(j, i) =

= (tA)(i, j) + (tB)(i, j) = (tA +t B)(i, j).

c)∀A ∈ Mm×n(K),∀B ∈ Mn×p(K) A · B ∈ Mm×p(K), con lo que t(A ·B) ∈ Mp×m(K). Por otra parte tB ∈ Mp×n(K),t A ∈ Mn×m(K), . con lo que

Page 304: Libro Completo Algebra

304 Álgebra

(tB ·t A) ∈ Mp×m(K), es decir, son matrices del mismo orden. Dado ahora(i, j) ∈ {1, ..., m} × {1, ..., n}, aplicando la de�nición

t(A ·B)(i, j) = (A ·B)(j, i) =n∑

k=1

A(j, k) ·B(k, i) =

=n∑

k=1

(tA)(k, j) · (tB)(i, k) =n∑

k=1

(tB)(i, k) · (tA)(k, j) =

=(

tB ·t A)(i, j).

14. Demostrar que si A ∈ Mn(K) es invertible, entoncest(A) ∈ Mn(K)

es invertible y t (A−1) = (tA)−1

.Si A ·A−1 = In y A−1 ·A = In, por las propiedades vistas en el problema

anterior t(A · A−1) =t In = In =t (A−1) · (tA) y t(A−1 · A) =t In = In =(tA) ··t (A−1) , con lo que t (A−1) = (tA)

−1.

15. Si A = (aij) ∈ Mn(K), se denomina traza de A a la suma de loselementos de la diagonal principal de A, es decir,

Tr(A) = a11 + ... + ann =n∑

i=1

aii.

Demostrar que ∀A,B,C ∈ Mn(K):a) Tr(A + B) = Tr(A) + Tr(B).

T r(A+B) =n∑

i=1

(aii+bii) = (por las propiedades asociativa y conmutativa

de +) = (a11 + ... + ann) + (b11 + ... + bnn) =

(n∑

i=1

aii

)+

(n∑

i=1

bii

).

b) Tr(AB) = Tr(BA).Si AB = C y BA = D, Tr(AB) =

(n∑

i=1

cii

)=

(n∑

i=1

n∑k=1

aikbki

)=

(n∑

k=1

n∑i=1

aikbki

)= (por la propiedad conmutativa de ·) = =

n∑k=1

n∑i=1

bkiaik =(

n∑i=1

dii

)= Tr(BA).

Page 305: Libro Completo Algebra

Álgebra 305

Poner un contraejemplo que ponga de mani�esto que

Tr(A.B) 6= Tr(A) · Tr(B).

Si A =

(1 11 1

)y B = I2 =

(1 00 1

), A.B =

(1 11 1

)= A, por lo

que Tr(A.B) = Tr(A) = 2; sin embargo Tr(A) · Tr(B) = 2 · 2 = 4.c) Siendo C = AtA,

Tr(AtA) = Tr(C) =n∑

i=1

C(i, i) =n∑

i=1

(n∑

k=1

A(i, k)tA(k, i)) =

=n∑

i=1

(n∑

k=1

A(i, k)A(i, k)) =n∑

i=1

n∑

k=1

a2ik.

16. Se dice que una matriz A ∈ Mn(K) es simétrica si tA = A. Demostrarque una condición necesaria y su�ciente para que el producto de dos matricessimétricas A,B ∈ Mn(K) dé como resultado una matriz simétrica es queAB = BA.

Veamos que es condición necesaria:Hipótesis: A y B simétricas y AB simétrica. ¾En estas condiciones es

AB = BA?t(AB) = al ser AB simétrica = AB;Pero también t(AB) = (tB)(tA) = ( Al ser A y B simétricas) = AB.Veamos ahora que es condición su�ciente:Hipótesis: A y B simétricas y AB = BA. ¾Es en estas condiciones AB

simétrica? Si AB = BA, tendremos que t(AB) =t (BA) = (tA)(tB) =(Alser A y B simétricas)=AB, con lo que AB es simétrica.

17. Determinar α ∈ C y β ∈ C para que la matriz A =

(2 11 2

)∈

M2(C) satisfaga la ecuación A2 + αA + βI2 = (0).Utilizando la relación anterior, y sabiendo que A es invertible, calcular

A−1.(2 11 2

)(2 11 2

)=

(5 44 5

), luego hay que resolver la ecuación

(5 44 5

)+ α

(2 11 2

)+ β

(1 00 1

)=

(0 00 0

),

Page 306: Libro Completo Algebra

306 Álgebra

de donde(

5 + 2α + β 4 + α4 + α 5 + 2α + β

)=

(0 00 0

), y en consecuencia α =

−4 y β = 3.Por consiguiente A2−4A+3I2 = (0). Suponiendo que A tiene inversa A−1,

multiplicando por dicha matriz a ambos lados de esa ecuación, obtenemosA−1(A2−4A+3I2) = A−1(0) = (0), de donde A−4I2 +3A−1 = (0), es decir,A−1 = 1

3(4I2 − A) = 1

3

(2 −1−1 2

)=

(23

−13−1

323

).

18. Se dice que una matriz A ∈ Mn(K) es idempotente si A2 = A.Demostrar que si A ∈ Mn(K) es idempotente, entonces B = In − A esidempotente. Demostrar también que AB = (0) y que BA = (0).

B2 = (I−A)(I−A) = I−A−A+A2. Al ser A idempotente I−A−A+A2 =I − A = B, luego B es idempotente. Por otra parte

AB = A(I − A) = A− A2 = A− A = (0)

BA = (I − A)A = A− A2 = A− A = (0).

19. En una feria de ganado un granjero compró pollos, conejos y terneros.Los pollos los compró a 50 pts., los conejos a 1000 pts. y los terneros a5000pts.

Compró 100 animales y gastó 100.000 pts.Sabiendo que compró animales de las 3 clases, averiguar el número de

animales que compró de cada clase.Hay que resolver el sistema de ecuacionesx + y + z = 10050x + 1000y + 5000z = 100000El sistema anterior es equivalente al sistemax + y + z = 10019y + 99z = 1900Haciendo z = λ, se tiene que y = 100 − 99λ

19, x = 80λ

19. De las condiciones

del enunciado se sigue que las soluciones deben ser enteras y positivas, porlo que λ debe ser múltiplo de 19. Si λ = 0, no compraría terneros. Si λ = 19,z = 19, y = 1, x = 80. Esta es la única solución posible, pues si λ = 19n yn > 1, y sería negativo.

20. En el ámbito de las ciencias de la computación una cadena o �string�es una secuencia de items (datos) de algún conjunto (o dominio) de datosdado. En términos matemáticos una cadena es una palabra a1...an de longi-tud n ≥ 0. Para n = 0 se trata de la cadena vacía (a la que en su momento

Page 307: Libro Completo Algebra

Álgebra 307

denotamos por λ) y para n ≥ 1 los elementos a1, ..., an pertenecen al mis-mo conjunto o alfabeto A. El ejercicio consiste en construir un modelo detipo abstracto de datos al que denominaremos cadena o � string�, teniendoen cuenta que hay que considerar los datos y las cadenas de datos de unconjunto A = {a1, ..., ak}, que las cadenas son elementos del conjunto A∗

(conjunto de todas las cadenas o palabras de�nidas sobre el alfabeto A olenguaje universal sobre A), que hay que considerar la palabra vacía comouna constante, y que como operaciones sobre las cadenas consideramos lassiguientes: construye, que a partir de un elemento de A construye una lis-ta de longitud 1, la operación concat, de�nida sobre pares de palabras porconcat(a1...an, b1...bm) = a1...anb1...bm, y las operaciones iañade (iadd) y da-ñade (dadd) que añaden, respectívamente, un elemento a la izquierda o a laderecha de una cadena dada.(Nota: Son su�cientes 5 ecuaciones).

CADENA =1. Tipos : CADENA, ALFABETO

2. Constantes :

{a1, ..., an ∈ ALFABETO,vacía ∈ CADENA

3. Operaciones :

concat : CADENA× CADENA → CADENAconstruye : ALFABETO → CADENAiadd : ALFABETO × CADENA → CADENAdadd : CADENA× ALFABETO → CADENA

4. Ecuaciones:

∀c, c′, c” ∈ CADENA, ∀a ∈ ALFABETOconcat(c, vacía) = cconcat(vacía, c) = cconcat(concat(c, c′), c”) = concat(c, concat(c′, c”))iadd(a, c) = concat(construye(a), c)dadd(c, a) = concat(c, construye(a))

7.2 Soluciones de los ejerciciosdel capítulo 2

1. Encontrar un vector u diferente de cero cuyo punto inicial es P =(−1, 3,−5) tal que

a) u tiene la misma dirección que v = (6, 7,−3).

Page 308: Libro Completo Algebra

308 Álgebra

b) u tiene dirección opuesta a la de v = (6, 7,−3).

Sea u = PQ, donde Q = (x, y, z). Entonces u = (x + 1, y − 3, z + 5).Si u tiene la misma dirección que v, u = kv ⇔ (x + 1, y − 3, z + 5) =

(6k, 7k,−3k)a) Sea k > 0 y Q = (6k − 1, 7k + 3,−3k − 5).b) Sea k < 0 y Q = (6k − 1, 7k + 3,−3k − 5).

2. Sean u = (−3, 1, 2), v = (4, 0,−8), y w = (6,−1,−4). Encontrar losescalares c1, c2, c3 tales que c1u+c2v+c3w = (2, 0, 4).

(2, 0, 4) = c1u + c2v + c3w = c1(−3, 1, 2) + c2(4, 0,−8) + c3(6,−1,−4) =

= (−3c1, c1, 2c1) + (4c2, 0,−8c2) + (6c3,−c3,−4c3) == (−3c1 + 4c2 + 6c3, c1 − c3, 2c1 − 8c2 − 4c3).

Entonces, tenemos que resolver el sistema−3c1 + 4c2 + 6c3 = 2

c1 − c3 = 02c1 − 8c2 − 4c3 = 4

La solución del sistema por el método de Gauss-Jordan sería la siguiente:aplicando la transformaciones elementales F1 ←→ F2, F3 = 1

2F3, F3 = F3 −

F1, F2 = F2 + 3F1, F3 = F3 + F2, F2 = 14F2, F3 = 1

2F3,

F1 = F1 + F3, F2 = F2 − 34F3 a la matriz

−3 4 6 21 0 −1 02 −8 −4 4

, se obtiene la matriz

1 0 0 20 1 0 −10 0 1 2

.

La solución del sistema es {c1 = 2, c2 = −1, c3 = 2} .

3. Demostrar que no existen los escalares c1, c2, c3 tales que c1(−2, 9, 6)+c2(−3, 2, 1) + c3(1, 7, 5) = (0, 5, 4).

Como en el ejercicio anterior, tenemos que resolver el sistema−2c1 − 3c2 + c3 = 09c1 + 2c2 + 7c3 = 56c1 + c2 + 5c3 = 4

Aplicando la transformaciones elementales F3 = F3+3F1, F1 = −12F1, F3 =

−18F3, F2 ←→ F3, F3 = F3 − 9F1, F1 = F1 − 3

2F2,

Page 309: Libro Completo Algebra

Álgebra 309

F3 = − 223

F3, F3 = F3 − F2

a la matriz−2 −3 1 09 2 7 56 1 5 4

, se obtiene la matriz

1 0 1 34

0 1 −1 −12

0 0 0 346

.

El sistema es incompatible.

4. Sean P el punto (2, 3,−2) y Q el punto (7,−4, 1).a) Encontrar el punto medio del segmento de recta que une a P y Q.b) Encontrar el punto sobre el segmento de recta que une a P y Q y está

a 34de la distancia de P a Q.

a) Sean v = OP = (2, 3,−2) y w = OQ = (7,−4, 1) y v + w = OR =(9,−1,−1). El segmento OR corta el segmento PQ en un punto M , quees el punto de intersección entre las diagonales del paralelogramo OPRQ.Entonces M es el punto medio de PQ y M = v+w

2= (9

2, −1

2, −1

2).

b) El punto sobre el segmento de recta que une a P y Q y que está a 34

de la distancia de P a Q será dado por el punto medio entre M y Q, es decirpor N = 1

2(v+w

2+ w) = (23

4, −9

4, 1

4).

5. Suponer que la traslación de un sistema de coordenadas xy se hace paraobtener un sistema de coordenadas x′y′ cuyo origen O′ tiene las coordenadas(2,−3).

a) Encontrar las coordenadas x′y′ del punto P cuyas coordenadas xy son(7, 5).

b) Encontrar las coordenadas xy del punto Q cuyas coordenadas x′y′ son(−3, 6).

c) Trazar los ejes de coordenadas xy y x′y′ y localizar los puntos P yQ.

Las ecuaciones de traslación de S = (O, x, y) a S′ = (O′, x′, y′) y de S′ =(O′, x′, y′) a S = (O, x, y) son:

{x′ = x− 2y′ = y + 3

y{

x = x′+ 2y = y′ − 3

.

a) P = (5, 8) en S′ = (O′, x′, y′).b) Q = (−1, 3) en S = (O, x, y).

6. Demostrar geométricamente que si u y v son vectores en el espaciobidimensional o en el espacio tridimensional, entonces

‖ u + v ‖≤‖ u ‖ + ‖ v ‖ .

Page 310: Libro Completo Algebra

310 Álgebra

Utilizando la regla del paralelogramo para de�nir u + v, la desigualdad‖ u+ v ‖≤‖ u ‖ + ‖ v ‖ se sigue de que la longitud de uno de los lados de untriángulo es siempre menor o igual a la suma de las longitudes de los otrosdos lados.

7. a) Demostrar que v = (a, b) y w = (−b, a) son vectores ortogonales.v · w = −ab + ba = 0.b) Usar el resultado del inciso a) para encontrar dos vectores que sean

ortogonales a v = (2,−3).Sea v = (2,−3) = (a, b). Entonces, se sigue de la parte a) que los vectoresw1 = (−b, a) = (3, 2) y w2 = −w1 = (b,−a) = (−3,−2) son ortogonales

a v.c) Encontrar dos vectores unitarios que sean ortogonales a (−3, 4).Sea v = (a, b) = (−3, 4). Como en la parte b), los vectores w1 = (−b, a) =

(−4,−3) y w2 = −w1 = (b,−a) = (4, 3) son ortogonales a v. Entonces losvectores

u1 = w1

‖w1‖ = (−45

, 35) y u2 = w2

‖w2‖ = (45, −3

5) son unitarios y ortogonales a

v.

8. Explicar por qué cada una de las siguientes expresiones carece desentido.

Si u, v, w son vectores en el plano o en el espacio tridimensional y k es unnúmero real,

a) u · (v · w) : el producto escalar está de�nido entre vectores y (v · w) esun escalar.

b) (u·v)+w : la suma está de�nida entre dos vectores o entre dos escalares,no entre un escalar y un vector.

c) ‖ u · v ‖: la norma es una función de�nida sobre un vector, no unescalar.

d) k · (u + v) : el producto escalar está de�nido entre vectores y k es unescalar.

9. Sean vectores i, j y k unitarios a lo largo de los ejes positivos x, y y zde un sistema de coordenadas rectangulares en el espacio tridimensional. Siv = (a, b, c) es un vector diferente de cero, entonces los ángulos α, β,y γ entrev y los vectores i, j y k, respectivamente, se denominan ángulos directores dev, y los números cos(α), cos(β) y cos(γ) se denominan cosenos directores dev.

Page 311: Libro Completo Algebra

Álgebra 311

a) Demostrar que cos(α) = a‖v‖ .

cos(α) = i·v‖i‖‖v‖ = a

‖v‖ . (Ya que ‖ i ‖= 1)b) Encontrar cos(β) y cos(γ).

cos(β) = j·v‖j‖‖v‖ = b

‖v‖ . (Ya que ‖ j ‖= 1)

cos(γ) = k·v‖k‖‖v‖ = c

‖v‖ . (Ya que ‖ k ‖= 1)

c) Demostrar que v‖v‖ = (cos(α), cos(β),cos(γ)).

v‖v‖ = (a,b,c)

‖v‖ = ( a‖v‖ ,

b‖v‖ ,

c‖v‖) = (cos(α), cos(β),cos(γ)).

d) Demostrar que cos2(α) + cos2(β) + cos2(γ) = 1.

cos2(α) + cos2(β) + cos2(γ) =‖ v‖v‖ ‖2= (‖v‖‖v‖)

2 = 1.

10. Demostrar que si v es ortogonal tanto a w1 como a w2, entonces v esortogonal a k1w1 + k2w2 para todos los escalares k1 y k2.

Utilizando las propiedades del producto escalar y que v·w1 = 0 y v·w2 = 0,se obtiene que v · (k1w1 + k2w2) = k1(v · w1) + k2(v · w2) = k10 + k20 = 0.

11. Encontrar las ecuaciones paramétricas de la recta que pasa por lospuntos dados.

a) Sean P = (5,−2, 4) y Q = (7, 2,−4).

La recta que pasa por P y Q es paralela al vector determinado por elsegmento

PQ = (2, 4,−8) y sus ecuaciones paramétricas son:

x = 5 + 2ky = −2 + 4kz = 4− 8k

∞ < k < ∞

b) Sean P = (0, 0, 0) y Q = (2,−1,−3).

La recta que pasa por P y Q es paralela al vector determinado por elsegmento

PQ = (2,−1,−3) y sus ecuaciones paramétricas son:

x = 2ky = −kz = −3k

∞ < k < ∞

Page 312: Libro Completo Algebra

312 Álgebra

12. Demostrar que la recta r :

x = 0y = tz = t

∞ < t < ∞

a) pertenece al plano π1 : 6x + 4y − 4z = 0 :∀t 6 · 0 + 4t− 4t = 0 ⇒ r ⊂ π1.

b) es paralela al plano π2 : 5x− 3y + 3z = 1 y está por abajo de éste:

π2 ∩ r = ∅ por qué ∀t 5 · 0− 3t + 3t = 0 6= 1, entonces r es paralela aπ2.

Además O = (0, 0, 0) ∈ r y el punto de intersección de π2 con el eje z es(0, 0, 1

3).

c) es paralela al plano π3 : 6x + 2y − 2z = 1 y está por arriba de éste:

π3 ∩ r = ∅ por qué ∀t 6 · 0 + 2t− 2t = 0 6= 1, entonces r es paralela a π3.Además O = (0, 0, 0) ∈ r y el punto de intersección de π3 con el eje z es

(0, 0, −12

).

13. Encontrar la ecuación del plano π1 que pasa por el punto P =(3,−6, 7) y es paralelo al plano π2 : 5x− 2y + z − 5 = 0.

La dirección normal (ortogonal) al plano π1 está dada por el vector n1 =(5,−2, 1).

La ecuación del plano π2 en forma punto-normal es: 5(x− 3)− 2(y +6)+(z − 7) y en forma general: 5x− 2y + z − 34 = 0.

14. Demostrar que las rectas

r1 :

x− 3 = 4ty − 4 = tz − 1 = 0

∞ < t < ∞ y r2 :

x + 1 = 12sy − 7 = 6sz − 5 = 3s

, ∞ < s < ∞

se cortan y encontrar el punto de intersección.

r1 :

x = 3 + 4ty = 4 + t

z = 1∞ < t < ∞ y r2 :

x = −1 + 12sy = 7 + 6sz = 5 + 3s

, ∞ < s < ∞

Tenemos que encontrar dos valores de t y s tales que

3 + 4t = −1 + 12s4 + t = 7 + 6s

1 = 5 + 3s.

Estos valores son s = −43

y t = −5. El punto de intersección es P =(−17,−1, 1).

Page 313: Libro Completo Algebra

Álgebra 313

15. Hallar la ecuación del plano π que contiene las rectas del ejercicio15.

El plano π tiene que pasar por el punto P = (−17,−1, 1) y ser paraleloa r1 y a r2.

Si n = (a, b, c) es la dirección ortogonal al plano π, se obtiene queπ : a(x+17)+b(y+1)+c(z−1) = 0, donde n · (4, 1, 0) = n · (12, 6, 3) = 0,

siendo (4, 1, 0) y (12, 6, 3) dos vectores paralelos a las rectas r1 y r2, respec-tivamente.

La relaciones n · (4, 1, 0) = n · (12, 6, 3) = 0 implican que 4a + b = 0 y12a+6b+3c = 0. Todos los vectores n = (a,−4a, 4a),∞ < a < ∞, a 6= 0,

serán ortogonales a las dos rectas dadas. Entonces, π : (x + 17)− 4(y + 1) +4(z − 1) = x− 4y + 4z + 9 = 0.

16. Demostrar que si v es un vector diferente de cero en Rn, entonces v‖v‖

tiene la norma euclídea 1.

Utilizando una de las propiedades de la norma euclídea:

‖ v

‖ v ‖‖ = | 1

‖ v ‖| ‖ v ‖= ‖ v ‖‖ v ‖ = 1.

17. ¾Para qué valores de k se cumple que u y v son ortogonales?

a) u = (2, 1, 3), v = (1, 7, k).u · v = 2 + 7 + 3k = 9 + 3k = 0 ⇐⇒ k = −3.b) u = (k, k, 1), v = (k, 5, 6).u · v = k2 + 5k + 6 = 0 ⇐⇒ k = −2 o k = −3.

18. Demostrar la identidad ‖u + v‖2 + ‖u − v‖2 = 2‖u‖2 + 2‖v‖2 paravectores en Rn. Interpretar geométricamente este resultado en R2.

El resultado es una consecuencia inmediata de las siguientes relaciones:‖u + v‖2 = (u + v) · (u + v) = u · u + u · v + v · u + v · v = ‖u‖2 + ‖v‖2

‖u− v‖2 = (u− v) · (u− v) = u · u− u · v − v · u + v · v = ‖u‖2 + ‖v‖2

En R2, utilizando la regla del paralelogramo para determinar el vectoru + v, la identidad ‖u + v‖2 + ‖u− v‖2 = 2‖u‖2 + 2‖v‖2 se puede interpretarcomo: la suma de los cuadrados de las longitudes de las diagonales de un

Page 314: Libro Completo Algebra

314 Álgebra

paralelogramo es igual a la suma de los cuadrados de las longitudes de suslados.

19. Demostrar que si u y v son vectores ortogonales en Rn tales que‖u‖ = 1 y ‖v‖ = 1, entonces d(u, v) =

√2. Interpretar geométricamente este

resultado en R2.d2(u, v) = ‖u− v‖2 = (u− v) · (u− v) = u · u− u · v − v · u + v · v == ‖u‖2 + ‖v‖2 = 2 =⇒ d(u, v) =

√2.

En R2 este resultado es una aplicación del teorema de Pitágoras al trián-gulo rectángulo de lados unitarios u y v.

20. Sea (F(R,R), +, ◦) el espacio vectorial de las funciones de R en R.Determinar si los siguientes conjuntos son o no subespacios vectoriales deF(R,R) :

a) {f ∈ F(R,R) |∀x ∈ R f(x) = f(−x)} .b) {f ∈ F(R,R) | f(1) = 0} .c) {f ∈ F(R,R) | f(2) = f(3)} .

a) H = {f ∈ F(R,R) |∀x ∈ R f(x) = f(−x)} . Sí es subespacio vectorial,pues obviamente la función nula 0 ∈ H, pues ∀x ∈ R 0(x) = 0 = 0(−x) , ysi f, g∈H y α, β ∈ R, (αf + βg)(x) = αf(x) + βg(x) = (puesto que f, g∈H)= αf(−x) + βg(−x) = (αf + βg)(−x).

b) H = {f ∈ F(R,R) | f(1) = 0} .Sí es subespacio vectorial, pues ob-viamente la función nula 0 ∈ H, pues 0(1) = 0 , y si f, g∈H y α, β ∈R, (αf + βg)(1) = αf(1) + βg(1) = (puesto que f, g∈H) = α0 + β0 = 0.

c) H = {f ∈ F(R,R) | f(2) = f(3)} . Sí es subespacio vectorial, pues ob-viamente la función nula 0 ∈ H, pues 0(2) = 0 = 0(3) , y si f, g∈H yα, β ∈ R, (αf + βg)(2) = αf(2) + βg(2) = (puesto que f, g∈H) = αf(3) +βg(3) = (αf + βg)(3).

21. Demostrar que el subconjunto H formado por todas las n − tuplasde números reales tales que los elementos de cada n − tupla forman unaprogresión aritmética, es un subespacio vectorial de Rn.

Si (a1, ...., an) ∈ H, los elementos a1, ...., an están en progresión aritmética.Por consiguiente, siendo d la razón de la progresión,

(a1, a2, ...., an) = (a1, a1 + d, ...., a1 + (n− 1)d)

Obviamente (0, 0, ..., 0) ∈ H (progresión aritmética de razón d = 0, ycuyo primer elemento es el 0).

Page 315: Libro Completo Algebra

Álgebra 315

Sean (a1, a1 + d, ...., a1 + (n − 1)d), (b1, b1 + d′, ...., b1 + (n − 1)d′) ∈ H yα, β ∈ R. En ese caso

α(a1, a1 + d, ...., a1 + (n− 1)d) + β(b1, b1 + d′, ...., b1 + (n− 1)d′) =

= (αa1 + βb1, (αa1 + βb1) + αd + βd′, ...., (αa1 + βb1) + α(n− 1)d +

+ β(n− 1)d′).

Es decir, es un elemento de H, puesto que es una progresión aritmética derazón αd + βd′ y cuyo primer elemento es αa1 + βb1.

22. Se dice que A ∈ Mn(K) es simétrica si tA = A. Si denotamos porSn(K) al conjunto de las matrices simétricas de orden n, demostrar que Sn(K)es un subespacio vectorial de Mn(K).

Veámoslo usando la otra caracterización de los subespacios vectoriales:Obviamente la matriz (0) es simétrica, pues t(0) = (0), luego (0) ∈ Sn(K).Por otra parte, si A,B ∈ Sn(K), se veri�ca que t(A) = A y t(B) = B.Pero t(A+B) =t (A)+t (B) = A+B y, en consecuencia, A+B ∈ Sn(K),

y si A ∈ Sn(K) y α ∈ K, t(αA) = αt(A) = αA.

Recordemos que una matriz A ∈ Mn(K) es antisimétrica si tA = −A.¾Constituyen las matrices antisimétricas un subespacio vectorialde Mn(K)?

Justifíquese la respuesta.

Veamos que si: (0) es antisimétrica, pues t(0) = (0) = −(0). Si A,Bson antisimétricas t(A) = −A y t(B) = −B, con lo que t(A + B) =t (A) +t

(B) = −A + (−B) = −(A + B), y si A es antisimétrica y α ∈ K, entoncest(αA) = αt(A) = α(−A) = −(αA).

23. En R4 se considera el subespacio vectorial H = L(A) generado por elconjunto A de vectores A = {(1,−1, 0, 0), (0, 1, 1, 0), (2,−1, 1, 0), (3,−3, 0, 0)}.

¾Pertenece el vector (1, 1, 1, 0) al subespacio vectorial H?

Como hemos visto, existen varias formas de resolver este problema. Lamás directa es utilizar el método de Gauss:

consideremos la matriz de coordenadas de los 5 vectores anteriores respec-to de la base canónica, y mediante transformaciones por columna obtenemosuna matriz gaussiana:

1 0 2 3 1−1 1 −1 −3 10 1 1 0 10 0 0 0 0

c3 = c3− 2c1c4 = c4− 3c1c5 = c5− c1

1 0 0 0 0−1 1 1 0 20 1 1 0 10 0 0 0 0

Page 316: Libro Completo Algebra

316 Álgebra

c3 = c3− c2c5 = c5− 2c1

1 0 0 0 0−1 1 0 0 00 1 0 0 −10 0 0 0 0

Como puede observarse, la matriz es gaussiana, con lo que su rango es 3.Sin embargo, el rango correspondiente a la matriz formada por las 4 primeras�las es 2 , con lo que los vectores columna c1, c2 y c5 constituyen un sistemalibre. El vector (1, 1, 1, 0) no pertenece al subespacio H.

24. En el R − e.v. R3 con su estructura de espacio vectorial habitualdeterminar si los sistemas de vectores

(1, 1, 1), (1, 1, 0), (1, 0, 0) y (1, 2, 3), (2, 0, 1), (−1, 2, 2)

son libres o ligados.Como en el problema anterior, hay varias formas de resolverlo. La más

sencilla es utilizar el método de Gauss, pero lo vamos a hacer de dos formasdistintas:

a) Modo 1): Sean α, β, γ ∈ R tales que

α(1, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0).

En ese caso(α + β + γ, α + β, α) = (0, 0, 0),

de donde, resolviendo el sistema de ecuaciones, α = 0, β = 0, γ = 0. Es decir,el sistema {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es libre.

Modo 2): Consideramos la matriz cuyas columnas son las coordenadasde los vectores respecto de una base del espacio vectorial considerado (eneste caso la base canónica de R3) y hallamos el rango de esa matriz. Si elrango de la matríz coincide con el número de vectores, el sistema es libre. Sial hacer transformaciones elementales por columnas obtenemos una columnade ceros, el vector correspondiente a esa columna se puede expresar comocombinación lineal de los anteriores y el sistema es ligado. En nuestro caso:

1 1 11 1 01 0 0

es la matriz. Está claro que es una matriz gaussiana. Por

consiguiente el rango es 3, y el sistema de vectores es libre.b) Lo hacemos del segundo modo:

Page 317: Libro Completo Algebra

Álgebra 317

1 2 −12 0 23 1 2

; puesto que no es gaussiana, la convertimos en gaussiana

realizando transformaciones elementales por columnas:

1 2 −12 0 23 1 2

c3 = c3− c1 →

1 2 −22 0 03 1 −1

c3 = c3 + c2 →

1 2 02 0 03 1 0

Está claro que el rango del sistema de vectores es 2, y que el corres-pondiente a la última columna se expresa como combinación lineal de loscorrespondientes a las dos primeras. Por consiguiente el sistema es ligado.

25. Consideramos el Z2−espacio vectorial de los �bytes� (Z82, +, ·) con la

suma y producto por escalares ya de�nidos. Se pide determinar si el sistemade vectores

(1, 0, 0, 0, 1, 1, 1, 0), (0, 1, 1, 1, 1, 1, 1, 0)

es libre o ligado y hallar el subespacio vectorial generado por el conjunto deesos dos vectores.

Es obvio que el sistema es libre, pues ninguno de los dos vectores que cons-tituyen el sistema se puede expresar en función del otro (como combinaciónlineal del mismo). De otro modo, si α, β ∈ Z2 son tales que

α(1, 0, 0, 0, 1, 1, 1, 0) + β(0, 1, 1, 1, 1, 1, 1, 0) = (0, 0, 0, 0, 0, 0, 0, 0),

tendremos que

(α, 0, 0, 0, α, α, α, 0) + (0, β, β, β, β, β, β, 0) = (0, 0, 0, 0, 0, 0, 0, 0)

de donde α = β = 0.El subespacio vectorial generado por estos vectores es

H = {(x1, ..., x8) ∈ Z82 |

∃α, β ∈ Z2..(x1, ..., x8) = α(1, 0, 0, 0, 1, 1, 1, 0) + β(0, 1, 1, 1, 1, 1, 1, 0)}.

26. En el espacio vectorial P4(C) de los polinomios de grado menor oigual que 4 con coe�cientes en C se considera el polinomio p(x) = x4−x2 +2.

Page 318: Libro Completo Algebra

318 Álgebra

Demostrar que el sistema p(x), p′(x), p′′(x), p′′′(x) formado por el polinomiop(x) y sus sucesivas derivadas (hasta la tercera) es un sistema libre.

Lo hacemos por el método de Gauss:p′(x) = 4x3 − 2x, p′′(x) = 12x2 − 2, p′′′(x) = 24xSiendo B = {1, x, x2, x3, x4}, la matriz de coordenadas de los vectores del

sistema considerado es

2 0 −2 00 −2 0 24−1 0 12 00 4 0 01 0 0 0

; la matriz es gaussiana, y por consiguiente su

rango es igual al número de vectores columna no nulos, es decir, 4. Por tantouna base del subespacio H = L{p(x), p′(x), p′′(x), p′′′(x)} es

{p(x), p′(x), p′′(x), p′′′(x)},

con lo que el sistema {p(x), p′(x), p′′(x), p′′′(x)} es libre.

27. En el espacio vectorial F(N,R) de las sucesiones de números reales,con la suma y producto habituales, consideramos el conjunto

H = {(xn) ∈ F(N,R) |∀n ∈ N xn+2 = xn+1 + xn}

a) Demostrar que H es un subespacio vectorial de F(N,R).b) Comprobar que dim(H) = 2.a) i) Evidentemente la sucesión nula (0) ∈ H, pues la relación xn+2 =

xn+1 + xn se traduciría en este caso en que 0 = 0 + 0, lo cual es cierto.ii) Si (xn), (yn) ∈ H, tendremos que

{xn+2 = xn+1 + xn

yn+2 = yn+1 + yn

con lo que xn+2 + yn+2 = (xn+1 + yn+1) + (xn + yn), es decir, la sucesión(xn) + (yn) ∈ H.

iii) Finalmente, si (xn) ∈ H y α ∈ R, vamos a ver que α(xn) ∈ H :puesto que (xn) ∈ H, xn+2 = xn+1 + xn y en consecuencia, multiplicando

los dos miembros de la igualdad por α, αxn+2 = αxn+1 + αxn, es decir, lasucesión (αxn) = α(xn) ∈ H.

b) Para resolver este apartado lo que hay que tener en cuenta es : si lasucesión (xn) ∈ H, ¾cuántos parámetros me determinan la sucesión?. Esobvio que si ∀n ∈ N xn+2 = xn+1 +xn, conocidos x1 y x2, la sucesión quedacompletamente determinada, pues x3 = x1 + x2, ....

Page 319: Libro Completo Algebra

Álgebra 319

Luego si consideramos las sucesiones de (xn), (yn) ∈ H que satisfacen lascondiciones

{x1 = 1x2 = 0

, y{

y1 = 0y2 = 1

, dada cualquier sucesión (zn) ∈ H , si{

z1 = αz2 = β

, resulta que{

z1 = αx1 + βy1

z2 = αx2 + βy2, y, teniendo en cuenta que esos

dos valores determinan la sucesión (zn) ∈ H, resulta que (zn) = α(xn) +β(yn). Por tanto {(xn), (yn)} es un sistema generador de H. Por otra parte,es inmediato que es libre, pues si α(xn) + β(yn) = (0) (sucesión nula), enparticular

{αx1 + βy1 = 0αx2 + βy2 = 0

, de donde{

α · 1 + β · 0 = 0α · 0 + β · 1 = 0

, es decir, α =

β = 0. Por tanto, dim(H) = 2.

28. Hallar el rango de las siguientes matrices:

A =

1 3 22 1 10 2 0

, B =

1 3 0 2−1 1 2 12 2 3 01 6 2 25 1 1 0

, C =

1 0 1 7 1 12 1 2 1 3 41 2 1 1 3 1

.

A =

1 3 22 1 10 2 0

c2 = c2 − 3c1

c3 = c3 − 2c1

1 0 02 −5 −30 2 0

El rango de A es

3.

B =

1 3 0 2−1 1 2 12 2 3 01 6 2 25 1 1 0

c2 = c2 + c1

c3 = c3 + 2c1

c4 = c4 + c1

1 4 2 3−1 0 0 02 4 7 21 7 4 35 6 11 5

c3 = c3 − 12c2

c4 = c4 − 34c2

1 4 0 0−1 0 0 02 4 5 −11 7 1

2−94

5 6 8 12

c4 = c4 + 15c3

1 4 0 0−1 0 0 02 4 5 01 7 1

2−4320

5 6 8 2110

El rango de B

es 4.

C =

1 0 1 7 1 12 1 2 1 3 41 2 1 1 3 1

F2 = F2 − 2F1

F3 = F3 − F1

1 0 1 7 1 10 1 0 −13 1 20 2 0 −6 2 0

Page 320: Libro Completo Algebra

320 Álgebra

F3 = F3 − 2F1

1 0 1 7 1 10 1 0 −13 1 20 0 0 20 0 −4

El rango de C es 3.

29. Encontrar una base y hallar la dimensión del espacio de matricestriangulares superiormente T n(K).

T n(K) = { A= (aij)∈ Mn(K) | aij = 0 si j < i }.Para todos s =1,...,n y t =i,...,n, sea Est ∈ Mn(K) la matriz

de�nida porEst =

{0 si (i, j) 6= (s, t)1 si (i, j) = (s, t)

.Sea B = {Est : s = 1, ..., n, t = s, ..., n} . Queremos veri�car que B es

una base de T n(K).B es libre ya que si

∑s=1,...,n

∑t=s,...,n astEst = (0) ∈ Mn(K), entonces,

para todo i=1,...,n y j=i,...,n, se veri�ca que∑

s=1,...,n

∑t=s,...,n astEst(i, j) =

aijEij(i, j) = aij = 0.B es generador ya que si A= (ast)∈ Mn(K), A=

∑s=1,...,n

∑t=s,...,n astEst.

Para todo s=1,...,n, el número de matrices Est con t=s,...,n es (n-s+1),se sigue que

el número de elementos de B es n+(n-1)+(n-2)+...+2+1=n(n+1)/2.

30. En el espacio vectorial Z52, hallar una base del subespacio vectorial

H = L({( 0 1 0 1 1),(

0 1 0 0 1),

(0 0 0 1 0

),(

0 1 1 1 1)}).

0 0 0 01 1 0 10 0 0 11 0 1 11 1 0 1

c2 = c2 + c1

c4 = c4 + c1

0 0 0 01 0 0 00 0 0 11 1 1 01 0 0 0

c3 = c3 + c2

0 0 0 01 0 0 00 0 0 11 1 0 01 0 0 0

Page 321: Libro Completo Algebra

Álgebra 321

La dimensión de H es 3 y una base es

B = {( 0 1 0 1 1),(

0 1 0 0 1),(

0 1 1 1 1)}

31. En el espacio vectorial R3, hallar una base del subespacio vectorial

H = L({(3, 2,−1), (1, 1, 1), (4, 3, 0)}).

3 1 42 1 3−1 1 0

c3 = c3 − c1

3 1 12 1 1−1 1 1

c3 = c3 − c2

3 1 02 1 0−1 1 0

c2 = c2 + c1

3 4 02 3 0−1 0 0

.

Entonces la dimensión de H es 2 y una base es B={(3, 2,−1), (1, 1, 1)}.

7.3 Soluciones de los ejerciciosdel capítulo 3

1. Razonar si las siguientes funciones son o no lineales (en cada uno delos conjuntos considerados se considera su estructura habitual de espaciovectorial):

a) f : R3 → R(x, y, z) Ã x + 2y − 3z

b) f : R3 → R(x, y, z) Ã xyz

c) f : R2 → R(x, y) Ã x2 + y

Unicamente es lineal la del apartado a). La del apartado b) no puestoque, por ejemplo, f((1, 1, 1) + (1, 1, 1)) = f(2, 2, 2) = 2 · 2 · 2 = 8, mientrasque f(1, 1, 1) + f(1, 1, 1) = 1 · 1 · 1 + 1 · 1 · 1 = 2.

La del apartado c) no es lineal pues por ejemplo, f(2·(1, 1, 1)) = f(2, 2, 2) =6, mientras que 2 · f(1, 1, 1) = 2(12 + 1) = 4.

Page 322: Libro Completo Algebra

322 Álgebra

2. Dada la función lineal f : R2 → R3 determinada por las condiciones

f(1, 0) = (3, 4, 1), f(0, 1) = (−1, 0, 1),

determinar f(3, 1) y f(2,−1).(3, 1) = 3(1, 0) + 1(0, 1), luego, puesto que f es lineal,

f(3, 1) = f(3(1, 0) + 1(0, 1)) =

= 3f(1, 0) + f(0, 1) = 3(3, 4, 1) + (−1, 0, 1) =

= (9, 12, 3) + (−1, 0, 1) = (8, 12, 4).

Análogamente, puesto que (2,−1) = 2(1, 0) + (−1)(0, 1),

f(2,−1) = f(2(1, 0) + (−1)(0, 1)) =

= 2f(1, 0) + (−1)f(0, 1) = 2(3, 4, 1) + (1, 0,−1) =

= (6, 8, 2) + (1, 0,−1) = (7, 8, 1).

3. Determinar si la función T : M2(R) → R, dondea) T

(a bc d

)= 3a− 4b + c− d

b) T

(a bc d

)= a2 + b2

es una transformación lineal.a) Sean k, l ∈ R y A =

(a1 b1

c1 d1

), B =

(a2 b2

c2 d2

)∈ M2(R).

T

(k

(a1 b1

c1 d1

)+ l

(a2 b2

c2 d2

))= T

((ka1 + la2 kb1 + lb2

kc1 + lc2 kd1 + ld2

))=

= 3(ka1+la2)−4(kb1+lb2)+(kc1+lc2)−(kd1+ld2) = k(3a1−4b1+c1−d1)+

+l(3a2 − 4b2 + c2 − d2) = kT

(a1 b1

c1 d1

)+ lT

(a2 b2

c2 d2

). Entonces T

es lineal.b) Sean k, l ∈ R y A =

(1 10 0

), B =

(1 00 0

)∈ M2(R). Entonces,

T

((1 10 0

)+

(1 00 0

))= T

(2 10 0

)= 5 y

Page 323: Libro Completo Algebra

Álgebra 323

T

(1 10 0

)= 2, T

(1 00 0

)= 1. T no es lineal ya que T (A)+T (B) 6=

T (A + B).4. Sea T : R2 → R2 el operador lineal de�nido por la expresión T (x, y) =

(2x− y,−8x + 4y). ¾Cuáles de los siguientes vectores están en R(T )?a) (1,-4) b) (5,0) c) (-3,12)

T (x, y) = (2x− y,−4(2x− 4)).a) T (0, 1) = (1,−4) ∈ R(T ).b) (5, 0) no puede estar en R(T ) ya que −4(5) 6= 0.c) T (0, 3) = (−3, 12) ∈ R(T ).

5. Sea T : P2 → P3 la transformación lineal de�nida por T (p(x)) = xp(x).¾Cuáles de los siguientes vectores están en Ker(T )?a) x3 b) 0 c)1 + x

a) T (x3) = x4 6= 0 → x3 /∈ Ker(T )b) 0 ∈ Ker(T ) ya que T es lineal.c) T (1 + x) = x + x2 6= 0 → x3 /∈ Ker(T ).

6. En cada inciso, usando la información proporcionada obtener la nu-lidad de T.

a) T : R5 → R7 tiene rango 3, entonces la nulidad de T es 5-3=2.b) T : P4 → P3 tiene rango 1, entonces la nulidad de T es 5-1=4.c) T (R6) = R3,entonces la nulidad de T es 6-3=3.d) T : M2(R) → M2(R) tiene rango 3, entonces la nulidad de T es 4-3=1.

7. Sea T : R2 → R2 la proyección ortogonal sobre la recta y=x.a) Encontrar el núcleo de T.Ker(T) es el subespacio vectorial de R2 que tiene proyección ortogonal

(0,0) sobre la recta y=x. Entonces es la recta y=-x.b) ¾Es T uno a uno? Justi�car la conclusión.T es lineal y su núcleo es distinto de {0}, entonces T no es inyectiva.

8. En cada inciso, usando la información dada determinar si (la funciónlineal) T es uno a uno.

a) T : Rn → Rm ; nulidad(T) =0.dim(Ker(T))=0, entonces Ker(T)={0} y T es inyectiva.

Page 324: Libro Completo Algebra

324 Álgebra

b) T : Rn → Rn ; rango(T) = n-1.dim(Ker(T)) = n-(n-1) =1, entonces Ker(T) 6={0} y T no es inyectiva.c) T : Rm → Rn ; n<m.Ya que rango(T) ≤ n, dim(ker( T)) = m-rango(T) > m-n > 0, entonces

T no es inyectiva.d) T : Rn → Rn ; R(T) = Rn.

dim(ker( T)) = n-rango(T) = n-n = 0, entonces Ker(T)={0} y T esinyectiva.

9. Sea T : P2 → P1 la transformación lineal de�nida porT (a0 + a1x + a2x

2) = (a0 + a1)− (2a1 + 3a2)x.

a) Encontrar la matriz para T con respecto a las bases B2 = {1,x,x2} yB1 = {1,x} para P2 y P1.

T(1) = 1, T(x) = 1-2x, T(x2) = -3x. La matriz asociada a T esA=

(1 1 00 −2 −3

).

b) Comprobar que la matriz (T)B2,B1 = MB1B2

(T ) obtenida en el inciso a)satisface la fórmula : A(p(x))B2 = (T(p(x)))B2.

A(p(x))B2 =(

1 1 00 −2 −3

)

a0

a1

a2

=

(a0 + a1

−(2a1 + 3a2)

)= (T(p(x)))B2.

10. Sea T1 : P1 → P2 la transformación lineal de�nida por

T1(c0 + c1x) = 2c0 − 3c1x

y sea T2 : P2 → P3 la transformación lineal de�nida porT2(c0 + c1x + c2x

2) = 3x(c0 + c1x + c2x2).

Sean B1 = {1,x}, B2 = {1,x,x2} y B3 = {1,x,x2,x3}.a) Encontrar MB1

B3(T2 ◦ T1), M

B2B3

(T2), MB1B2

(T1).

T2◦T1(1) = 6x, T2◦T1(x) = −9x2. Entonces MB1B3

(T2◦T1) =

0 06 00 −90 0

.

T2(1) = 3x, T2(x) = 3x2, T2(x2) = 3x3. Entonces MB2

B3(T2) =

0 0 03 0 00 3 00 0 3

.

Page 325: Libro Completo Algebra

Álgebra 325

T1(1) = 2, T1(x) = −3x. Entonces MB1B2

(T1) =

2 00 −30 0

.

b) Escribir una fórmula que relacione las matrices del inciso a).MB1

B3(T2 ◦ T1) = MB2

B3(T2)M

B1B2

(T1).

c) Comprobar que las matrices del inciso a) satisfacen la fórmula plan-teada en el inciso b).

MB2B3

(T2)MB1B2

(T1) =

0 0 03 0 00 3 00 0 3

2 00 −30 0

=

0 06 00 −90 0

=

= MB1B3

(T2 ◦ T1).

11. Sean A y B matrices semejantes. Demostrar lo siguiente:a) At y Bt son semejantes.b) Si A y B son invertibles, entonces A−1 y B−1 son semejantes.

Por de�nición de relación de semejanza, existe una matriz invertible P talque

B = P−1 A P.a) Bt = (P−1 A P)t = (A P)t (P−1)t = Pt At (P−1)t = Pt At (Pt)−1

(utilizando la propiedades de la tranposición vistas anteriormente ). Ya quePt es invertible, At y Bt son semejantes.

b) B−1 = (P−1 A P)−1 = (A P)−1 (P−1)−1 = P−1 A−1 P . Entonces A−1

y B−1 son semejantes.12.(Teorema alternativo de Fredholm) Sea T : V → V un operador

lineal sobre un espacio vectorial n dimensional. Demostrar que se cumpleexactamente una de las siguientes proposiciones:

i) La ecuación T(x) =b tiene una solución para todo los vectores b enV.

ii) Nulidad de T > 0.Si no se veri�ca i), entonces existe un vector b en V tal que b no apartenece

al imagen de la función lineal T. Entonces el rango de T es estrictamentemenor que n, Rango(T) < n, y Nulidad(T) = n - Rango (T) > n -n =0.

13. Sea la función lineal f : R4 → R3 determinada por las condiciones

f(1, 1, 1, 1) = (0, 0, 1), f(1, 0, 1, 0) = (1, 1,−1),

f(1, 1, 1, 0) = (0, 0,−1), f(−1,−2, 0, 0) = (1, 1, 1).

Page 326: Libro Completo Algebra

326 Álgebra

a) Hallar la matriz asociada a f respecto de las bases canónicas de R4 yR3.

b) La dimensión y las ecuaciones de Ker(f) e Im(f) respecto de las basescanónicas de R4 y R3.

a) El primer apartado se puede hacer de varias maneras. La matriz pedi-da, MB4

B3(f) es la que tiene por columnas las (f(1, 0, 0, 0))B3 , ..., (f(0, 0, 0, 1))B3 .

Por tanto necesitamos hallar f(1, 0, 0, 0), ..., f(0, 0, 0, 1). Para calcular esasimágenes, podemos escribir los vectores de B4 como combinación lineal de losvectores que de�nen f y después hallar f(B4), o bien utilizar las matricesde cambio de base según vimos en la pizarra. Lo hacemos por este segundoprocedimiento.

Siendo B = {(1, 1, 1, 1), (1, 1, 1, 0), (1, 0, 1, 0), (−1.− 2, 0, 0)} una base deR4,

MBB3

(f) =

0 0 1 10 0 1 11 −1 −1 1

Como la matriz que buscamos es MB4B3

(f), dicha matriz se obtiene consi-derando el esquema:

B4 IdR4 B f B3

R4 −→ R4 −→ R3 ,

con lo que MB4B3

(f) = MB4B3

(f ◦ IdR4) = MBB3

(f) ·MB4B (IdR4). Necesitamos,

pues, hallar MB4B (IdR4). Para ello, hay que obtener las coordenadas de los

vectores de la base canónica B4 respecto de B.

De manera directa, MBB4

(IdR4) =

1 1 1 −11 1 0 −21 1 1 01 0 0 0

. Según sabemos,

MB4B (IdR4) =

(MB

B4(IdR4)

)−1. Por lo tanto hay que calcular la inversa de la

matriz anterior.

1 1 1 −11 1 0 −21 1 1 01 0 0 0

1 0 0 00 1 0 00 0 1 00 0 0 1

F1 ←→ F4

1 0 0 01 1 0 −21 1 1 01 1 1 −1

0 0 0 10 1 0 00 0 1 01 0 0 0

Page 327: Libro Completo Algebra

Álgebra 327

F2 = F2 − F1

F3 = F3 − F1

F4 = F4 − F1

1 0 0 00 1 0 −20 1 1 00 1 1 −1

0 0 0 10 1 0 -10 0 1 -11 0 0 −1

F3 = F3 − F2

F4 = F4 − F2

1 0 0 00 1 0 −20 0 1 20 0 1 1

0 0 0 10 1 0 -10 -1 1 01 -1 0 0

F4 = F4 − F3

1 0 0 00 1 0 −20 0 1 20 0 0 −1

0 0 0 10 1 0 -10 -1 1 01 0 -1 0

F2 = F2 − 2F4

F3 = F3 + 2F4

F4 = −F4

1 0 0 00 1 0 00 0 1 00 0 0 1

0 0 0 1-2 1 2 -12 -1 -1 0-1 0 1 0

Es decir, MB4B (IdR4) =

(MB

B4(IdR4)

)−1=

0 0 0 1−2 1 2 −12 −1 −1 0−1 0 1 0

, con lo

que la matriz buscada es MB4B3

(f) = MBB3

(f) ·MB4B (IdR4) =

=

0 0 1 10 0 1 11 −1 −1 1

0 0 0 1−2 1 2 −12 −1 −1 0−1 0 1 0

=

1 −1 0 01 −1 0 0−1 0 0 2

.

b) Utilizando el algoritmo que vimos en clase:

1 -1 0 01 -1 0 0−1 0 0 21 0 0 00 1 0 00 0 1 00 0 0 1

c4 =c4 + 2c1

1 -1 0 21 -1 0 2−1 0 0 01 0 0 20 1 0 00 0 1 00 0 0 1

c4 =c4 − 2c2

Page 328: Libro Completo Algebra

328 Álgebra

1 -1 0 01 -1 0 0−1 0 0 01 0 0 20 1 0 -20 0 1 00 0 0 1

obtenemos que, respecto de las bases canónicas de R4 y R3, Ker(f) =L({(0, 0, 1, 0), (2,−2, 0, 1)}) e Im(f) = L({(1, 1,−1), (−1,−1, 0)}), por tantola dimensión de Ker(f) = 2 y la dimensión de Im(f) = 2.

Entonces, respecto de las bases canónicas de R4 y R3, las ecuacionesparamétricas de Ker(f) son:

u = (u1,u2,u3,u4) ∈ Ker(f) ⇔ ∃ (a, b) ∈ R2 tal que

0 20 −21 00 1

(ab

)=

u1

u2

u3

u3

y las ecuaciones paramétricas de Im(f) son:v = (v1,v2,v3) ∈ Im(f) ⇔ ∃ (a, b) ∈ R2 tal que

1 −11 −1−1 0

(ab

)=

v1

v2

v3

.

14. Sea E un espacio vectorial de dimensión 3 y B = {e1, e2, e3} una basede E. Consideramos la función lineal f : E → E tal que su matriz asociadasea

MBB (f) =

15 −11 520 −15 88 −7 6

.

Hallar la matriz asociada a f respecto de la base B′ = {u1, u2, u3}, donde

u1 = 2e1 + 3e2 + e3,

u2 = 3e1 + 4e2 + e3,

u3 = e1 + 2e2 + 2e3.

Page 329: Libro Completo Algebra

Álgebra 329

La matriz de f respecto de la base B′ es la matriz asociada a la siguientecomposición de funciones:

B′ IdE B f B IdE B′

E −→ E −→ E −→ E

MB′B′ (f) = MB

B′(IdE) ·MBB (f) ·MB′

B (IdE),

donde

MB′B (IdE) =

2 3 13 4 21 1 2

es la matriz de las coordenadas de B′respecto

de B y

MBB′(IdE) = (MB′

B (IdE))−1 =

−6 5 −24 −3 11 −1 1

. Entonces,

MB′B′ (f) =

−6 5 −24 −3 11 −1 1

15 −11 520 −15 88 −7 6

2 3 13 4 21 1 2

=

=

1 0 00 2 00 0 3

.

15. Hallar una base del núcleo y una base de la imagen de la siguientefunción lineal:

f : R4 → R3 determinada por las condiciones:

f(1, 0, 0, 0) = (1, 0, 1), f(0, 1, 0, 0) = (2, 1,−1),

f(0, 0, 1, 0) = (3, 0,−1), f(0, 0, 0, 1) = (1, 1, 1).

De las condiciones enunciadas se sigue que

MB4B3

(f) =

1 2 3 10 1 0 11 −1 −1 1

Utilizando el método desarrollado en el aula (he incluido todas las trans-formaciones por columnas en un solo paso) , tendremos que:

Page 330: Libro Completo Algebra

330 Álgebra

1 2 3 10 1 0 11 −1 −1 11

11

1

c2 = c2 − 2c1

c3 = c3 − 3c1

c4 = c4 − c1

c4 = c4 − c2

c4 = c4 + 34c3

1 0 0 00 1 0 01 −3 −4 01 −2 −3 −5

4

1 −11 3

4

1

de donde{(1, 0, 1), (0, 1,−3), (0, 0,−4)}

es una base de Im(f) y {(−5

4,−1,

3

4, 1)

}

es una base de Ker(f).16. En R2 se considera la base B′ = {u1, u2}, donde

u1 = 2e1 + 3e2,

u2 = 3e1 + 4e2,

y B2 = {e1, e2} = {(1, 0), (0, 1)}. Siendo la función lineal f : R2 → R2 talque su matriz asociada respecto de B′ es

MB′B′ (f) =

(3 152 10

),

hallar una base de Ker(f) y una base de Im(f).El algoritmo es el mismo que el empleado en el ejercicio 5, pero en este

caso trabajamos con las coordenadas respecto de B′ :

3 152 101

1

c2 = c2 − 5c1 →

3 02 01 −5

1

.

Luego, teniendo en cuenta que las coordenadas( −5

1

)y

(32

)están ex-

presadas respecto de la base B′ = {u1, u2}, tendremos que el vectorw = −5u1 + u2 = −5(2e1 + 3e2) + 3e1 + 4e2 =

= −7e1 − 11e2

Page 331: Libro Completo Algebra

Álgebra 331

constituye una base de Ker(f), yw′ = 3u1 + 2u2 = 3(2e1 + 3e2) + 2(3e1 + 4e2) =

= 12e1 + 17e2

constituye una base de Im(f). En otras palabras, respecto de las coordenadascanónicas de R2, {(−7,−11)} es una base de Ker(f) y {(12, 17)} es una basede Im(f).

7.4 Soluciones de los ejerciciosdel capítulo 4

1. En el espacio vectorial euclídeo R3 con el producto escalar usual se consi-dera el sistema de vectores

{(1, 2,−1), (0, 1, 1)}.Se pide obtener, mediante el método de Gram-Schmidt, una base ortonormaldel subespacio

L({(1, 2,−1), (0, 1, 1)})y la proyección ortogonal del vector (1, 1, 1) sobre dicho subespacio.

Sea v1 = (1, 2,−1), ‖v1‖ =√

1 + 4 + 1 =√

6 y sea

v2 = (0, 1, 1)− 〈(0, 1, 1), (1, 2,−1)〉6

(1, 2,−1) =

= (0, 1, 1)− 1

6(1, 2,−1) = (−1

6,2

3,7

6),

‖v2‖ =

√1

36+

16

36+

49

36=

√11

6.

B = {w1 =v1

‖v1‖ , w2 =v2

‖v2‖} = {( 1√6,

2√6,−1√

6), (

−1√66

,4√66

,7√66

)}

es una base ortonormal de H =L({(1, 2,−1), (0, 1, 1)}).Sea u = (1,1,1). La proyección ortogonal de u sobre H es:

p⊥(u) = 〈u,w1〉w1+〈u,w2〉w2 =2√6w1 +

10√66

w2 = (2

11,14

11,59

11).

Page 332: Libro Completo Algebra

332 Álgebra

7.5 Soluciones de los ejerciciosdel capítulo 5

1. Obtener una matriz generadora y una matriz de control del código deparidad expuesto en los apuntes de clase.

El código de paridad es lineal ya que pueden ser descrito como el conjuntode soluciones de la ecuación lineal homogénea

x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8 = 0 con xi ∈ Z2

y en consecuencia dicho conjunto es un subespacio vectorial de Z82.

Una matriz generadora del código de paridad es la matriz

1 0 0 0 0 0 00 1 0 0 0 0 00 0 1 0 0 0 00 0 0 1 0 0 00 0 0 0 1 0 00 0 0 0 0 1 00 0 0 0 0 0 11 1 1 1 1 1 1

Una matriz de control del código de paridad es(

1 1 1 1 1 1 1 1)

ya que su dimensión es 1× 8 y C es el núcleo de la función linealf(x1, x2, x3, x4, x5, x6,x7, x8) = x1 + x2 + x3 + x4 + x5 + x6 + x7 + x8.2. Obtener una matriz generadora y una matriz de control del código de

repetición expuesto en los apuntes de clase.El código de repetición es lineal ya que pueden ser descrito como el como

el conjunto de soluciones del siguiente sistema de ecuaciones lineales:{

x1 = x2

x2 = x3con xi ∈ Z2

que equivale al siguiente sistema de ecuaciones lineales homogéneas:{

x1 + x2 = 0x2 + x3 = 0

con xi ∈ Z2.

Page 333: Libro Completo Algebra

Álgebra 333

Una matriz generadora del código de repetición C = {(0,0,0),(1,1,1)} es:

111

Una matriz de control del código de repetición es la matriz asociada alsistema de ecuaciones lineales homogéneas anterior:

(1 1 00 1 1

).

3. Determinar una matriz de control del código cuya matriz generadoraes:

G =

1 1 11 0 01 0 11 1 1

.

1 1 1 1 0 0 01 0 0 0 1 0 01 0 1 0 0 1 01 1 1 0 0 0 1

F2 = F2 + F1

F3 = F3 + F1

F4 = F4 + F1

F1 = F1 + F2

F2 = F2 + F3

F2 ↔ F3

1 0 0 0 1 0 00 1 0 1 0 1 00 0 1 0 1 1 00 0 0 1 0 0 1

Luego la matriz de control es la matriz

H =(

1 0 0 1).

4. Determinar una matriz generadora del código cuya matriz de controles:

H =

(1 0 1 01 1 1 1

)

Una posible solución es:

Page 334: Libro Completo Algebra

334 Álgebra

1 0 1 01 1 1 11 0 0 00 1 0 00 0 1 00 0 0 1

c3 = c3 + c1

1 0 0 01 1 0 11 0 1 00 1 0 00 0 1 00 0 0 1

c4 = c4 + c2

1 0 0 01 1 0 01 0 1 00 1 0 10 0 1 00 0 0 1

luego la siguiente matriz es generadora del código

G =

1 00 11 00 1

,

ya que sus columnas forman una base del núcleo de la función lineal cuyamatriz asociada es H.

5. Determinar una matriz de control y una matriz que permita realizarla decodi�cación del código generado por los vectores cuyas coordenadasrespecto de la base canónica de Z4

2 son las columnas de la matriz:

0 1 11 1 01 0 10 1 1

Obsérvese que, puesto que las columnas de la matriz forman un sistemaligado, pues c3 = c1 + c2, y dado que la matriz formada por las dos primerascolumnas de la matriz dada es una matriz gaussiana sin ninguna columnanula, resulta que una matriz generadora del código es la matriz formada porlas dos primeras columnas, esto es:

G =

0 11 11 00 1

.

Operando ahora con el algoritmo estudiado:

0 1 1 0 0 01 1 0 1 0 01 0 0 0 1 00 1 0 0 0 1

F2 = F2 + F1

F3 = F3 + F2

F4 = F4 + F1

F2 ↔ F1

1 0 1 1 0 00 1 1 0 0 00 0 1 1 1 00 0 1 0 0 1

Page 335: Libro Completo Algebra

Álgebra 335

Luego la matriz de control es la matriz

H =

(1 1 1 01 0 0 1

)

y la matriz que permite realizar la decodi�cación es la matriz

T =

(1 1 0 01 0 0 0

).

6. Determinar una matriz de control y una matriz que permita realizarla decodi�cación del código cuya matriz generadora es

G =

1 11 01 10 1

1 1 1 0 0 01 0 0 1 0 01 1 0 0 1 00 1 0 0 0 1

F2 = F2 + F1

F3 = F3 + F1

F4 = F4 + F2

F1 = F1 + F2

1 0 0 1 0 00 1 1 1 0 00 0 1 0 1 00 0 1 1 0 1

Luego la matriz de control es la matriz

H =

(1 0 1 01 1 0 1

)

y la matriz que permite realizar la decodi�cación es la matriz

T =

(0 1 0 01 1 0 0

).

7.6 Soluciones de los ejerciciosdel capítulo 6

1. Determinar la sucesión de�nida recursivamente por las condiciones

an+2 = 7an+1 − 12an

a1 = 1a2 = 3.

Page 336: Libro Completo Algebra

336 Álgebra

La ecuación característica de la relación de recurrencia homogénea dadaes

x2 − 7x + 12 = 0

cuyas raíces son x = 3 y x = 4. Por consiguiente, las sucesiones que satisfacenesa relación de recurrencia son de la forma:

α{3n}+ β{4n}.

Imponiendo que se satisfagan las condiciones iniciales:{α3 + β4 = 1α32 + β42 = 3

de donde{

3α + 4β = 19α + 16β = 3

, de donde β = 0 y α = 13,

con lo que la sucesión buscada es

1

3{3n} = {3n−1}.

2. Encontrar las sucesiones que satisfacen la relación de recurrencia

an+3 = 4an+2 − 5an+1 + 2an.

La ecuación característica de la relación de recurrencia homogénea dadaes

x3 − 4x2 + 5x− 2 = 0

ecuación que se puede expresar de la forma (x− 2) (x− 1)2 = 0 y que portanto tiene una raiz x = 1 de multiplicidad 2 y otra raiz x = 2 de mul-tiplicidad 1. Por consiguiente, las sucesiones que satisfacen esa relación derecurrencia son de la forma:

α{1n}+ β{n1n}+ γ{2n}.

3. Encontrar las soluciones de la ecuación diferencial

D2(f)− 7D(f) + 12f = e−t.

Page 337: Libro Completo Algebra

Álgebra 337

La ecuación característica de la ecuación diferencial homogénea asociadaa la ecuación dada es:

x2 − 7x + 12 = 0

ecuación que se puede expresar de la forma (x− 3) (x− 4) = 0. Por consi-guiente, una base del espacio de soluciones

Ker(D2 − 7D + 12Id) = Ker((D − 3Id) ◦ (D − 4Id))

de dicha ecuación homogénea será

{e3t, e4t}.Como por otra parte el término independiente es solución de la ecuación

(D + Id)(f) = 0 ⇔ D(f) + f = 0

podemos obtener una solución particular por el método de los coe�cientesindeterminados: Las soluciones de la ecuación dada lo serán también de laecuación

((D + Id) ◦ (D − 3Id) ◦ (D − 4Id))(f) = 0

Como las soluciones de esta última ecuación son de la forma

αe3t + βe4t + γe−t,

imponiendo que satisfagan la ecuación original dada tendremos que

((D − 3Id) ◦ (D − 4Id))(αe3t + βe4t + γe−t) = e−t

de donde(γe−t + 4γe−t + 3γe−t + 12γe−t) = e−t

es decir,(20γ e−t) = e−t

de donde 20γ = 1, es decir,γ =

1

20.

En de�nitiva, la solución general de la ecuación dada, con α y β constantesarbitrarias es

f(t) =1

20e−t + αe3t + βe4t

Page 338: Libro Completo Algebra

338 Álgebra

4. Resolver el problema de valor inicial{

D(f)− 2f = e2t

f(0) = 1.

Buscamos las soluciones de la ecuación no homogénea dada empleando elmétodo de los coe�cientes indeterminados:

Puesto que e2t es solución de la ecuación diferencial

(D − 2Id) (f) = 0,

buscamos nuestras soluciones entre las soluciones de la ecuación

((D − 2Id) ◦ (D − 2Id))(f) = 0.

Las soluciones de esta última ecuación son de la forma

f(t) = αe2t + βte2t,

por lo que, imponiendo que

D(f)− 2f = e2t

obtenemos2αe2t + 2βte2t + βe2t − 2αe2t − 2βte2t = e2t,

es decir,βe2t = e2t ⇒ β = 1

de donde{

f(t) = αe2t + te2t

f(0) = α = 1.

Por consiguiente la solución es

f(t) = e2t + te2t = (t + 1)e2t.

5. Resolver el sistema de ecuaciones diferenciales{

x′1 = 5x1 + 4x2

x′2 = x1 + 2x2

Page 339: Libro Completo Algebra

Álgebra 339

sujeto a las condiciones iniciales x1(0) = 2, x2(0) = 3.

Obtenemos las raíces del polinomio característico, los autovectores corres-pondientes y la inversa de la matriz P de paso, resultando

(15

−45

15

15

)(5 41 2

)(1 4−1 1

)=

(1 00 6

).

Ahora resolvemos el sistema,{

z′1(t) = z1(t)z′2(t) = 6z2(t)

es decir, {z1(t) = αet

z2(t) = βe6t

siendo (x1(t)x2(t)

)=

(1 4−1 1

)(z1(t)z2(t)

),

es decir,(

x1(t)x2(t)

)=

(1 4−1 1

)(αet

βe6t

)=

(αet + 4βe6t

−αet + βe6t

).

Imponiendo �nalmente las condiciones iniciales, tendremos que(

23

)=

(α + 4β−α + β

),

es decir: β = 1, α = −2, con lo que la solución será(

x1(t)x2(t)

)=

( −2et + 4e6t

2et + e6t

).

6. Resolver el sistema de ecuaciones de recurrencia (ecuaciones en dife-rencias) {

an+1 = 5an + 4bn

bn+1 = an + 2bn

con las condiciones iniciales a1 = 2, b1 = 3.

Page 340: Libro Completo Algebra

340 Álgebra

El sistema planteado en forma matricial es(

an+1

bn+1

)=

(5 41 2

)(an

bn

)

Utilizando los cálculos hechos en el problema anterior, tendremos que(

15

−45

15

15

)(5 41 2

)(1 4−1 1

)=

(1 00 6

)

con lo que resolver el sistema de relaciones de recurrencia indicado es equi-valente a resolver el sistema de relaciones de recurrencia

(cn+1

dn+1

)=

(1 00 6

)(cn

dn

)

con (an

bn

)=

(1 4−1 1

)(cn

dn

).

Obviamente ( {cn}{dn}

)=

(α {1n}β {6n}

)

con lo que(

an

bn

)=

(1 4−1 1

)(α

6nβ

)=

(α + 4 · 6nβ−α + 6nβ

).

Imponiendo ahora las condiciones iniciales:(

a1

b1

)=

(23

)=

(α + 24β−α + 6β

).

de donde {30β = 5 ⇒ β = 1

6

α = −2

y, en de�nitiva, la solución es(

an

bn

)=

( −2 + 4 · 6n−1

2 + 6n−1

).

Page 341: Libro Completo Algebra

Álgebra 341

7. Calcular la potencia n−ésima de la matriz

A =

2 1 12 3 23 3 4

.

Después de hallar los autovalores, los autovectores y la matriz de pasollegamos a:

56

16−1

−13

13

0−1

212

1

1 0 00 7 00 0 1

1 −2 11 1 10 −3

21

=

2 1 12 3 23 3 4

con lo que

2 1 12 3 23 3 4

n

=

56

16−1

−13

13

0−1

212

1

1 0 00 7n 00 0 1

1 −2 11 1 10 −3

21

,

es decir,

2 1 12 3 23 3 4

n

=

56

16−1

−13

13

0−1

212

1

1 0 00 7n 00 0 1

1 −2 11 1 10 −3

21

=

=

56

+ 167n −1

6+ 1

67n −1

6+ 1

67n

−13

+ 137n 2

3+ 1

37n −1

3+ 1

37n

−12

+ 127n −1

2+ 1

27n 1

2+ 1

27n

.

Page 342: Libro Completo Algebra

342 Álgebra

Page 343: Libro Completo Algebra

Apéndice A

Nuevo método de triangulaciónpor semejanza

Motivado por el hecho de que la relación de semejanza constituye el meca-nismo básico de transformación de los sistemas de ecuaciones diferenciales,vamos a establecer otro algoritmo que nos permita construir matrices seme-jantes.

Como es habitual en álgebra lineal, el procedimiento que vamos a dis-cutir está basado en el uso de transformaciones elementales, que ya fueronintroducidas en el capítulo 2. Recordemos cuales son:

343

Page 344: Libro Completo Algebra

344 Álgebra

Transformación Ejemplo

Sumar a una columnaun múltiplo de otra

(1 00 1

)−−−−−−−−−→c2 = c2 + 7c1

(1 70 1

)

Multiplicar una columnapor un número no nulo

(1 70 1

)−−−−−→c1 = 5c1

(5 70 1

)

Intercambiar dos columnas(

7 30 1

)−−−−→c1 ↔ c2

(3 71 0

)

Sumar a una �laun múltiplo de otra

(1 00 1

)−−−−−−−−−→f2 = f2 + 7f1

(1 07 1

)

Multiplicar una �lapor un número no nulo

(1 05 1

)−−−−−→f1 = 7f1

(7 05 1

)

Intercambiar dos �las(

7 03 1

)−−−−−→f1 ↔ f2

(3 17 0

)

Según vimos en el capítulo 2 y en la práctica correspondiente, cada tras-formación elemental se corresponde con la operación de multiplicar por unacierta matriz invertible, en el sentido de la siguiente proposición.

Proposición A.0.1 Sea A ∈ Mn(K). Si

A− tc → A′

In−tc → P,

donde tc denota una transformación elemental por columnas, se veri�ca queA′ = AP y que la matriz P ∈ Mn(K) es invertible. Análogamente, si

A− tf → A′

In−tf → P,

donde tf denota una transformación elemental por �las, se veri�ca que A′ =PA y que la matriz P ∈ Mn(K) es invertible.

Page 345: Libro Completo Algebra

Álgebra 345

Este resultado nos da la clave para establecer un mecanismo para cons-truir matrices semejantes. Observemos el siguiente esquema, donde tc repre-senta una transformación elemental por columnas y tf por �las:

A− tc → tf → BIn−tc → P

In−tf → P′

=⇒ B = P′AP.

Para conseguir que A y B sean semejantes, basta ajustar las transformacionestc y tf para que sus correspondiente matrices, P y P′, sean la una inversa dela otra. Ahora bien, para que P′ = P−1, basta conseguir que

In−tc → tf → In, (A.1)ya que esto querría decir que In = P′InP = P′P. En la siguiente tabla asocia-mos a cada transformación por columnas su correspondiente transformacióninversa por �las:

Columnas: tc Filas: tfci = ci + λcj fj = fj − λfi

ci = λci fi =1

λfi

ci ↔ cj fi ↔ fj

Para cerciorarse de que esta tabla está bien construida basta comprobar(A.1).

A partir de este momento, asumiremos el siguiente convenio de notación:si t denota a una trasformación elemental por columnas o por �las, t−1 de-notará a la correspondiente transformación inversa respectivamente por �laso por columnas. Por ejemplo (ci = ci + λcj)

−1 = (fj = fj − λfi).

Finalmente, utilizado esta notación, podemos concluir que en el supuestode que t1, . . . tr sean transformaciones por columnas:

At1−→ · · · tr−→ t−1

1−→ · · · t−1r−→ A′

Int1−→ P1

...In

tr−→ Pr

⇒ A′ = (P1 · . . . ·Pr)

−1 A (P1 · . . . ·Pr) .

Page 346: Libro Completo Algebra

346 Álgebra

Para verlo basta tener en cuenta lo anterior y que(P1 · . . . ·Pr)

−1 = P−1r · . . . ·P−1

1 .

Asímismo, si primero realizamos las transformaciónes por �la y luego porcolumnas, también obtenemos:

At−11−→ · · · t−1

r−→ t1−→ · · · tr−→ A′′

Int1−→ P1

...In

tr−→ Pr

⇒ A′′ = (P1 · . . . ·Pr)

−1 A (P1 · . . . ·Pr) ,

luego, en particular, A′ = A′′.

Ahora ya tenemos un mecanismo que nos permite construir matrices se-mejantes, que consiste básicamente en compensar cada transformación ele-mental por columnas con su correspondiente inversa por �las o viceversa.Pero además, a través del siguiente esquema podemos también obtener lamatriz de paso:

At1−→ · · · tr−→ A ·P t−1

1−→ · · · t−1r−→ P−1·A ·P

Int1−→ · · · tr−→ P P.

Por ejemplo, como:

1 3 22 1 10 2 0

1 0 00 1 00 0 1

c2 = c2 − 3c1

c3 = c3 − 2c1→

1 0 02 −5 −30 2 0

1 −3 −20 1 00 0 1

f1 = f1 + 3f2

f1 = f1 + 2f3→

7 −11 −92 −5 −30 2 0

1 −3 −20 1 00 0 1

,

tendremos que :

Page 347: Libro Completo Algebra

Álgebra 347

1 −3 −20 1 00 0 1

−1

·

1 3 22 1 10 2 0

·

1 −3 −20 1 00 0 1

=

7 −11 −92 −5 −30 2 0

.

La demostración del siguiente teorema constituye un algoritmo que per-mite la obtención de la matriz triangular semejante a una matriz dadaA ∈ Mn(C).

Teorema A.0.2 Si A es una matriz cuadrada de orden n con coe�cientescomplejos, existe una matriz semejante a ella T que es triangular.

Demostración La demostración consiste en probar que se puede construiruna cadena de matrices

A = T0 → T1 → · · · → Tn = T,

cada una semejante a la anterior (y en consecuencia todas ellas son semejantesentre sí) y de tal modo Ti es de la forma

Ti =

An−i 0

Ri×n−i

λi 0... . . .· · · · λ1

,

donde An−i es una matriz cuadrada de orden n − i y Ri×n−i es una matrizrectangular de orden i × (n− i) . Para ello basta ver el procedimiento pa-ra añadir un nuevo eslabón a la cadena. Así pues supongamos que hemosconstruido la cadena hasta Ti, veamos cómo añadir el eslabón Ti+1.

Puesto que trabajamos con coe�cientes complejos el polinomio caracte-rístico

PAn−i(X) = |An−i −XIn−i|

tiene al menos una raíz, a la que por conveniencia denotaremos con λ. Siahora restamos λIn a la matriz Ti obtenemos:

Page 348: Libro Completo Algebra

348 Álgebra

Ti − λIn =

An−i − λIn−i 0

Ri×n−i

λi − λ 0... . . .· · · · λ1 − λ

y, puesto que |An−i − λIn−i| = 0, las columnas de la submatriz An−i−λIn−i

son linealmente dependientes. Por tanto, según sabemos, es posible apli-car una serie de transformaciones elementales por columnas sobre la matrizAn−i−λIn−i de tal modo que en la matriz resultante (una matriz gaussiana)aparecerá alguna columna nula. Además mediante una permutación, pode-mos colocar dicha columna al �nal. Luego sabemos determinar una serie detransformaciones elementales por columnas t1, t2, . . . , tk (más adelante vere-mos un ejemplo) que aplicadas sobre An−i − λIn−i genera una matriz deltipo:

α11 · · · 0... ...

αn−i1 · · · 0

.

Por tanto, si aplicamos estas mismas transformaciones sobre la matriz Ti −λn−iIn nos queda una matriz cuya forma es:

α11 · · · 0... ...

αn−i1 · · · 0

0

R′i×n−i

λi − λ 0... . . .· · · · λ1 − λ

. (A.2)

Las transformaciones t1, t2, . . . , tk que hemos empleado, únicamente afec-tan a las primeras n − i columnas, por tanto las correspondientes transfor-maciones inversas t−1

1 , t−12 , . . . , t−1

k únicamente afectan a las primeras n − i�las ya que, para cualquier j ∈ {1, . . . , k} si:

tj =

cr = cr + λcs

cr = λcr

cr ↔ cs

, como 1 ≤ r, s ≤ n− i,⇒

Page 349: Libro Completo Algebra

Álgebra 349

⇒ t−1j =

fs = fs − λfr

fr = 1λfr

fr ↔ fs

con 1 ≤ r, s ≤ n− i.

Esto quiere decir que si aplicamos las transformaciones t−11 , t−1

2 , . . . , t−1k sobre

la matriz (A.2), obtendremos una matriz T′ cuya forma es:

T′ =

α′11 · · · 0... ...

α′n−i1 · · · 0

0

R′i×n−i

λi − λ 0... . . .· · · · λ1 − λ

.

(Obsérvese que las transformaciones t−11 , t−1

2 , . . . , t−1k no han podido alterar

los ceros que aparecían en la columna n− i de la matriz (A.2)) Ahora bien,en este momento tenemos que T′ es semejante a Ti − λn−iIn, es decir existeuna matriz invertible P tal que

T′ = P−1 · (Ti − λn−iIn) ·P.

Pero entonces T′ = (P−1 ·Ti ·P)−λn−i(P−1 · In ·P) = P−1 ·Ti ·P−λn−iIn,

y en consecuencia P−1 ·Ti ·P = T′ + λn−iIn, es decir

P−1 ·Ti ·P =

α′11 + λ · · · α′1n−i−1... ... 0

α′n−i1 · · · α′n−i,n−i−1 λ 0r′i,n−i λi

R′i×n−i−1

... ... . . .r′n,n−i · · · · λ1

y esta matriz es precisamente Ti+1.

Observación 67 El método propuesto en la demostración no modi�ca lasla submatriz triangular obtenida hasta el momento. Esto quiere decir que el

Page 350: Libro Completo Algebra

350 Álgebra

autovalor de An−i utilizado para aumentar el tamaño de la submatriz trian-gular permanece hasta el �nal, apareciendo en la diagonal principal de lamatriz T. Ahora bien, por ser T y A semejantes sus polinomios caracterís-ticos coinciden, y por ser T triangular:

|T−XIn| =

λn −X 0 · · · 0a21 λn−1 −X · · · 0... ... . . . ...

an1 an2 · · · λ1 −X

=

= (λ1 −X) · · · (λn−1 −X) (λn −X) .

Esto quiere decir que el autovalor de An−i utilizado necesariamente es unautovalor de A que no ha sido utilizado previamente.

Ejemplo A.0.3 Triangular por semejanza y hallar la matriz de paso corres-pondiente a la matriz

A =

−2 0 33 −2 −9−1 2 6

En primer lugar determinamos las raíces del polinomio característico dela matriz:

∣∣∣∣∣∣

−2−X 0 33 −2−X −9−1 2 6−X

∣∣∣∣∣∣= −X + 2X2 −X3 = (1−X)2 (0−X).

Luego los autovalores A son [1, 1, 0] . A continuación utilizamos el primerode ellos para construir T1 :

−2 0 33 −2 −9−1 2 61 0 00 1 00 0 1

−−−→−I3

−3 0 33 −3 −9−1 2 51 0 00 1 00 0 1

c3 = c3 + c1−−−−−−−−−→

Page 351: Libro Completo Algebra

Álgebra 351

−3 0 03 −3 −6−1 2 41 0 10 1 00 0 1

c3 = c3 − 2c2−−−−−−−−−−→

−3 0 03 −3 0−1 2 01 0 10 1 −20 0 1

−−−−−−−−−−−→f1 = f1 − f3

f2 = f2 + 2f3

−2 −2 01 1 0−1 2 01 0 10 1 −20 0 1

−−−→+I3

−1 −2 01 2 0−1 2 11 0 10 1 −20 0 1

Ahora para construir T2 nos quedan los autovalores [1, 0] . Utilicemos elprimero:

−1 −2 01 2 0−1 2 11 0 10 1 −20 0 1

−−−→−I3

−2 −2 01 1 0−1 2 01 0 10 1 −20 0 1

c2 = c2 − c1−−−−−−−−−→

−2 0 01 0 0−1 3 01 −1 10 1 −20 0 1

−−−−−−−−−−→f1 = f1 + f2

−1 0 01 0 0−1 3 01 −1 10 1 −20 0 1

−−−→+I3

0 0 01 1 0−1 3 11 −1 10 1 −20 0 1

.

Page 352: Libro Completo Algebra

352 Álgebra

Como T2 ya es triangular, hemos acabado y hemos obtenido que:

1 −1 10 1 −20 0 1

−1

·A ·

1 −1 10 1 −20 0 1

=

0 0 01 1 0−1 3 1

.

Page 353: Libro Completo Algebra

Bibliografía

[A] Anton, H., Introducción al Álgebra lineal, Ed. Limusa (NoriegaEditores), 1997, Segunda edición.

[Ap] Apostol, T.M., Linear Algebra, A First course with Applicationsto Di�erential Equations, John Wiley& Sons, 1997.

[B] Bauldry, W.C. et al., Linear Algebra with Maple, John Wiley&Sons, 1995.

[C] Criado, R. et al, Fundamentos Matemáticos I: Álgebra y ecua-ciones diferenciales con coe�cientes constantes, Ed. Centro deEstudios Ramón Areces S. A., 1998.

[Cu] Cullen, C. G., Linear Algebra with Applications, Addison-Wesley, 1997.

[D] De la Villa, A., Problemas de Álgebra, Ed. CLAGSA, 1994.

[De] Demmel, J. W., Applied Numerical Linear Algebra, Siam, 1997.

[G] Grossman, S.I., Álgebra lineal, McGraw-Hill, 1996.

[H] Hernandez, E., Álgebra y Geometría, Addison Wesley, 1994.

[J] Jacob, B., Linear Algebra, W. H. Freeman and Company, 1990.

[N] Nobel, B., Daniel, J. W., Algebra lineal aplicada, Prentice-HallHispanoamericana, 1989.

353